1.När jag läser metadata med ett program för att plocka ut kordnaterna, om det finns några i metadatan, så dör processen med infon "Killed" efter många minuter. Inte mycket info. Dock hinnar jag få en hyffsat stor file som jag kan labba vidare med i nästa steg att bygga karta. Och jag vet inte hur jag skall felsöka för att bli av med "Killed". Det är c.a 18000 bilder. Jag kan förståss pröva att analysera färre bilder men jag är nyfiken och vill analysera och lära nytt.
När jag kör processen, och den snurrar , ser det ut så här:
Kod: Markera allt
erik@HP:~/Bilder/ASUS$ free -m
total used free shared buff/cache available
Mem: 7868 3742 99 314 4026 3565
Swap: 2047 1545 502
Kod: Markera allt
erik@HP:~/Bilder/ASUS$ free -m
total used free shared buff/cache available
Mem: 7868 3481 3983 194 403 3956
Swap: 2047 2004 43
2. Jag måste krympa bilderna för lägga upp 100tals bilder på 4-5MB blir en jätte html-file som inte min browser klarar av att hantera. Html-filen är underlag för kartan. Men de okrympa bilderna måste jag använda för att hämta metadata. Metadata försvinner från de krympta bilderna. Så det jag gör är att krympa bilderna med ett bash-script som lägger dem i en mapp som heter "krymp3".
Så här ser en enskild post ut:
Kod: Markera allt
/home/erik/Bilder/ASUS/Bilder/2019/Samsung_S8/20181021_171115.jpg
59.31805555555556 18.06388888888889
Kod: Markera allt
/home/erik/Bilder/ASUS/Bilder/2019/Samsung_S8/krymp3/20181021_171115.jpg
59.31805555555556 18.06388888888889
Annan ide?
Dator: ubuntu 18.4.04
erik@HP$ uname -a
Linux HP 5.3.0-62-generic #56~18.04.1-Ubuntu SMP Wed Jun 24 16:17:03 UTC 2020 x86_64 x86_64 x86_64 GNU/Linux
Python 3.6.9
Leaflet 1.6.0
from exif import Image: (Image för att läsa metadata)
import folium: (foiium för att skapa kartan)