Hejsan,
Nu har jag flyttat och kan under hela sommaren hänge mig åt elektronikens skojiga värld. Hjul är ordnat och bilder kommer så snart jag packat upp SSG:n ur sin låda.
En liten fråga, hur stor felmarginal bör jag sätta om jag ändå vill mäta energiinnehållet genom att mäta spänningen över ett batteri? Jag menar, det kanske inte blir 100 % exakt, men om skillnaden i spänning blir stor, så kanske det blir "tillräckligt" exakt för att kunna dra en slutsats. Vad jag förstått så faller spänningen i takt med att batteriet laddas ur.
Om det är helt _omöjligt_ att mäta hur pass laddat ett batteri är med hjälp av voltmätning, så får jag köpa en energiinnehållsmätare för batterier. Jag har sett att det finns såna proffsinstrument som på ett tillförlitligt sätt kan mäta energiinnehåll. Nu är jag inte ute efter att minimera felkällor så att det blir absurt, för forskningsändamål, osv. Jag vill ha så stora tydliga utslag att felkällor som några få procent hit eller dit inte spelar någon roll. Antingen så ska det här funka, eller så funkar det inte.
En annan grej är att om jag skulle bygga allting i ett proffslab med dyr utrustning och military grade komponenter osv, och jag kan uppmäta en skillnad där energiinnehållet ökar i batterierna totalt sett, men skillnaden är väldigt liten, då är det ingen idé att hålla på mer heller. Antingen är det en fet skillnad, eller så struntar jag i alltsammans. Det får tiden utvisa. Jag menar om energin i batterierna ökar bara lite lite grand, ja då behöver jag kanske 1,000 snurror för att kunna få ut någon vettig effekt vilket skulle vara totalt orealistiskt. Då kan jag lika gärna sätta en dynamo på en cykel och trampa fram min egen el! haha
