Sida 2 av 3
Postat: 21 juni 2005, 21:36:35
av Macce
strombom får skriva in ett program som kollar på sammanhanget

Då blir ytterligare lite svårare

Postat: 21 juni 2005, 22:06:19
av bengt-re
http://www.e-clec-tech.com/speakjetchip.html
En billig och enkel lösning. Talet är sådär, men man begriper vad som sägs iaf..
Postat: 22 juni 2005, 04:38:22
av strombom
bengt-re: den såg intressant ut, mycket intressant datablad också!
/Johan
Postat: 23 juni 2005, 21:36:29
av f76
Svenska uttalas till 90% procent som det skrivs dvs det finns klara regler för uttal. vokal blir kort innan dubbel konsonant osv. Kanske något att leta efter i en lärobok

.. Så behöver du en lista på konsonanter och en lista på vokaler.
Annars kan du spela in fonetiken och försöka matcha med texten.
Postat: 2 juli 2005, 02:50:17
av strombom
Nu har jag byggt en ny enhet för inscanningen som fungerar mycket bättre, både utomhus i direkt solsken och i totalt mörker (den har lysdioder som är på när den scannar). Tyvärr kan jag inte läsa text mindre än 20 punkter eftersom linsen är helt fel (från en miniatyr-tv-kamera).
Är det någon som har förslag på vad man kan använda för lins?
Sensorns aktiva yta är 6.4mm bred, och jag vill helst inte ha längre avstånd till texten än 30mm, texten ska vara max 15mm bred ungefär...
Jag har försökt hitta linser på nätet men det är inte lätt att hitta något lämpligt, de flesta har minimalt fokusavstånd på minst 200 mm tyvärr.
/Johan
Postat: 2 juli 2005, 09:36:05
av Tripp
Postat: 2 juli 2005, 11:08:07
av strombom
Tripp: Jo den kretsen har jag tänkt använda faktiskt, men jag ska beställa kretsen löst från digikey istället för en hel modul. 4*4 cm är för stort för mina ändamål...
/Johan
Postat: 2 juli 2005, 14:40:10
av henkebenke
Vad jag vet så använder C-pen en ASIC för teckenigenkänningen. Har för mig att det var för att hinna med att tolka tecknen helt enkelt. Det kan bli en hel del data som ska processas snabbt när man sveper över en rad text.
Postat: 2 juli 2005, 15:25:07
av strombom
Jo men jag nöjer mig med ett teckensnitt, jag har implementerat en backpropagationalgoritm som tar fram ett neuralt nätverk som jag använder i pennan. Denna analys gör jag efter att raden är inscannad, så det blir någon sekunds väntetid efter scanningen men det duger för mig.
Jag har nog hittat en lins på laseroptronix, hoppas den fungerar bra.
Sen tänkte jag köpa den här:
http://www.elfa.se/elfa-bin/dyndok.pl?l ... k=7240.htm
Hoppas den fungerar bättre.
/Johan
Postat: 2 juli 2005, 16:59:29
av Rymdninja
Ren nyfikenhet: vad har du för struktur/topologi på ditt ANN?
Postat: 2 juli 2005, 21:54:47
av strombom
ett inlager med 8*8 ingångar, det hade så klart varit bra med fler men 64 känns rättså mycket beräkningsmässigt ändå. jag plockar alltså ut en bokstav med godtycklig storlek från inscanningen och anpassar den til 8*8 pixlar.
sedan har jag testat mellan 20 och 100 noder i ett mellanlager. den verkar klara att spara ner ett typsnitt (A-Z) ganska snabbt på 40 noder.
sedan har jag 25 utnoder, en för varje bokstav så plockar jag ut den som blir störst. jag tränar den så att ett A får 1 på första utgången och 0 på resten.
Jag har aldrig gjort teckenigenkänning tidigare så om ni har några idéer så tar jag gärna emot dem
/Johan
Postat: 2 juli 2005, 22:16:43
av Seven11
vad är det för överföringsfunktion du använder?
Postat: 2 juli 2005, 22:26:30
av strombom
funktion(x) = 1/(1+e^-x)
/Johan
Postat: 30 juli 2005, 00:46:30
av strombom
Ett litet glädjerop: wohoo
Så där nu var den klar, min egen lilla c-pen. Gick fint med 10 mellanlager i ANN:et, nästan 100% säkerhet på inscanningarna (har bara testat med ett teckensnitt åt gången änsålänge, lite fusk där). Klarar inte att hitta mellanrum mellan meningar om man inte drar med väldigt jämn hastighet, får nog sätta på en tachometer från en datormus eller något...
Den här gången organiserade jag indatan så att jag delar in varje bokstav i 5*5 rutor, sedan får varje ruta vara en ingång till neuronnätet, alltså 25 ingångar. varje ruta får sitt värde efter hur många svarta pixlar som finns i det området. Det här funkade mycket bättre än att skicka in en hel bild i nätverket och det sparade massor av minne och hastighet!
Nu använder jag bildsensorn
S9227 från elfa med 512 pixlar i en rad. Ger jättefin bild, och snabbt läser den!
Har även byggt en liten handhållen plotter som skriver ut bokstäver, den är dock inte helt klar än...

behöver en rem
Så om någon funderar på att använda dessa bildsensorer eller vill använda neurala nätverk i en mikrokontroller så hjälper jag gärna till !
Postat: 30 juli 2005, 11:37:00
av Fagge
Jag vill se bilder
