H.O's Pick and place.
Re: H.O's Pick and place.
Liten uppdatering....
Jag har jobbat (läs strulat, experimenterat, lekt och testat) lite på vision-biten. Det jag testat är att helt enkelt ta bilder av hur olika komponenter ser ut, sett från kameran - här är t.ex vad kameran ser när en 0805 resistor är "perfekt" placerad i centrum på bilden: Ur ovanstående bild har jag sedan klippt ut själva komponenten: Roborealm kan sedan använda de bilderna att matcha mot.
Här är en halvtaskig skärmdump: Man kan se att RoboRealm har identifierat komponenten som en "R0805" och att jag fått över information om dess placering i bilden till Mach3. Sedan räknar jag ut "felet" och korrigerar för det. X och Y position fungerar bra men rotationen funkar inte riktigt ännu. Problemet är att den "alltid" tycker att det är 180° fel oavsett hur många gånger jag roterar den.
Spontant tror jag dock inte att detta angreppsett är det mest lämpliga. Det är inte alltid den hittar komponenten, det fungerar hyffsat med resistorn ovan men med en SOT23 är det värre och sen hittar den t.ex en SO8 "innuti" en SO14 etc. Jag tror det kan bli lite bättre men en enfärgad matt skiva som bakgrund, det finns en lite cylindrisk "hals" på munstycket där man skulle kunna fästa en sådan. Men det är i alla fall ett steg i rätt riktning och det duger för att få till integrationen mellan Mach3 och RoboRealm. Jag hoppas få lite ytterligare tips från RoboRealms support.
Vilka metoder använder ni andra som pysslar med Pick and Place?
Jag har jobbat (läs strulat, experimenterat, lekt och testat) lite på vision-biten. Det jag testat är att helt enkelt ta bilder av hur olika komponenter ser ut, sett från kameran - här är t.ex vad kameran ser när en 0805 resistor är "perfekt" placerad i centrum på bilden: Ur ovanstående bild har jag sedan klippt ut själva komponenten: Roborealm kan sedan använda de bilderna att matcha mot.
Här är en halvtaskig skärmdump: Man kan se att RoboRealm har identifierat komponenten som en "R0805" och att jag fått över information om dess placering i bilden till Mach3. Sedan räknar jag ut "felet" och korrigerar för det. X och Y position fungerar bra men rotationen funkar inte riktigt ännu. Problemet är att den "alltid" tycker att det är 180° fel oavsett hur många gånger jag roterar den.
Spontant tror jag dock inte att detta angreppsett är det mest lämpliga. Det är inte alltid den hittar komponenten, det fungerar hyffsat med resistorn ovan men med en SOT23 är det värre och sen hittar den t.ex en SO8 "innuti" en SO14 etc. Jag tror det kan bli lite bättre men en enfärgad matt skiva som bakgrund, det finns en lite cylindrisk "hals" på munstycket där man skulle kunna fästa en sådan. Men det är i alla fall ett steg i rätt riktning och det duger för att få till integrationen mellan Mach3 och RoboRealm. Jag hoppas få lite ytterligare tips från RoboRealms support.
Vilka metoder använder ni andra som pysslar med Pick and Place?
Du har inte behörighet att öppna de filer som bifogats till detta inlägg.
Re: H.O's Pick and place.
Nej inte svart. Måla det i nån väldigt distinct färg (lime grön), du vet ju hur greenscreens funkar 
Ett den hittar 2 komponenter i 1 är ju redigt dålig programmering, ska ju bara kunna finnas ett object
så man få kolla sannolikheten till det
Behöver du ha nått custom vision system så hör av dig, jag håller på att programmerar sådana.
exemple


tog din bild och testade lite, helt klart svårt att urskillja komponenten via färg skillnande, värre blir det när man kör svart/vitt. Sätt en distinkt färg bakom den, Samt göra komponenten större för kameran. kör längre ner, små object är svåra att upptäcka

Ett den hittar 2 komponenter i 1 är ju redigt dålig programmering, ska ju bara kunna finnas ett object

Behöver du ha nått custom vision system så hör av dig, jag håller på att programmerar sådana.
exemple


tog din bild och testade lite, helt klart svårt att urskillja komponenten via färg skillnande, värre blir det när man kör svart/vitt. Sätt en distinkt färg bakom den, Samt göra komponenten större för kameran. kör längre ner, små object är svåra att upptäcka
Re: H.O's Pick and place.
Japp, har kompleterat med en illgul disk bakom. Problemet är att 0805 och 0603 är så pass små att delar av munstycket ÄNDÅ är synligt. I ett försök att förbättra dett har jag målat delar av munstycket gult men inte hunnit prova så mycket ännu.
De tidigare försöken gick ut på att matcha "bild i bild" - så att säga, detta är inte optimalt. Ny aproach är att filtrera bilden på lite olika sätt innan - verkar lovande, utom på de minsta komponenterna av ovanstående anledning.
Ont om tid att labba denna veckan....
De tidigare försöken gick ut på att matcha "bild i bild" - så att säga, detta är inte optimalt. Ny aproach är att filtrera bilden på lite olika sätt innan - verkar lovande, utom på de minsta komponenterna av ovanstående anledning.
Ont om tid att labba denna veckan....
Re: H.O's Pick and place.
Borde det inte vara ganska statiskt var i bilden komponent centrum är varje gång?
Om det är så borde väl av läsningen börja i detta centrum och gå utåt till annan färg än komponenten dyker upp. Bara en tanke.
Om det är så borde väl av läsningen börja i detta centrum och gå utåt till annan färg än komponenten dyker upp. Bara en tanke.
Re: H.O's Pick and place.
va du borde göra är att först filterar bilden, hitta komponenten sen kör den en jämförlse med hjälp av kordinaterna
Du kan göra en Background subtract om din maskin alltid stanna på samma ställe, då är det väldigt enkelt att hitta detaljen. Sen kör en image match
Du kan göra en Background subtract om din maskin alltid stanna på samma ställe, då är det väldigt enkelt att hitta detaljen. Sen kör en image match
Re: H.O's Pick and place.
Ja, maskinen positionerar munstyckets centrum mitt i bilden - därmed inte sagt att komponeneten är exakt där - vilket ju är anledningen till att använda vision-systemet implementeras.
Just nu filterar jag bort gult, kör en Erode för att ta bort lite brus, sedan Dilate för "feta på" komponenten. Kvar nu är konturen av komponenten mot vilken jag kan köra shape-match. Har bara kunnat testa ytterst lite men det verkar fungera betydligt bättre än innan - utom då på de minsta komponenterna där munstycket fortfarande syns i bild.
Just nu filterar jag bort gult, kör en Erode för att ta bort lite brus, sedan Dilate för "feta på" komponenten. Kvar nu är konturen av komponenten mot vilken jag kan köra shape-match. Har bara kunnat testa ytterst lite men det verkar fungera betydligt bättre än innan - utom då på de minsta komponenterna där munstycket fortfarande syns i bild.
- Swech
- EF Sponsor
- Inlägg: 4750
- Blev medlem: 6 november 2006, 21:43:35
- Ort: Munkedal, Sverige (Sweden)
- Kontakt:
Re: H.O's Pick and place.
Glöm inte att kondensatorer har annan färg än den vita resistorn som är på bild
Swech
Swech
Re: H.O's Pick and place.
Nej då, de är tillräckligt långt ifrån den gula färgen jag har som bakgrund så det verkar fungera - har dock inte kunna verifiera pga munstycket.
Ska försöka få upp lite nya bilder på hur det ser ut.
Ska försöka få upp lite nya bilder på hur det ser ut.
Re: H.O's Pick and place.
Vet man inte ganska så noga vad det är man försöker titta på? Så att man kan svärta ut allt utanför där man rimligen kan ha komponenten?
- tecno
- Inlägg: 27252
- Blev medlem: 6 september 2004, 17:34:45
- Skype: tecnobs
- Ort: Sparreholm, Södermanland N 59° 4.134', E 16° 49.743'
- Kontakt:
Re: H.O's Pick and place.
Varför har man vision kamera underifrån? Borde det inte bli 'enklare' med kamera uppifrån med känd offset från munstycket?
Re: H.O's Pick and place.
Man vet väl inte hur bra man lyckas plocka upp komponenten? Tittar man inte ovanifrån innan man plockar upp, tittar underifrån för att se hur man fick den, och sedan tittar man vart man skall sätta ner den.
Re: H.O's Pick and place.
> Vet man inte ganska så noga vad det är man försöker titta på?
Visst vet man vad man förväntar sig att se och ungefär var i bilden (i centrum....)
> Så att man kan svärta ut allt utanför där man rimligen kan ha komponenten?
Man måste ju lämna lite "ram" runt "fönstret" så att komponenten verkligen ryms i bild även när den inte 100% korrekt upplockad - då hade ju inte vision-systemet behövts. Mitt problem (med de små komponenterna) är som sagt att även om jag gör ett relativt litet "fönster" OCH har en gul bakgrund så är själva munstycket så pass stort att det inte skyms av själva komponenten.
> Varför har man vision kamera underifrån? Borde det inte bli 'enklare' med kamera uppifrån med känd offset från munstycket?
Det tror jag inte, då får man vinkelfel, paralax-fel, samt att stora delar av komponenten skyms av munstycket. Under-upp-kamerans uppgift är ju att ta reda på hur komponenten sitter på munstycket relativt munstyckets centrum.
> Man vet väl inte hur bra man lyckas plocka upp komponenten? Tittar man inte ovanifrån innan man plockar upp, tittar underifrån för att se hur man fick den, och sedan tittar man vart man skall sätta ner den.
Precis, men jag har inte tänkt titta uppifrån innan jag plockar upp komponenten utan räknar med att jag är i tillräckligt nära för att åtminstånde få tag i komponenten - om inte är det något annat fel. Sen gå till under-upp-kameran för att ta reda på exakt position och orientering, kompensera och sedan vidare till placerings-koordinaterna.
Kortet är lokaliserat en gång innan start. Kan inte tänka mig att jag ska behöva använda den nedåttittande kameran under tiden så att säga. Ska knappast köra 1000-bollars BGA osv med den här.
Visst vet man vad man förväntar sig att se och ungefär var i bilden (i centrum....)
> Så att man kan svärta ut allt utanför där man rimligen kan ha komponenten?
Man måste ju lämna lite "ram" runt "fönstret" så att komponenten verkligen ryms i bild även när den inte 100% korrekt upplockad - då hade ju inte vision-systemet behövts. Mitt problem (med de små komponenterna) är som sagt att även om jag gör ett relativt litet "fönster" OCH har en gul bakgrund så är själva munstycket så pass stort att det inte skyms av själva komponenten.
> Varför har man vision kamera underifrån? Borde det inte bli 'enklare' med kamera uppifrån med känd offset från munstycket?
Det tror jag inte, då får man vinkelfel, paralax-fel, samt att stora delar av komponenten skyms av munstycket. Under-upp-kamerans uppgift är ju att ta reda på hur komponenten sitter på munstycket relativt munstyckets centrum.
> Man vet väl inte hur bra man lyckas plocka upp komponenten? Tittar man inte ovanifrån innan man plockar upp, tittar underifrån för att se hur man fick den, och sedan tittar man vart man skall sätta ner den.
Precis, men jag har inte tänkt titta uppifrån innan jag plockar upp komponenten utan räknar med att jag är i tillräckligt nära för att åtminstånde få tag i komponenten - om inte är det något annat fel. Sen gå till under-upp-kameran för att ta reda på exakt position och orientering, kompensera och sedan vidare till placerings-koordinaterna.
Kortet är lokaliserat en gång innan start. Kan inte tänka mig att jag ska behöva använda den nedåttittande kameran under tiden så att säga. Ska knappast köra 1000-bollars BGA osv med den här.
- tecno
- Inlägg: 27252
- Blev medlem: 6 september 2004, 17:34:45
- Skype: tecnobs
- Ort: Sparreholm, Södermanland N 59° 4.134', E 16° 49.743'
- Kontakt:
Re: H.O's Pick and place.
Hur i all sin dar kan det bli såna fel om kamera ligger x antal mm offset vid sidan om, du placerar/letar med hjälp av kamera för att hitta komponentens x/y 0 och förflyttar sedan munstycket till rätt ställe.då får man vinkelfel, paralax-fel, samt att stora delar av komponenten skyms av munstycket
Re: H.O's Pick and place.
Problemet är väl delvis att man inte kan veta exakt hur komponenten fastnar på munstycket då den sugs upp? Annars hade man väl fotat med kameran rätt ner i tejpen och sen korrigerat före man plockar upp..