http://imagelab.ing.unimo.it presentazione attività di ricerca secondo periodo – aprile-settembre...
TRANSCRIPT
http://imagelab.ing.unimo.it
Presentazione Attività di RicercaSecondo periodo – Aprile-Settembre 2008
02 Ottobre 2008
http://imagelab.ing.unimo.it
Obiettivi progetto
1. Studio di fattibilità ed analisi dei requisiti; ricerca e definizione di sistemi di acquisizione, telecamere e sistema di illuminazione più adatto allo scopo; studio dello stato dell’arte negli algoritmi e nelle librerie software per il pick and place
2. Studio e sviluppo di algoritmi di visione per l’individuazione della posizione e rotazione nel 3D (o 2D ½) del pezzo per calcolo del punto di pick;
3. studio e sviluppo di algoritmi per l’individuazione dell’ingombro dei contenitori dei manufatti
4. studio di segmentazione e localizzazione dei pezzi anche in caso di due oggetti adiacenti o parzialmente sovrapposti
5. Realizzazione di un primo sistema prototipale e campagna di test 6. Estensione al caso di gruppi di pezzi sovrapposti e sviluppo di librerie
invarianti alla dimensione e forma dei pezzi 7. Realizzazione di un sistema prototipale e campagna di test
fatto (periodo 1) fatto (periodo 2)
http://imagelab.ing.unimo.it
Ricostruzione 3D
http://imagelab.ing.unimo.it
Ricostruzione 3D
Problemi ancora da affrontare:• La presenza in alcuni casi di picchi non corretti dovuti alla
mancanza di match corretto tra le due viste; verranno studiati metodi per eliminarle o “tollerarle”
• La gestione di parti poco riflettenti, come il nero, o troppo riflettenti (come specchio o superfici lucide), nonché la gestione delle parti contenenti dei liquidi
http://imagelab.ing.unimo.it
Segmentazione oggetti complessi
Che approccio utilizzare?• Segmentazione basata sull’apparenza/colore
Colori non uniciApparenza molto “confusa” e occlusioni
• Segmentazione basata sui contorniOcclusioniContrasti non evidenti e riflessi
• Segmentazione basata su modello 3D completoModello 3D complesso da acquisireComputazionalmente oneroso
• Segmentazione basata su feature matching e trasf. geometricheRobusto a rotazione, scaling, luminosità, ecc.Veloce (pochi punti, non immagine completa o modello 3D)Feature matchate devono essere correlateSegmentazione non completa, ma “a punti”
http://imagelab.ing.unimo.it
Nostro approccio
I metodi di segmentazione feature-based implementano i seguenti passi:• Feature extraction• Feature matching• Calcolo trasformazione geometrica tra modello e immagine
SIFT
http://imagelab.ing.unimo.it
Feature extraction: SIFT
SIFT (Scale Invariant Feature Transform) – Lowe 2004I passi principali dell’algoritmo SIFT sono i seguenti:
1. Scale-space extrema detection: questo passo ricerca i massimi su tutte le scale e tutte le locazioni spaziali. Viene implementato efficientemente utilizzando le DoG (Difference of Gaussians) per identificare punti di interesse invarianti alla scala e all’orientazione.
2. Keypoint localization: per ogni punti di massimo trovato, un modello dettagliato viene utilizzato per determinare la locazione e la scala. I keypoint selezionati alla fine sono scelti sulla base di una misura di stabilità.
3. Orientation assignment: ad ogni keypoint vengono assegnate una o più orientazioni, sulla base delle direzioni del gradiente in un intorno del keypoint. Tutte le operazioni fatte successivamente sul keypoint vengono fatte rispetto alla direzione, scala e locazione assegnate al keypoint, garantendo quindi invarianza a queste caratteristiche.
4. Keypoint descriptor: vengono calcolati i gradienti locali alla scala selezionata e in un intorno del keypoint. Questi vengono poi trasformati in una rappresentazione che permette distorsioni locali della forma e cambi di illuminazione.
http://imagelab.ing.unimo.it
Scale-space extrema detection
http://imagelab.ing.unimo.it
Scale-space extrema detection
http://imagelab.ing.unimo.it
Ricerca massimi nello scale-space
Oltre a cercare i massimi in un intorno
Elimino i punti con basso contrasto Elimino i punti sugli edge
http://imagelab.ing.unimo.it
Ricerca massimi nello scale-space
Keypoint risultanti
http://imagelab.ing.unimo.it
Calcolo orientazione dei keypoints
Calcolo modulo e orientazione del gradiente
Si calcola l’istogramma delle orientazioni, quantizzato per 36 direzioni Il picco dell’istogramma e gli altri picchi entro l’80% del picco maggiore sono
scelti come direzione principale del keypoint. Se ne risultano più di uno (e ciò succede in media il 15% delle volte), si crea un keypoint per ciascuna direzione principale. Queste direzioni multiple contribuiscono significativamente alla stabilità del matching.
Il descrittore viene calcolato su un intorno di 16 x 16 orientato in modo concorde alla sua direzione principale. Questo intorno viene suddiviso in 16 matrici 4 x 4 e per ciascuna l’istogramma dell’orientazione del gradiente discretizzato su 8 bin (4x4x8=128 valori).
http://imagelab.ing.unimo.it
Matching dei keypoints
Semplice distanza Euclidea tra i descrittori a 128 valori Per aumentare la robustezza vengono scartati tutti i match per cui il
rapporto tra la distanza del match migliore e la distanza del secondo match migliore è maggiore di 0.8. Questo permette di evitare match falsi dovuti allo sfondo o ad altri oggetti nella scena.
http://imagelab.ing.unimo.it
Trasformate geometriche
http://imagelab.ing.unimo.it
Trasformata proiettiva o omografica
Colleziono tutti i punti e con SVD o MLE stimo i 9 parametri della trasformata
http://imagelab.ing.unimo.it
Trasformata proiettiva o omografica
Usando direttamente tutti i punti per la trasformazione ho due tipi di problemi:
Match sbagliati Match corretti ma su oggetti diversi
http://imagelab.ing.unimo.it
Trasformata omografica con RANSAC
Allora abbiamo usato il RANSAC (dettagli sul report)
http://imagelab.ing.unimo.it
Trasformata Euclidea
Necessità di distinguere (clusterizzare) match di oggetti diversi
keypoint
punto caratterizzante
vettore spostamento
keypoint matchato
proiezione punto caratterizzante
vettore spostamento ruotato
MODELLO OGGETTO
http://imagelab.ing.unimo.it
Alcuni risultati (il resto dal vivo …)
http://imagelab.ing.unimo.it
Difetti … del SIFT
1. Il SIFT, come la maggior parte di questi metodi, si basa sul gradiente, quindi sul fatto che gli oggetti di interesse presentano parti texturate con un buon contrasto. Se questo non è vero i keypoints ottenuti sono troppo pochi e non affidabili;
2. Il SIFT ha dimostrato di avere una limitata robustezza ai cambi di luminosità localizzati, ad esempio dovuti ai riflessi dei flowpacks;
3. Il nostro approccio considera di confrontare l’immagine corrente con un modello dell’oggetto da cercare. Sebbene questo nel nostro caso sia inevitabile (volendo creare un sistema flessibile e non vincolato ad un solo oggetto), se il modello non è sufficientemente rappresentativo delle situazioni possibili il nostro approccio diventa inaffidabile;
4. Il SIFT, per costruzione, ottiene sempre solo un match per ciascun keypoint del modello; questo significa che nel caso di oggetti poco texturati i pochi keypoints ottenuti sul modello rischiano di essere suddivisi sulle varie istanze dell’oggetto presenti nell’immagine corrente e non essere sufficienti per segmentarli tutti.
http://imagelab.ing.unimo.it
Sviluppi (quasi-)futuri
MULTI-MODELLO: Copie multiple da fondere Varie faccie: mutualmente esclusive
MULTI-MATCH: Correggere il problema del SIFT del match 1-a-1
http://imagelab.ing.unimo.it
Integrazione 3D
Come integrare segmentazione e 3D? Altezza solo nei punti di prelievo!
Abbiamo davvero bisogno di prelevare il più alto? O solo quelli non “coperti” da altri?