Tuesday 10 October 2017

Moving Media Background Sottrazione


Sto cercando di implementare un metodo semplice sottrazione dello sfondo per il rilevamento di oggetti in movimento in una particolare scena. L'obiettivo è di tipo di segmento un movimento particolare su un video di utilizzarlo in un altro video. L'algoritmo che sto seguendo è: 1. Prendere i primi 25frames dal video e media loro di ottenere un modello di sfondo. 2. Trovare la deviazione standard di questi 25frames e memorizzare i valori in un'altra immagine. 3. Ora sto calcolando la differenza assoluta tra ogni fotogramma e lo sfondo media modello pixel saggio. L'uscita sto ottenendo è una specie di movimento trasparente viene evidenziato in bianco (la differenziazione assoluta si traduce nella trasparenza credo). Voglio sapere se il mio approccio è giusto o non considerando che io cercherò di fare una segmentazione su questa uscita come prossimo passo e anche io sto ottenendo alcuna idea su come utilizzare l'immagine deviazione standard. Qualsiasi aiuto sarà apprezzato. Per favore fatemi sapere se questo non è il tipo di domanda che dovrei inserire in overflow dello stack. In tal caso ogni riferimento o link ad altri siti saranno utili. chiesto 26 Giu 13 ad 9: 12Introduction Identificare oggetti in movimento da una sequenza video è un compito fondamentale e critico in molte applicazioni del computer per la visione. Un approccio comune è quello di eseguire la sottrazione del fondo, che identifica oggetti in movimento dalla porzione di un fotogramma video che differisce significativamente da un modello di sfondo. Ci sono molte sfide nello sviluppo di un buon algoritmo sottrazione del fondo. In primo luogo, deve essere robusta contro le variazioni di illuminazione. In secondo luogo, si dovrebbe evitare di rilevare oggetti di sfondo non fisse come foglie in movimento, pioggia, neve, e le ombre proiettate da oggetti in movimento. Infine, il suo modello di fondo interno dovrebbe reagire rapidamente ai cambiamenti di fondo come l'avvio e l'arresto dei veicoli. La nostra ricerca è iniziata con un confronto tra diversi algoritmi di sottrazione del fondo per rilevare veicoli in movimento e pedoni in sequenze video del traffico urbano (Cheung e Kamath 2004). Abbiamo preso in considerazione approcci che variano da semplici tecniche come la cornice di differenziazione e il filtraggio mediano adattativo, a più sofisticate tecniche di modellazione probabilistiche. Mentre le tecniche complicate spesso producono prestazioni superiori, i nostri esperimenti dimostrano che semplici tecniche come il filtro mediano adattativo in grado di produrre buoni risultati con molto più bassa complessità computazionale. Inoltre, abbiamo trovato che pre-e post-elaborazione del video potrebbe essere necessario per migliorare l'individuazione di oggetti in movimento. Ad esempio, smoothing spaziale e temporale, si può rimuovere la neve da un video, come mostrato in Figura 1. piccolo oggetti, come lo spostamento foglie su un albero in movimento, può essere rimosso dalla trasformazione morfologica dei fotogrammi dopo l'identificazione degli oggetti in movimento , come mostrato in Figura 2. Figura telaio 1. Video on che mostra una scena di sinistra traffico mentre nevica. Si notino le striature nell'immagine a causa dei fiocchi di neve. Lo stesso fotogramma video dopo smoothing spaziale e temporale è sulla destra, senza le striature neve. Figura 2. Il frame video sulle luci di sinistra, in rosa, gli oggetti rilevato come in movimento. Notare il movimento delle foglie sugli alberi in primo piano. trasformazione morfologica pulisce il fotogramma video come mostrato a destra. La velocità e il peso del modello si aggiorna notevolmente effettuano risultati di primo piano. Lento modelli adattamento di fondo non possono superare rapidamente grandi cambiamenti nella immagine di sfondo (come una nuvola passeggera su una scena). Ciò si traduce in un periodo di tempo in cui molti pixel dello sfondo vengono erroneamente classificati come pixel di primo piano. Una frequenza di aggiornamento lenta tende anche a creare una maschera fantasma che si trascina l'oggetto reale. Veloci modelli di adattamento di fondo possono affrontare rapidamente con sfondo cambiamenti, ma non riescono a basse frequenze di fotogrammi. Sono anche molto sensibili al rumore e il problema dell'apertura. Queste osservazioni indicano che un approccio ibrido potrebbe contribuire a mitigare gli svantaggi di ciascuno. Abbiamo creato una nuova tecnica di convalida piano che può essere applicato a qualsiasi algoritmo di sottrazione dello sfondo lento adeguamento (Cheung e Kamath 2005). ad adeguare i metodi di Slow producono maschere relativamente stabili e tendono ad essere più inclusiva rispetto ad adeguare i metodi veloci. Come aResult, possono anche avere alta percentuale di falsi positivi. validazione primo piano esamina inoltre singoli pixel di primo piano nel tentativo di eliminare i falsi positivi. Il nostro algoritmo ottiene dapprima una maschera piano da un algoritmo lento adattamento, e quindi valida pixel di primo piano mediante un semplice modello oggetto in movimento costruito utilizzando entrambe le statistiche di primo piano e di sfondo, nonché un algoritmo rapido adattamento (Figura 3). Figura 3. Le miscele di approccio gaussiane (a) non è molto robusto alle variazioni di illuminazione a confronto con il metodo proposto (b). esperimenti Ground-verità con sequenze traffico urbano hanno dimostrato che l'algoritmo proposto produce prestazioni confrontabili o migliori rispetto ad altre tecniche sottrazione dello sfondo (Figura 4). Figura 4: Confronto tra diversi algoritmi. (A) Immagine originale che mostra una macchina che inizia a muoversi dopo essere stato stazionario per un istante. Primo piano rilevato da (b) cornice differenziazione, (c) mediana approssimata, (d) mediana, (e) filtro di Kalman, (f) miscele di gaussiane, e (g) il nuovo metodo di convalida primo piano. Ringraziamenti I video utilizzati nel nostro lavoro provengono dal sito web gestito da KOGS-IAKS Universitaet Karlsruhe. Apprezziamo la loro disponibilità a rendere i loro dati disponibili al pubblico. Riferimenti Cheung, S.-C. e C. Kamath, robusta Sottrazione Sfondo con primo piano di convalida per Urban traffico video, EURASIP Journal on Applied Signal Processing, Volume 14, pp 1-11, 2005. UCRL-Jrnl-201916. Cheung, S.-C. e C. Kamath, tecniche robuste per sottrazione dello sfondo in video del traffico urbano, Video Comunicazione e elaborazione delle immagini, SPIE Electronic Imaging, San Jose, gennaio 2004, UCRL-JC-153.846-ABS, UCRL-CONF-200706 PDF. Sono cercando di implementare un metodo semplice sottrazione dello sfondo per il rilevamento di oggetti in movimento in una particolare scena. L'obiettivo è di tipo di segmento un movimento particolare su un video di utilizzarlo in un altro video. L'algoritmo che sto seguendo è: 1. Prendere i primi 25frames dal video e media loro di ottenere un modello di sfondo. 2. Trovare la deviazione standard di questi 25frames e memorizzare i valori in un'altra immagine. 3. Ora sto calcolando la differenza assoluta tra ogni fotogramma e lo sfondo media modello pixel saggio. L'uscita sto ottenendo è una specie di movimento trasparente viene evidenziato in bianco (la differenziazione assoluta si traduce nella trasparenza credo). Voglio sapere se il mio approccio è giusto o non considerando che io cercherò di fare una segmentazione su questa uscita come prossimo passo e anche io sto ottenendo alcuna idea su come utilizzare l'immagine deviazione standard. Qualsiasi aiuto sarà apprezzato. Per favore fatemi sapere se questo non è il tipo di domanda che dovrei inserire in overflow dello stack. In tal caso ogni riferimento o link ad altri siti saranno utili. chiesto 26 Giugno 13 ad 9: 12Hi, questo sta per essere un articolo molto semplice, ma troverete molto utile. Si tratta di sfondo di estrazione da un video. Supponiamo che si sono date il video di filmati di traffico, potrebbe essere qualche cosa come questa. Traffico in India. e ti viene chiesto di trovare uno sfondo approssimativa. O qualcosa di simile. l'estrazione di sfondo viene importante nel monitoraggio oggetto. Se si dispone già di una immagine dello sfondo nuda, allora è semplice. Ma in molti casi, non dovrete una tale immagine e quindi, si dovrà crearne uno. Ecco dove esecuzione media viene in aiuto. (Ho pensato a questo quando un ragazzo ha fatto una domanda in SOF. Link) La funzione che usiamo qui per trovare Running Average è cv2.accumulateWeighted (). Per esempio, se stiamo guardando un video, continuiamo a nutrire ogni fotogramma a questa funzione, e la funzione di continuare a trovare le medie di tutti i frame alimentati ad esso secondo la relazione di seguito: src è nulla la nostra immagine fonte, ma. Può essere in scala di grigi o colore dell'immagine e sia a 8 bit o virgola mobile a 32-bit. DST è l'immagine di uscita o l'accumulatore con stessi canali quell'immagine fonte di, ed è a 32-bit o in virgola mobile a 64 bit. Inoltre, dovremmo dichiarare in primo luogo ad un valore che verrà preso come valore iniziale. alpha è il peso dell'immagine in ingresso. Secondo Docs, alfa regola la velocità di aggiornamento (la velocità con l'accumulatore 8220forgets8221 sulle immagini precedenti). In parole semplici, se alfa è un valore più alto, immagine media cerca di cogliere i cambiamenti anche molto veloci e brevi nei dati. Se si tratta di valore più basso, medio diventa lenta e considerare abituato cambiamenti veloci nelle immagini in ingresso. Spiegherò un po 'con l'aiuto di immagini a fine articolo. Nel codice di cui sopra, ho impostato due medie, uno con valore alfa più alto e un altro con valore alfa più basso in modo da poter comprendere effetto di alfa. In un primo momento entrambi sono impostati al telaio della cattura iniziale. E in loop che vengono aggiornati. È possibile vedere alcuni risultati nel link SOF ho già previsti. (I fornire tali risultati qui, è possibile controllare il valore del codice e alpha lì): Ho usato la mia webcam e salvato cornice originale e media in esecuzione in un determinato istante. Questo è un fotogramma di un video traffico tipica presa da una telecamera fissa. Come si può vedere, una macchina sta andando sulla strada, e la persona sta cercando di attraversare la strada in un particolare istante di tempo. Ma vedere la media in esecuzione in quel momento. Non vi è nessuna persona e auto in questa immagine (in realtà è lì, avere uno sguardo da vicino, poi si vedrà, e la persona è più chiaro di auto, dal momento che auto si muove molto velocemente e in tutta l'immagine, non ha molto effettuare in media, ma persona è lì per molto tempo, poiché è lento e si spostano attraverso la strada.) Ora dobbiamo vedere l'effetto di alfa su queste immagini.

No comments:

Post a Comment