2012-12-20 38 views
9

मैं एक ओपन सोर्स प्रोजेक्ट की तलाश में हूं जो निकट-डुप्लिकेट वीडियो पहचान समस्या को हल करने में सक्षम है। सबसे अच्छा, जो मैंने पाया है अब यह SOTU है, लेकिन इसका स्रोत बंद है। तो, क्या कोई खुला स्रोत समाधान है?पास-डुप्लिकेट वीडियो पहचान

इसके अलावा, मैं इस समस्या के सैद्धांतिक भाग पर कुछ लिंक के लिए बहुत आभारी रहूंगा।

+0

[ये लोग] (http://www.youtube.com/) ऐसा लगता है कि यह पता चला है। –

उत्तर

14

यहाँ लगभग डुप्लिकेट पर एक परियोजना है। some info on applying that to video (मुख्य रूप से कीफ्रेम पर) भी है।

छवियों के लिए एक खुली स्रोत "अवधारणात्मक हैश" लाइब्रेरी भी pHash है।

रैपिडमिनर के लिए एक खुली स्रोत छवि खनन प्लगइन भी IMMI है।

इनमें से कोई भी वीडियो या साथ ही छवियों पर भी सभी फ्रेम या चयनित फ्रेम (उदाहरण के लिए कीफ्रेम) को एल्गोरिदम में इनपुट के रूप में उपयोग करके लागू किया जा सकता है, और फिर दो अलग-अलग क्लिप से फ्रेम के जोड़े की समानता के परिणामों को एकत्रित किया जा सकता है ।

आप UQLIPS (शेन एट अल, नीचे उद्धृत) के लेखकों के संपर्क में रहने का भी प्रयास कर सकते हैं।

इसके अलावा, TRECVID में प्रविष्टियों की सूची देखें, कुछ वर्षों में कार्यों में से एक के रूप में निकट-डुप्लिकेट पहचान थी, और आप इनमें से कुछ समूहों के संपर्क में रह सकते हैं और सॉफ़्टवेयर प्राप्त कर सकते हैं।

यदि आप स्वयं को आगे बढ़ाना चाहते हैं, तो प्रकाशित प्रकाशित एल्गोरिदम के प्रोटोटाइप को लागू करना काफी आसान होना चाहिए। मैं अनुशंसा करता हूं (ए) आपके रुचि रखने वाले डेटा पर सरल एल्गोरिदम की कोशिश करें, और (बी) अवलोकन के आधार पर उनके आउटपुट को गठबंधन करने के लिए कुछ प्रकार की मतदान/मतदान प्रक्रिया का उपयोग करें, जो सरल एल्गोरिदम का एक साधारण संयोजन अक्सर मूल रूप से इस तरह की समस्याओं में एक परिष्कृत एल्गोरिदम से बेहतर प्रदर्शन करता है।

इसके अलावा, सरल सुविधा निष्कर्षण (सभी फ्रेम या केवल चयनित फ्रेम पर) के लिए Earth Movers Distance (रंग हिस्टोग्राम, ग्रेडियंट्स, ... पर) देखें। यह आसानी से पाइथन/numpy/scipy/pyopencv में कोड की कुछ पंक्तियों के साथ किया जा सकता है।

निम्नलिखित तीन, इस क्षेत्र में शायद सबसे उद्धृत कागजात हैं सभी विभिन्न अनुसंधान समूहों द्वारा:

  1. यांग, जे, वाई जी जियांग, ए जी Hauptmann, और सी.डब्ल्यू न्गो। "दृश्य वर्गीकरण में बैग-ऑफ-विज़ुअल-शब्द प्रतिनिधियों का मूल्यांकन करना।" मल्टीमीडिया सूचना पुनर्प्राप्ति पर कार्यशाला पर अंतर्राष्ट्रीय कार्यशाला की कार्यवाही में, 1 9 7-206, 2007. http://dl.acm.org/citation.cfm?id=1290111

  2. शेन, एच टी, एक्स झोउ, जेड हुआंग, जे शाओ और एक्स झोउ। "यूक्यूएलआईपीएस: एक वास्तविक समय के पास-डुप्लिकेट वीडियो क्लिप डिटेक्शन सिस्टम।" बहुत बड़े डेटा बेस पर 33 वें अंतरराष्ट्रीय सम्मेलन की कार्यवाही में, 1374-1377, 2007. http://dl.acm.org/citation.cfm?id=1326018

  3. वू, एक्स।, ए जी हप्टन, और सी डब्ल्यू नगो। "वेब वीडियो सर्च से पास-डुप्लीकेट्स का व्यावहारिक उन्मूलन।" मल्टीमीडिया पर 15 वें अंतरराष्ट्रीय सम्मेलन की कार्यवाही में, 218-227, 2007. http://dl.acm.org/citation.cfm?id=1291280

यांग एट अल एसओटीयू में उपयोग की जाने वाली विधि के समान है।

4

मुझे लगता है कि लाइब्रेरी AForge.NET आपके लिए उपयोगी होगी। उनके पास एक घटक है जो आपको गति का पता लगाने की अनुमति देगा जो अनिवार्य रूप से पर्यावरण की "सैद्धांतिक" पृष्ठभूमि के खिलाफ "तुलना" है।

मुझे पूरा यकीन है कि आप AForge.NET के कुछ बुनियादी कार्यों का उपयोग कर सकते हैं और डुप्लिकेट वीडियो पहचान के प्रति अपने शोध को तेज कर सकते हैं। INDetector DVMM लैब, यू कोलंबिया (स्रोत-उपलब्ध, वास्तव में खुला स्रोत नहीं मुझे लगता है कि) द्वारा:

आशा इस मदद करता है,

गुड लक