11

विकासवादी गणना क्या है? क्या यह मजबूती सीखने का एक तरीका है? या मशीन सीखने की एक अलग विधि? या शायद कोई नहीं?क्या विकासवादी गणना सुदृढ़ीकरण सीखने की एक विधि हो सकती है?

कृपया, इस प्रश्न का उत्तर देने के लिए उपयोग किए गए संदर्भ उद्धरण दें।

उत्तर

12

ऐसे विकासवादी विधियां हैं जिनका स्पष्ट रूप से मजबूती सीखने की समस्या को हल करने के उद्देश्य से लक्षित किया गया है। उपफील्ड आमतौर पर लर्निंग क्लासिफायर सिस्टम (एलसीएस) या कभी-कभी जेनेटिक्स-आधारित मशीन लर्निंग (जीबीएमएल) के नाम से जाता है।

इसके अलावा, मुझे यकीन नहीं है कि आपके प्रश्न का एक बहुत ही परिभाषित उत्तर है। यह मूल रूप से "मशीन सीखने क्या है?" ऐसा कोई कैनन नहीं है कि हम सभी इस सवाल का जवाब देने के लिए सहमत हैं। कुछ के लिए, ईसी उस उप-क्षेत्र का हिस्सा हो सकता है। दूसरों के लिए, यह नहीं है। मैंने बस अपने शेल्फ से कुछ हद तक एमएल पाठ्यपुस्तकों का नमूना लिया, और विकासवादी तरीकों पर लगभग आधे निहित सामग्री का नमूना लिया। मुझे 15 साल पहले संदेह था कि अंश अधिक होगा, लेकिन फैशन बदलते हैं, और मशीन सीखना आंकड़ों के लगभग उप-क्षेत्र है। ईसी विधियां उस मोल्ड को बहुत अच्छी तरह से फिट नहीं करती हैं।

+0

यह अभी तक का सबसे अच्छा जवाब है, लेकिन मैं खोज जारी रखूंगा ... महान जवाब के लिए धन्यवाद! –

5

विकासवादी गणना, या विकासवादी एल्गोरिदम, ऑप्टिमाइज़ेशन एल्गोरिदम हैं, जो एक तंत्रिका नेटवर्क (जैसे न्यूरो-विकास में) पर लागू होते हैं, निश्चित रूप से मजबूती सीखने के रूप में वर्गीकृत किया जा सकता है, हालांकि यह सामान्य से थोड़ा अलग काम करता है मजबूती सीखने एल्गोरिदम।

आम तौर पर, जेनेटिक एल्गोरिदम, या विकास रणनीति जैसे विकासवादी एल्गोरिदम में, आपके पास व्यक्तियों की पूरी आबादी को अनुकूलित करने के लिए है। उन सभी व्यक्तियों के लिए, एक गुणवत्ता समारोह का उपयोग उनकी 'फिटनेस' (जैसा कि 'सबसे उपयुक्त' अस्तित्व में है) निर्धारित करने के लिए किया जाता है, और अगली पीढ़ी के लिए सर्वश्रेष्ठ व्यक्तियों का चयन किया जाता है। उन 'माता-पिता' को यादृच्छिक रूप से डुप्लीकेट, संशोधित, उत्परिवर्तित, या यहां तक ​​कि एक दूसरे के साथ फिर से संयोजित किया जाता है - यह कैसे किया जाता है यह अलग-अलग एल्गोरिदम में से थोड़ा अलग है। आखिरकार, उन नए उत्परिवर्तित और/या पुनर्मूल्यांकन माता-पिता अगली पीढ़ी के लिए आबादी बनाते हैं, और प्रक्रिया तब तक शुरू होती है जब तक कि कुछ वांछित गुणवत्ता तक नहीं पहुंच जाती, या गुणवत्ता का स्तर समाप्त हो जाता है।

न्यूरो-विकास के मामले में, व्यक्ति तंत्रिका नेटवर्क होते हैं, जो यादृच्छिक रूप से बदलते वजन से उत्परिवर्तित होते हैं (जबकि शास्त्रीय तंत्रिका नेटवर्क में वजन बहुत सटीक गणितीय नियमों के अनुसार अद्यतन होते हैं) या यहां तक ​​कि उनके टोपोलॉजी को बदलते हैं, और व्यक्तियों की गुणवत्ता यह निर्धारित करती है कि वे प्रशिक्षण डेटा पर कितनी अच्छी तरह प्रदर्शन करते हैं।

क्षमा करें, यहां कोई कठोर वैज्ञानिक संदर्भ नहीं है, लेकिन हो सकता है कि यह अभी भी चीजों को साफ़ करने में मदद करता है।

+0

उत्तर के लिए धन्यवाद, लेकिन मुख्य समस्या विश्वसनीय संदर्भ –

+1

में मजबूती सीखने के संबंध में विकासवादी एल्गोरिदम का वर्गीकरण है, मैं असहमत हूं। आरएल को राज्यों और कार्यों के अनुक्रमों के माध्यम से पर्यावरण के साथ बातचीत की आवश्यकता है। विकासवादी एल्गोरिदम बस इस मोल्ड फिट नहीं है। – danelliottster

5

सुदृढ़ीकरण सीखने [1] और विकासवादी गणना [2] के बीच सिद्धांत अंतर यह है कि मूल अर्थ में आरएल पर्यावरण में किसी एजेंट को लागू किया जाता है, नीति सीखना (पर विकिपीडिया लेख भी देखें), जबकि ईसी खोज एल्गोरिदम की एक श्रेणी के लिए एक अधिक सामान्य शब्द है जो खोज को अनुकूलित करने के लिए 'विकासवादी' प्रेरित तरीकों का उपयोग करता है। मैं ईसी को मशीन सीखने के रूप में वर्गीकृत नहीं करूंगा, और मुझे ऐसा कोई स्रोत नहीं मिला है जो करता है।

[1] सुदृढीकरण सीखने: एक परिचय - आरएस सटन, एजी Barto - 1998 - कैम्ब्रिज यूनिवर्सिटी प्रेस

[2] क्या विकासवादी अभिकलन है? - डीबी फोगेल - स्पेक्ट्रम, आईईईई, 2000

+0

अच्छा जवाब, लेकिन मैंने एक विश्वविद्यालय से एक प्रस्तुति देखी है जहां यह कहता है कि एमएल विधियों में से एक विकासवादी है। इसके अलावा यहां देखें: http://local.wasp.uwa.edu.au/~derek/files/ncca/talks/ecg/research/html/ec.html यह कहता है "कुछ लेखक ईसी को विशिष्ट प्रकार के एमएल के रूप में वर्गीकृत करते हैं" , हमें इसकी आवश्यकता है कि कुछ संदर्भ इस –

+0

के बारे में बात कर रहे हैं [1] एक तरफ [1] उल्लेख करता है कि आरएल का उपयोग योजना समस्याओं से निपटने के लिए किया जा सकता है जो विकासवादी गणना का एक आम उपयोग है। – danelliottster

0

तो, विकासवादी गणना कहां है? क्या यह मजबूती सीखने का एक तरीका है? या मशीन सीखने की एक अलग विधि? या शायद कोई नहीं?

मैं ईसी और एमएल को एक-दूसरे से अलग मानता हूं। हालांकि, वहां कुछ शानदार अनुप्रयोग हैं जिनके साथ वे संयोजन के रूप में उपयोग किए जाते हैं। यद्यपि यह काफी समय से अनुसंधान का एक छोटा सा क्षेत्र रहा है, मुझे लगता है कि ईसी और एमएल के संयोजन के क्षेत्र में कुछ कम लटकते फल हैं। मुझे लगता है कि बहुत से लोगों के पास उन विचारों को देखने के लिए धैर्य नहीं है।

2

2017 के रूप में अद्यतन: उत्तर हाँ है। most downloaded paper over the past month in Reinforcement Learning, उपयुक्त नाम "सुदृढ़ीकरण वैकल्पिक सीखने के लिए एक स्केलेबल वैकल्पिक के रूप में विकास रणनीतियां" वास्तव में शहर की बात है।