मुझे 1980 के दशक के शुरुआती दिनों की याद है, जब ज्योफ हिंटन अपने बोल्ट्जमैन मशीन के काम के बारे में बात करने के लिए बर्कले आए थे। मेरे लिए यह एक अद्भुत दृष्टि थी - उन्होंने प्रतीकात्मक AI के बारे में शक्तिशाली और उपयोगी सभी चीजों को त्याग दिया, और बदले में एक ऐसा तंत्र मिला जिसने तीन रोमांचक नई (मेरे लिए) चीजों की पेशकश की:
मस्तिष्क के एक मॉडल के संदर्भ में संज्ञानात्मक प्रशंसनीयता;
एक मॉडल जो हाथ से प्रोग्राम करने के बजाय अनुभवों से सीखा गया था; तथा
प्रतिनिधित्व जो बूलियन के बजाय निरंतर थे, इस प्रकार पारंपरिक प्रतीकात्मक विशेषज्ञ प्रणालियों के भंगुरता के कुछ मुद्दों को दरकिनार कर रहे थे।
यह पता चलता है कि उस युग की बोल्ट्जमैन मशीनों ने अच्छी तरह से पैमाने नहीं बनाए थे, लेकिन हिंटन, लेकुन, बेंगियो, ओल्सहाउसन, ओसिंडेरो, सुतस्क्वर, कोर्टविल, एनजी, और अन्य द्वारा डिज़ाइन किए गए अन्य आर्किटेक्चर ने किया था। क्या फर्क पड़ा? क्या यह एक-परत-एक-समय प्रशिक्षण तकनीक थी? ReLU सक्रियण समारोह? बहुत अधिक डेटा की उपलब्धता? GPU क्लस्टर जो तेजी से प्रशिक्षण की अनुमति देता है? मैं निश्चित रूप से नहीं कह सकता, और मुझे आशा है कि निरंतर विश्लेषण हमें एक बेहतर तस्वीर देगा। लेकिन मैं कह सकता हूं कि भाषण मान्यता में, कंप्यूटर दृष्टि वस्तु मान्यता, गो का खेल, और अन्य क्षेत्रों में, अंतर नाटकीय रहा है: जब आप गहरी शिक्षा का उपयोग करते हैं, तो त्रुटि दर कम हो जाती है, और इन दोनों क्षेत्रों में पूर्ण परिवर्तन हुआ है पिछले कुछ वर्षों में: अनिवार्य रूप से सभी टीमों ने गहरी शिक्षा को चुना है, क्योंकि यह सिर्फ काम करती है।
कई सवाल बने हुए हैं। कंप्यूटर की दृष्टि में, हम गहरे नेटवर्क वास्तव में क्या कर रहे हैं की झलक दिखाते हैं: हम एक स्तर पर लाइन पहचानकर्ताओं की पहचान कर सकते हैं, फिर, उच्च स्तर पर आंख और नाक पहचानने वाले, इसके बाद चेहरे पहचानने वाले और उसके बाद अंतिम व्यक्ति पहचानकर्ता । लेकिन अन्य क्षेत्रों में, यह समझना कठिन है कि नेटवर्क क्या कर रहे हैं। क्या इसलिए कि हमारे पास सही विश्लेषण और विज़ुअलाइज़ेशन उपकरण नहीं हैं, या क्या यह है कि प्रतिनिधित्व वास्तव में सुसंगत नहीं हैं?
Deep learning कई अनुप्रयोगों में अच्छी तरह से काम करता है जब बहुत अधिक डेटा होता है, लेकिन एक-शॉट या शून्य-शॉट सीखने के बारे में क्या है, जिसमें ज्ञान को अन्य डोमेन से वर्तमान डोमेन में स्थानांतरित करना और अनुकूलित करना आवश्यक है? गहरे नेटवर्क द्वारा किस प्रकार के सार का गठन किया जाता है, और हम इन सार के साथ कैसे कारण कर सकते हैं और उन्हें जोड़ सकते हैं? नेटवर्क को प्रतिकूल इनपुट द्वारा मूर्ख बनाया जा सकता है; हम इनसे कैसे बचाव करते हैं, और क्या ये एक मूलभूत दोष, या एक अप्रासंगिक चाल का प्रतिनिधित्व करते हैं?
हम एक डोमेन में संरचना से कैसे निपटते हैं? हमारे पास समय के साथ निपटने के लिए आवर्तक नेटवर्क हैं, और नेस्टेड संरचना से निपटने के लिए पुनरावर्ती नेटवर्क हैं, लेकिन यह बताने के लिए बहुत जल्दी है कि क्या ये पर्याप्त हैं।
इसलिए मैं डीप लर्निंग के बारे में उत्साहित हूं क्योंकि इतने लंबे समय तक चलने वाले क्षेत्र इसके बारे में उत्साहित हैं। और मैं और अधिक समझने में दिलचस्पी रखता हूं क्योंकि कई शेष प्रश्न हैं, और इन सवालों के जवाब न केवल हमें डीप लर्निंग के बारे में अधिक बताएंगे, बल्कि सामान्य रूप से लर्निंग, इंट्रेंस और रिप्रेजेंटेशन को समझने में हमारी मदद कर सकते हैं।
Any photoshop work===https://www.fiverr.com/share/RVDyBN
0 टिप्पणियाँ