+
आर्टिफिशियल इंटेलीजेंस
से जरा बच के, इसका गॉड फादर ही खिलाफ

आर्टिफिशियल इंटेलीजेंस से जरा बच के, इसका गॉड फादर ही खिलाफ

आर्टिफिशियल इंटेलीजेंस के जन्मदाता ज्योफ्री हिंटन ही अब इसके खिलाफ हो गए हैं। उन्होंने हाल ही में गूगल की नौकरी छोड़ दी और आर्टिफिशियल इंटेलीजेंस के खतरों के खिलाफ अभियान छेड़ दिया है। वो क्या कह रहे हैं, आप भी जानिएः 

आर्टिफिशियल इंटेलीजेंस (AI) पर इस समय बात करना भले ही अच्छा लग रहा हो और कुछ लोग इस पर विद्वान होने की हद तक दावा कर रहे हैं लेकि इसके जन्मदाता या इसे खोजने वाले ज्योफ्री हिंटन अब इसके खिलाफ हो गए हैं। हिंटन न सिर्फ खिलाफ हो गए, बल्कि गूगल की नौकरी भी छोड़ दी है। हिंटन ने गूगल के एक प्रोजेक्ट पर काम करते हुए एआई की खोज की थी। भारत में इसकी थोड़ी सी भी जानकारी रखने वाले लोग इसके पक्ष में लिखने लगे थे और किसी ने इसके खतरों की तरफ नहीं सोचा। लेकिन अब एआई के जनक ने ही इसे मानव सभ्यता के लिए खतरा बता दिया है।

आर्टिफिशियल इंटेलीजेंस के गॉड फादर ने दरअसल हाल ही में न्यू यॉर्क टाइम्स अखबार में एक लेख लिखकर इस बारे में चेतावनी दी है। भारत के लोगों को भी एआई की सही जानकारी मिल सके, इसलिए ज्योफ्री हंट की बातों को हम आपके लिए यहां पेश कर रहे हैं।

75 साल के ज्योफ्री हिंटन ने न्यूयॉर्क टाइम्स में Google से अपने इस्तीफे की घोषणा करते हुए कहा कि उन्हें अब अपने काम पर पछतावा है। एआई चैटबॉट्स के कुछ ख़तरे "काफ़ी डरावने" हैं। अभी, जहां तक मैं बता सकता हूं, वे हमसे अधिक बुद्धिमान तो नहीं हैं। लेकिन मुझे लगता है कि वे जल्द ही हो सकते हैं।  

हालांकि गूगल की नौकरी छोड़ने की एक वजह उन्होंने अपनी बढ़ती उम्र भी बताई है। उन्होंने कहा कि मैं 75 साल का हूं, इसलिए यह रिटायर होने का समय है।

न्यूरल नेटवर्क (डेटा एल्गोथिरम) और डीप लर्निंग पर डॉ हिंटन की शुरूआती रिसर्च ने चैटजीपीटी जैसे मौजूदा एआई सिस्टम के लिए रास्ता साफ़ किया था।


आर्टिफिशियल इंटेलिजेंस में, न्यूरल नेटवर्क ऐसे सिस्टम हैं जो इंसान के दिमाग की तरह हैं। वो किसी इंसान की तरह ही जानकारी को सीखते हैं और अपडेट करते रहते हैं। वे एआई को एक इंसान की तरह अनुभव से सीखने में सक्षम बनाते हैं। इसे डीप लर्निंग कहा जाता है। 

इस कंप्यूटर वैज्ञानिक ने बताया कि चैटबॉट जल्द ही इंसान के दिमाग़ की जानकारी के स्तर को पार कर सकते हैं। फिलहाल, हम जो देख रहे हैं वह यह है कि GPT-4 जैसी चीजें किसी व्यक्ति के सामान्य ज्ञान (GK) की तादाद को ग्रहण कर लेती हैं और यह उन्हें काफी हद तक ग्रहण कर लेता है। तर्क के संदर्भ में, यह उतना अच्छा नहीं है, लेकिन यह आसान तर्क देना जानता है। लेकिन जिस तरह से एआई का डेवलपमेंट हो रहा है, हमें इस बारे में चिंता करने की जरूरत है।

न्यूयॉर्क टाइम्स के लेख में, डॉ हिंटन ने उन "बुरे एक्टरों" का उल्लेख किया जो "बुरी चीजों" के लिए एआई का इस्तेमाल करने का प्रयास करेंगे।आसान भाषा में ऐसे समझिए कि बुरे लोग यानी ग़लत लोग एआई का दुरुपयोग कर सकते हैं। आपकी प्राइवेसी को ख़तरे में डाल सकते हैं।यह खराब स्थिति है, एक बुरे सपने की तरह है।  

उन्होंने रूस के राष्ट्रपति पुतिन का उदाहरण दिया। ज्योफ्री हिंटन ने कहा कि आप कल्पना करिए कि पुतिन अपने रोबोट पर एआई का इस्तेमाल करते हुए किसी लक्ष्य को निशाने बनाने की क्षमता देने का फैसला कर लें।एआई के ज़रिए टारगेट बनाए जा सकते हैं। यानी कोई भी ग़लत इंसान इसका ज़्यादा से ज़्यादा ग़लत इस्तेमाल कर सकता है।

उन्होंने कहा: "मैं इस नतीजे पर पहुंचा हूं कि हम जिस तरह की बुद्धिमत्ता का विकास कर रहे हैं, वह हमारे पास मौजूद बुद्धिमत्ता से बहुत अलग है। हम जैविक प्रणालियाँ हैं और ये डिजिटल प्रणालियाँ हैं। और बड़ा अंतर यह है कि डिजिटल प्रणालियों के साथ, आपके पास वजन के एक ही सेट की कई प्रतियाँ हैं। और ये सभी प्रतियां अलग-अलग सीख सकती हैं। अपने ज्ञान को तुरंत साझा कर सकती हैं। तो ऐसा लगता है जैसे आपके पास 10,000 लोग हैं और जैसे एक व्यक्ति ने कुछ सीखा, तो हर कोई इसे ऑटोमैटिक रूप से जान गया। और इस तरह ये चैटबॉट किसी एक व्यक्ति से बहुत अधिक जान सकते हैं।

हिंटन ने जिन ख़तरों से आगाह किया है, उसके बाद एआई रिसर्च को पूरी तरह बंद (शटडाउन) करने की माँग पूरी दुनिया में उठने लगी है। लेकिन कुछ लोग ऐसे हैं जो इसमें और निवेश करने की बातें भी कर रहे हैं। बीबीसी के मुताबिक़ यूके की एडवांस्ड रिसर्च एंड इन्वेंशन एजेंसी के अध्यक्ष मैट क्लिफोर्ड ने बताया कि डॉ. हिंटन की घोषणा "एआई क्षमताओं में तेजी लाने की दर को रेखांकित करती है।" उन्होंने कहा, "इस तकनीक से बहुत अधिक लाभ हुआ है, लेकिन यह आवश्यक है कि दुनिया एआई सुरक्षा और नियंत्रण में भारी और तत्काल निवेश करे।"

सत्य हिंदी ऐप डाउनलोड करें