क्या AI इंसानी कंट्रोल से बाहर जा सकती है? एआई के जनक जेफ्री हिंटन की इस चेतावनी में छुपा है उत्तर

Last Updated:August 22, 2025, 08:31 IST
AI- हिंटन ने चेतावनी दी कि यदि सुपरइंटेलिजेंट एआई सिस्टम को नैतिक मूल्यों के अनुसार सुरक्षित ढंग से नहीं विकसित किया गया तो यह हथियारों की दौड़ की तरह ही विनाशकारी साबित हो सकती है.
ख़बरें फटाफट
हिंटन के मुताबिक कॉर्पोरेट एआई रणनीतियों की सबसे बड़ी कमजोरी नैतिक ढांचे की कमी है.
नई दिल्ली. आर्टिफिशियल इंटेलिजेंस (AI) के जनक कहे जाने वाले जेफ्री हिंटन ने मौजूदा एआई रेस को दुनिया के लिए गंभीर खतरा करार दिया है. फॉर्च्यून पत्रिका को दिए इंटरव्यू में हिंटन ने कहा कि टेक कंपनियां केवल मुनाफा हासिल करने के लिए पर्याप्त सुरक्षा उपाय किए बिना सुपरइंटेलिजेंट सिस्टम विकसित कर रही हैं. वे इंसानियत की परवाह नहीं कर रही हैं और यह प्रवृत्ति भविष्य में भयावह परिणाम ला सकती है. उन्होंने कहा कि एआई का असली ख़तरा केवल गलत सूचना फैलाने या बेरोज़गारी बढ़ाने तक सीमित नहीं रहेगा, बल्कि यह है तकनीक इंसानी नियंत्रण से बाहर जा सकती है. जिस दिन ऐसा हुआ, उस दिन बहुत बुरा होगा. हिंटन ने कहा, “हम तैयार नहीं हैं और हम कोशिश भी नहीं कर रहे हैं.”
हिंटन ने चेतावनी दी कि यदि सुपरइंटेलिजेंट एआई सिस्टम को नैतिक मूल्यों के अनुसार सुरक्षित ढंग से नहीं विकसित किया गया तो यह हथियारों की दौड़ की तरह ही विनाशकारी साबित हो सकती है. हिंटन ने आरोप लगाया कि आर्टिफिशियल इंटेलिजेंस का विकास प्रतिस्पर्धी दबाव और शेयरधारकों के हितों को ध्यान में रखकर हो रहा है. नैतिक दूरदृष्टि का इसमें अभाव है. उन्होंने कहा, “कंपनियां अपने प्रतिद्वंद्वियों से तेज़ और अधिक शक्तिशाली मॉडल बनाने की होड़ में लगी हैं.”
नैतिक ढांचे की कमी
हिंटन के मुताबिक कॉर्पोरेट एआई रणनीतियों की सबसे बड़ी कमजोरी नैतिक ढांचे की कमी है. कंपनियां अरबों डॉलर केवल मॉडल्स को अधिक शक्तिशाली बनाने और यूज़र डेटा का व्यावसायिक इस्तेमाल करने पर खर्च कर रही हैं. लेकिन बहुत कम कंपनियां एआई के अस्तित्वगत ख़तरों पर चर्चा कर रही हैं. उन्होंने कहा कि यह चुनौती परमाणु अप्रसार (न्यूक्लियर नॉन-प्रोलिफरेशन) जैसी गंभीर है. हिंटन का मानना है कि अंतरराष्ट्रीय संधियों, निगरानी और साझा नैतिक मानकों के बिना इस खतरे को रोका नहीं जा सकता.
धीमी करनी होगी गति
हिंटन का कहना है कि एआई तकनीक का विकास समाज की नियामक क्षमता और सुरक्षा उपायों की प्राथमिकता से कहीं आगे निकल चुका है. उन्होंने तकनीकी नेताओं और नीति निर्माताओं से अपील की कि वे सुरक्षा, पारदर्शिता और दीर्घकालिक सोच को प्राथमिकता दें और एआई को सुपर बनाने की गति को थोड़ा धीमा करे.
Location :
New Delhi,New Delhi,Delhi
First Published :
August 22, 2025, 08:31 IST
क्या AI इंसानी कंट्रोल से बाहर जा सकती है? एआई के जनक ने दिया उत्तर



