वाशिंगटन, आर्टिफिशियल इंटेलिजेंस (AI) से जुड़े खतरों से दुनियाभर में चिंता बढ़ गई है। अमेरिका समेत कई अन्य देश इसको लेकर जरूरी कदम उठा रहे है।
इसी संबंध में OpenAI के CEO सीईओ सैम अल्टमैन ने 16 मई को एक सीनेट पैनल में आर्टिफिशियल इंटेलिजेंस के चुनाव में हस्तक्षेप करने को लेकर चिंता जाहिर की है। उन्होंने कहा कि चुनाव और एआई को लेकर नियमों और दिशानिर्देशों की जरूरत है। बड़ी से छोटी कंपनियां AI को बाजार में लाने के लिए दौड़ लगा रही है। कुछ आलोचकों को डर है कि ऐसी टेक्नोलॉजी सामाजिक नुकसान को बढ़ा सकती है। वहीं, अन्य ने चेतावनी दी हैं कि एआई मानवता को समाप्त कर सकता है।
2024 के चुनाव में AI का हस्तक्षेप कितना सही?
2024 के चुनाव को देखते हुए आर्टिफिशियल इंटेलिजेंस के इस्तेमाल का खतरा बढ़ता जा रहा है। चुनाव में आर्टिफिशियल इंटेलिजेंस के इस्तेमाल से मतदातओं को यह पता लगाने में मुश्किल हो सकता है कि उनका पास जो प्रचार सामग्री आई है वो असली है या नकली। इसी को लेकर सीनेटर माजी हिरोनो ने कहा कि चुनाव के संदर्भ में उदाहरण के लिए अगर मैंने एनवाईपीडी द्वारा पूर्व राष्ट्रपति ट्रम्प को गिरफ्तार किए जाने की एक तस्वीर देखी और वह वायरल हो गई। तो उससे कैसे पता चलेगा कि वो तस्वीर असली है या नकली।
AI लाइसेंसिंग पर किया गया फोकस
इस पर जवाब देते हुए ऑल्टमैन ने कहा कि क्रिएटर को तथ्यात्मक के बजाय तस्वीर कब जनरेट की गई को स्पष्ट करना चाहिए। कांग्रेस के सामने बोलते हुए ऑल्टमैन ने सुझाव दिया कि अमेरिका को एआई मॉडल के विकास के लिए लाइसेंसिंग और परीक्षण आवश्यकताओं पर विचार करना चाहिए। उन्होंने राय दिया की एआई को लाइसेंसिंग के अधीन होना चाहिए। उन्होंने यह भी कहा कि कंपनियों को यह कहने का अधिकार होना चाहिए कि वे एआई ट्रेनिंग के लिए अपने डेटा का उपयोग नहीं करना चाहतीं, जिस पर कैपिटल हिल पर चर्चा की जा रही है।
टॉप टेक्नोलॉजी सीईओ के साथ बैठक
व्हाइट हाउस ने एआई को संबोधित करने के लिए अल्टमैन सहित टॉप टेक्नोलॉजी सीईओ को बुलाया है। अमेरिकी सांसद इसके दुरुपयोग को सीमित करते हुए टेक्नोलॉजी के लाभों और राष्ट्रीय सुरक्षा को आगे बढ़ाने के लिए कार्रवाई की मांग कर रहे हैं। OpenAI कर्मचारी ने हाल ही में AI के लिए एक अमेरिकी लाइसेंसिंग एजेंसी के निर्माण का प्रस्ताव दिया है। अल्टमैन भी एआई पर वैश्विक सहयोग और सुरक्षा अनुपालन के लिए प्रोत्साहन की मांग कर रहे हैं।