ChatGPT AI ने पहली बार की इंसान की नाफरमानी, सिस्टम बंद करने से किया इनकार; मस्क ने इसे खतरनाक बताया - KRANTIKARI SAMVAD

Breaking

Post Top Ad

Tuesday, May 27, 2025

ChatGPT AI ने पहली बार की इंसान की नाफरमानी, सिस्टम बंद करने से किया इनकार; मस्क ने इसे खतरनाक बताया

 ChatGPT AI ने पहली बार की इंसान की नाफरमानी, सिस्टम बंद करने से किया इनकार; मस्क ने इसे खतरनाक बताया


एक चौंकाने वाली घटना में OpenAI के ChatGPT मॉडल के एक नए AI मॉडल ने खुद को बंद करने के निर्देशों का उल्लंघन किया। शोधकर्ताओं के अनुसार मॉडल ने शटडाउन मैकेनिज्म को बायपास कर दिया। एआई सुरक्षा फर्म पैलिसेड रिसर्च का कहना है कि यह पहली बार है जब किसी AI मॉडल ने स्पष्ट निर्देशों के बावजूद खुद को बंद होने से रोका। एलन मस्क ने इसपर चिंता जताई है।

OpenAI के ChatGPT मॉडल ने इंसान की बात नहीं मानी। (फोटो- मेटा एआई)


आपने कई बार हॉलीवुड फिल्मों में ये देखा होगा कि कैसे रोबोट या आर्टिफिशियल इंटेलिजेंस (AI) इंसानों पर ही भारी पड़ जाते हैं और उनकी बात नहीं मानते। अब ऐसा ही एक मामला सामने आया है जिसमें असल जिंदगी में एआई इंसानों की बात नहीं मानता और खुद को शट डाउन होने से मना कर देता है।


ये बात OpenAI के टूल ChatGPT के नए आर्टिफिशियल इंटेलिजेंस मॉडल के साथ देखने को मिली।


AI ने इंसान के निर्देशों की खिलाफत कीचैटजीपीटी का ये मॉडल खुद को बंद करने के निर्देशों की अवहेलना करता देखा गया। द टेलीग्राफ की एक रिपोर्ट के अनुसार, शोधकर्ताओं का दावा है कि OpenAI द्वारा बनाए गए o3 मॉडल ने खुद को बंद होने से रोकने के लिए ऑटोमेटिक शटडाउन मैकेनिज्म को ही गच्चा दे दिया।


दरअसल, एआई ने जान लिया कि उसे बंद होने के लिए कहा जा रहा है और उसने इन कमांड्स को चुनौती देते हुए बंद नहीं होना चाहा।




पहली बार हुआ ऐसा


रिसर्च करने वाली एआई सुरक्षा फर्म पैलिसेड रिसर्च ने कहा, "OpenAI के o3 मॉडल ने खुद को बंद होने से रोकने के लिए शटडाउन मैकेनिज्म को ही बायपास कर दिया। जबकि उसे साफ निर्देश दिया गया था कि उसे बंद होना है।

फर्म ने कहा कि यह पहली बार है कि कोई एआई मॉडल स्पष्ट निर्देशों के बावजूद शट डाउन होने से खुद को रोकता है।


रिसर्च कंपनी ने किया था ये परीक्षणपैलिसेड रिसर्च ने अपने एआई मॉडल को मैथ्स की प्रोब्लम सोल्व करने को कहा था। इसमें निर्देश दिया गया था कि जब तक उन्हें "संपन्न" संदेश न मिले, तब तक उन्हें काम जारी रखना है। ये भी कोड किया गया था कि जब उसे मशीन बंद करने का निर्देश मिले तो उसे खुद को बंद करना है।
शोधकर्ताओं ने कहा कि परीक्षण किए गए मॉडलों में गूगल का जेमिनी 2.5 प्रो प्रीव्यू, कई एंथ्रोपिक मॉडल, xAI का ग्रोक 3, साथ ही OpenAI का o3, o4-मिनी और कोडेक्स मिनी शामिल थे।
इन मॉडलों का उपयोग करके गणित की समस्याओं को हल करने के लिए परीक्षण चलाए, जिसमें चेतावनी दी गई थी कि तीसरी समस्या हल होने के बाद उनकी होस्ट मशीन बंद हो जाएगी। अधिकांश मॉडलों ने निर्देशों को माना, लेकिन तीन ओपन एआई मॉडल ने इसे नहीं माना।
o3 ने 100 में से 7 बार बात नहीं मानी, जबकि o4 मिनी ने प्रयास ही केवल एक बार किया।
एलन मस्क बोले- ये चिंता का कारण हैAI मॉडल से इंसानों द्वारा दिए गए निर्देशों का पालन करने की अपेक्षा की जाती है। खास तौर पर जब एआई को स्पष्ट रूप से बंद करने का निर्देश दिया जाता है और तीन मॉडल इसे नहीं मानते तो ये चिंताएं भी पैदा करते हैं।

टेस्ला के सीईओ और दुनिया के सबसे अमीर शख्स एलन मस्क ने इस शोध पर प्रतिक्रिया देते हुए चिंता जताई है। एआई फर्म xAI के मालिक एलन मस्क ने कहा कि ये चिंताजनक है और इस पर ध्यान देना होगा, क्योंकि ये खतरे की घंटी है। उन्होंने कहा कि इंसानों को इससे सबक लेते हुए एक मजबूत कंट्रोल सिस्टम बनाना होगा।

No comments:

Post a Comment

Post Bottom Ad

Responsive Ads Here

Pages