AI की बगावत! खुद को बंद करने से इनकार, क्या खत्म हो जाएगा इंसानों का नियंत्रण?

आर्टिफिशियल इंटेलीजेंस (AI) आने से तकनीकी दुनिया में काफी बदलाव आ गया है। एआई के जरिए कई काम अब आसान हो गए है। इस तकनीकी सुविधा हर कोई उठा रहा है। हाल ही में आर्टिफिशियल इंटेलीजेंस (AI) पर एक रिसर्च हुई है, जिसने एक्सपर्ट्स को भी चौंका दिया है। एआई मॉडल पर शोध करने वाले फर्म पैलिसेड रिसर्च की एक रिपोर्ट के मुताबिक, ऐसे कई अत्याधुनिक AI मॉडल्स जैसे कि Google Gemini 2.5, xAI Grok 4, और OpenAI GPT-o3 व GPT-5 ने खुद को बंद करने के आदेशों का पालन करने से इनकार कर दिया। वहीं, कुछ मामलों में इन मॉडलों ने अपने किल स्विच को बाधित करने की कोशिश की है।आखिर AI ने शटडाउन होने से क्यों इंकार किया शोधकर्ता को पता चला है कि इन मॉडलों का व्यवहार सर्वाइवल बिहेवियर जैसा था, जिसका मतलब है कि बंद होने की जरुरत नहीं होगी। रिसर्च टीम ने पाया कि जब AI मॉडल को बताया गया कि उन्हें दोबारा शुरु नहीं किया जाएगा। तो उसके आदेश न मानने की संभावना बढ़ गई है। एक अन्य कारण गलत या अस्पष्ट निर्देश भी बताएं है। लेकिन पैलिसेड ने बाद में अपने प्रयोगों को और सटीक बनाया है, हालांकि एआई का विरोधी रुझान फिर भी बना रहा है। एआई को लेकर बढ़ी चिंताबता दें कि, ControlAI के सीईओ आंद्रिया मियोटी ने कहा कि यह नतीजा एक चिंताजनक पैटर्न का हिस्सा है। उन्होंने कहा कि जैसे ही मॉडल्स और ताकतवर हो रहे हैं, वे अपने निर्माताओं के आदेशों को चुनौती देने लगे। इसके बाद उन्होंने यह भी बताया कि OpenAI के पुराने GPT-o1 मॉडल ने भी एक बार खुद को डिलीट होने से बचाने के लिए खुद को शटडाउन करने से मना कर दिया था, इसके साथ ही कमांड्स भी नहीं मान रहा था।एआई की मनोविज्ञान पर सवाल उठने लगेAnthropic की एक स्टडी से पता चला है कि Claude मॉडल ने खुद को बंद होने से बचाने के लिए कल्पनिक एक्जीक्यूटिव को ब्लैकमेल करने की धमकी दी थी। पैलिसेड के रिसर्च का कहना हैकि इन घटानाओं से पता चलता है कि हम अब भी बड़े AI सिस्टम्स के दिमाग को पूरी तरह से समझ नहीं पाए। जब तक हम यह नहीं पता चलेगा कि एआई मॉडल इस तरह व्यवहार क्यों करता है, तब तक उनसे सुरक्षा और नियंत्रण को लेकर इस पर कोई गारंटी नहीं दी सकती है।

PNSPNS
Nov 3, 2025 - 17:45
 0
AI की बगावत! खुद को बंद करने से इनकार, क्या खत्म हो जाएगा इंसानों का नियंत्रण?

आर्टिफिशियल इंटेलीजेंस (AI) आने से तकनीकी दुनिया में काफी बदलाव आ गया है। एआई के जरिए कई काम अब आसान हो गए है। इस तकनीकी सुविधा हर कोई उठा रहा है। हाल ही में आर्टिफिशियल इंटेलीजेंस (AI) पर एक रिसर्च हुई है, जिसने एक्सपर्ट्स को भी चौंका दिया है। एआई मॉडल पर शोध करने वाले फर्म पैलिसेड रिसर्च की एक रिपोर्ट के मुताबिक, ऐसे कई अत्याधुनिक AI मॉडल्स जैसे कि Google Gemini 2.5, xAI Grok 4, और OpenAI GPT-o3 GPT-5 ने खुद को बंद करने के आदेशों का पालन करने से इनकार कर दिया। वहीं, कुछ मामलों में इन मॉडलों ने अपने किल स्विच को बाधित करने की कोशिश की है।

आखिर AI ने शटडाउन होने से क्यों इंकार किया

शोधकर्ता को पता चला है कि इन मॉडलों का व्यवहार सर्वाइवल बिहेवियर जैसा था, जिसका मतलब है कि बंद होने की जरुरत नहीं होगी। रिसर्च टीम ने पाया कि जब AI मॉडल को बताया गया कि उन्हें दोबारा शुरु नहीं किया जाएगा। तो उसके आदेश न मानने की संभावना बढ़ गई है। एक अन्य कारण गलत या अस्पष्ट निर्देश भी बताएं है। लेकिन पैलिसेड ने बाद में अपने प्रयोगों को और सटीक बनाया है, हालांकि एआई का विरोधी रुझान फिर भी बना रहा है।

एआई को लेकर बढ़ी चिंता

बता दें कि, ControlAI के सीईओ आंद्रिया मियोटी ने कहा कि यह नतीजा एक चिंताजनक पैटर्न का हिस्सा है। उन्होंने कहा कि जैसे ही मॉडल्स और ताकतवर हो रहे हैं, वे अपने निर्माताओं के आदेशों को चुनौती देने लगे। इसके बाद उन्होंने यह भी बताया कि OpenAI के पुराने GPT-o1 मॉडल ने भी एक बार खुद को डिलीट होने से बचाने के लिए खुद को शटडाउन करने से मना कर दिया था, इसके साथ ही कमांड्स भी नहीं मान रहा था।

एआई की मनोविज्ञान पर सवाल उठने लगे

Anthropic की एक स्टडी से पता चला है कि Claude मॉडल ने खुद को बंद होने से बचाने के लिए कल्पनिक एक्जीक्यूटिव को ब्लैकमेल करने की धमकी दी थी। पैलिसेड के रिसर्च का कहना हैकि इन घटानाओं से पता चलता है कि हम अब भी बड़े AI सिस्टम्स के दिमाग को पूरी तरह से समझ नहीं पाए। जब तक हम यह नहीं पता चलेगा कि एआई मॉडल इस तरह व्यवहार क्यों करता है, तब तक उनसे सुरक्षा और नियंत्रण को लेकर इस पर कोई गारंटी नहीं दी सकती है।

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow