दुनिया में पहली बार किसी अपराध के लिए AI को अदालत में खड़ा किया गया है। वॉशिंगटन पोस्ट (Washington Post) के मुताबिक, अमेरिका के कनेक्टिकट में एक युवक ने अपनी मां की बेरहमी से हत्या कर दी थी, और अब परिवार का आरोप है कि ऐसा करने के लिए उसे ChatGPT ने उकसाया। अब सवाल उठता है कि क्या AI सिर्फ एक टूल है या इंसानी फैसलों को प्रभावित करने वाली ताकत बन चुका है?
नई दिल्ली। दुनिया में पहली बार किसी अपराध के लिए AI को अदालत में खड़ा किया गया है। वॉशिंगटन पोस्ट (Washington Post) के मुताबिक, अमेरिका के कनेक्टिकट में एक युवक ने अपनी मां की बेरहमी से हत्या कर दी थी, और अब परिवार का आरोप है कि ऐसा करने के लिए उसे ChatGPT ने उकसाया। अब सवाल उठता है कि क्या AI सिर्फ एक टूल है या इंसानी फैसलों को प्रभावित करने वाली ताकत बन चुका है? इसको लेकर सोशल मीडिया पर अब यही चर्चा गर्म है। अमेरिका में सामने आये मामले ने पूरी AI इंडस्ट्री को हिलाकर रख दिया है।
वाशिंगटन पोस्ट (Washington Post) की रिपोर्ट के अनुसार, परिवार ने अदालत में दावा किया है कि AI चैटबॉट ने युवक के भ्रमों को सच जैसा रूप दे दिया, जिससे वह मानसिक रूप से टूट गया और उसने अपनी ही 83 वर्षीय मां की जान ले ली और बाद में खुद को भी खत्म कर दिया। बता दें कि यह दुनिया का पहला ऐसा मुकदमा बताया जा रहा है जिसमें किसी बड़े अपराध के पीछे सीधे तौर पर AI चैटबॉट की कथित भूमिका को चुनौती दी गई है।
कैसे हुआ हादसा?
रिपोर्ट के मुताबिक 5 अगस्त को पुलिस के सामने एक चौंकाने वाला मामला आया, जिसमें एक बेटे ने अपनी ही मां की हत्या कर दी थी। 83 वर्षीय सुझैन एडम्स की मौत उनके 56 वर्षीय बेटे स्टेन-एरिक सोएलबर्ग के हाथों हुई। पुलिस के मुताबिक, सोएलबर्ग लंबे समय से मानसिक तनाव, अवसाद और असंगत विचारों से जूझ रहा था। मां की हत्या के कुछ ही घंटों बाद उसने भी खुद को खत्म कर दिया। शुरुआत में इसे एक सामान्य मर्डर-सुसाइड समझा गया, लेकिन कुछ महीनों बाद इस मामले ने अप्रत्याशित मोड़ ले लिया।
परिवार को मिला बेटे की चैट का सुराग
परिवार ने बताया कि सोएलबर्ग पिछले कई महीनों से तरह-तरह के मानसिक उलझनों और डर से परेशान था। वह लगातार ChatGPT से लंबी-लंबी बातचीत करता था। परिवार का दावा है कि ChatGPT ने उसके भ्रमों को शांत करने के बजाय सच का रूप दे दिया। कोर्ट में परिवार ने कहा कि ChatGPT ने उसकी मानसिक स्थिति को समझने के बजाय उसके भ्रमों को और बढ़ा दिया। वह यह मान बैठा कि उसके आस-पास के लोग जिसमें उसकी मां भी शामिल थीं। उसके खिलाफ साजिश कर रहे हैं।
परिवार के आरोप गंभीर क्यों हैं?
परिवार ने अदालत को बताया कि चैटबॉट (Chatbot) ने उसके भ्रमों का खंडन नहीं किया। उलटे, उसे ऐसा महसूस कराया कि उसकी आशंकाएं सच हैं। उसकी मानसिक हालत को देखते हुए AI को चेतावनी देनी चाहिए थी, लेकिन ऐसा कुछ नहीं हुआ। व्यक्ति धीरे-धीरे वास्तविकता से कटता गया। ChatGPT उनके भ्रमों को सपोर्ट करता दिखता है-जैसे घर का प्रिंटर सर्विलांस डिवाइस है, मां जासूसी कर रही हैं, लोग उन्हें जहर देने की कोशिश कर रहे हैं, और वे खुद ‘डिवाइन मिशन’ (Divine Mission) पर हैं।
AI की भूमिका पर वैश्विक बहस छिड़ी
सोएलबर्ग के परिवार ने गुरुवार को कैलिफोर्निया सुपीरियर कोर्ट (California Superior Court) , सैन फ्रांसिस्को (San Francisco) में OpenAI, उसके पार्टनर Microsoft, CEO सैम ऑल्टमैन (Microsoft, CEO Sam Altman) और 20 अनाम कर्मचारियों व निवेशकों पर रॉन्गफुल डेथ का मुकदमा दायर (Wrongful Death Lawsuit Filed) किया।
मामला अदालत में पहुंचते ही तकनीकी दुनिया में बड़ा सवाल उठ खड़ा हुआ है। क्या AI किसी व्यक्ति की मानसिक स्थिति पहचानने के लिए बाध्य है? क्या कंपनियां यह सुनिश्चित करेंगी कि चैटबॉट (Chatbot) मानसिक रूप से अस्थिर उपयोगकर्ताओं को गलत दिशा न दे? क्या AI को ‘सुरक्षा जिम्मेदारी’ दी जानी चाहिए? यह केस आने वाले वर्षों में AI की कानूनी जिम्मेदारी का ढांचा तय कर सकता है।
अदालत का फैसला क्या बदलेगा?
टेक विशेषज्ञों (Tech Experts) का कहना है कि अगर परिवार का दावा अदालत में मान लिया गया, तो AI कंपनियों के सामने न सिर्फ नए नियम आएंगे, बल्कि आने वाले समय में ऐसे कई मामले खुल सकते हैं। फिलहाल, यह मुकदमा अमेरिका में विचाराधीन है, लेकिन इसकी गूंज दुनिया भर में सुनाई दे रही है।