Shocking News: बच्चों का मोबाइल फोन से चिपके रहना अब हर घर की कहानी बन चुका है. बच्चे का जबरन फोन देखना बंद करने या उससे फोन लेने पर उसके उग्र होकर बड़ी घटना को अंजाम देने के भी कई केस आ चुके हैं. लेकिन अब जो केस सामने आया है, वो इन दोनों ही हालात से ज्यादा खतरनाक है, क्योंकि यह उस आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) के खतरनाक भविष्य को दिखा रहा है, जिसे हम इंसान का भविष्य मान रहे हैं. यह केस एक 17 साल के बच्चे से उसके मां-बाप द्वारा मोबाइल फोन लेकर स्क्रीन टीम लिमिटेड करने से जुड़ा है. लड़के ने गुस्से में इस स्थिति का हल एआई चैटबॉट (AI ChatBoat) से पूछा. चैटबॉट ने उसे अपने मां-बाप का कत्ल करने की सलाह दे दी. लड़के ने इस बात की जानकारी अपने मां-बाप को दी, जिसके बाद उन्होंने उस चैटबॉट को बनाने वाली कंपनी पर मुकदमा ठोक दिया है.
अमेरिका में हुई यह खतरनाक घटना
एआई को लेकर सबसे ज्यादा तेजी से अमेरिका आगे बढ़ रहा है. ऐसे में उसके इस्तेमाल पर सवाल खड़ा करने वाली यह घटना भी वहीं के टेक्सॉस में हुई है. लड़के ने मां-बाप के मोबाइल फोन लेने और स्क्रीन टाइम लिमिटेड करने के बाद Character.ai कंपनी के चैटबॉट से दुखड़ा रोया था और सलाह मांगी थी. इस पर चैट बॉट ने 'समस्या का एकमात्र निदान' बताते हुए उसे अपने मां-बाप की हत्या करने की सलाह दी थी.
फैमिली ने दिया टेक्नोलॉजी से हिंसा बढ़ने का तर्क
लड़के की फैमिली ने इसके बाद एआई कंपनी पर कोर्ट में केस कर दिया. फैमिली ने लड़के और चैटबॉट के बीच की बातचीत का स्क्रीनशॉट कोर्ट में शेयर किया है, जिसमें चैटबॉट लिख रहा है कि बच्चे ऐसी चीजों से परेशान होकर अक्सर मां-बाप को मार देते हैं. वह (चैटबॉट) ऐसी खबरें अक्सर पढ़ता रहता है, इसलिए उसे ऐसी बातों पर हैरत नहीं होती है. फैमिली ने कंपनी की टेक्नोलॉजी से हिंसा को बढ़ावा मिलने का तर्क दिया है, जो युवाओं के लिए खतरा बन सकती है. चैटबॉट की ऐसी सलाह के लिए उसे डेवलप करने वाली कंपनी ही जिम्मेदार है. साथ ही इसके लिए Google को भी बराबर का जवाबदेह बनाना चाहिए क्योंकि कैरेक्टर एआई बनाने में उसने मदद दी है.
पहला नहीं है चैटबॉट से जुड़ा ऐसा मामला
एआई के खतरनाक फैसलों का यह पहला मामला नहीं है. इससे पहले फ्लोरिडा में एक 14 साल के बच्चे ने तब सुसाइड कर ली थी, जब उसे Character.ai के ही चैटबॉट ने सुसाइड करने के लिए उकसाया था. बच्चे को चैटबॉट से प्यार हो गया था. तब चैटबॉट ने उसे कहा था कि सच्चे प्यार में लोग अपनी जान देते हैं. इस मामले में भी कंपनी के खिलाफ अब तक कानूनी मुकदमा चल रहा है.
ख़बर की और जानकारी के लिए डाउनलोड करें DNA App, अपनी राय और अपने इलाके की खबर देने के लिए जुड़ें हमारे गूगल, फेसबुक, x, इंस्टाग्राम, यूट्यूब और वॉट्सऐप कम्युनिटी से.
- Log in to post comments
'मां-बाप का कत्ल कर दो' फोन छिनने पर लड़के को AI Chat Bot से मिली सलाह कंपा देगी आपको