एआई की ताकत या खतरा? तकनीकी कंपनियों और सैन्य संस्थाओं के बीच बढ़ती टकराव की बहस
कृत्रिम बुद्धिमत्ता के बढ़ते प्रभाव ने नई चिंता पैदा की है—क्या भविष्य में युद्ध और सुरक्षा से जुड़े फैसले इंसान लेंगे या AI सिस्टम?

Report| कल्पना कीजिए कि अगर भविष्य में कृत्रिम बुद्धिमत्ता से जुड़ी किसी बड़ी आपदा का सामना इंसानों को करना पड़े, तो इसकी जिम्मेदारी किस पर जाएगी? क्या इसके लिए उन तकनीकी कंपनियों को दोषी ठहराया जाएगा जो सिलिकॉन वैली में बैठकर तकनीकी आदर्शलोक और अमरता जैसे सपनों को सच करने में लगी हैं, या फिर उन सैन्य अधिकारियों को जो वैश्विक प्रतिस्पर्धा में बढ़त पाने के लिए एआई को लगातार अधिक शक्तिशाली बना रहे हैं?
शीत युद्ध के समय भी अमेरिका को सैन्य गलतियों का डर सताता था। उस दौर में भी एआई को लेकर आशंकाएं मौजूद थीं। कई हॉलीवुड फिल्मों में यह डर साफ दिखाई देता है, जैसे Dr. Strangelove में दिखाई गई ‘डूम्सडे मशीन’, WarGames में युद्ध से जुड़ा कंप्यूटर सिस्टम और The Terminator में ‘स्काईनेट’ नामक एआई सिस्टम का नियंत्रण से बाहर हो जाना।
लेकिन पिछले कुछ वर्षों में एआई तकनीक की तेज़ प्रगति ने नई चिंताओं को जन्म दिया है। आज कुछ बड़ी टेक कंपनियों और उनके शीर्ष अधिकारियों के हाथों में अत्यधिक शक्ति केंद्रित होती जा रही है। कई विशेषज्ञों का मानना है कि इन कंपनियों की महत्वाकांक्षा और भविष्य को लेकर उनके बड़े-बड़े सपने कभी-कभी जोखिम भरे भी साबित हो सकते हैं।
अब चर्चा का केंद्र केवल सरकारें या सैन्य प्रमुख नहीं रहे, बल्कि एआई क्षेत्र की दिग्गज कंपनियां भी बन गई हैं। हाल ही में United States Department of Defense और एआई कंपनी Anthropic के बीच सामने आए मतभेदों ने इस बहस को और तेज कर दिया है।
मुख्य सवाल यह है कि क्या एंथ्रोपिक द्वारा विकसित AI मॉडल केवल कंपनी के तय नैतिक मानकों के भीतर ही काम करेंगे, या उन्हें अमेरिकी रक्षा तंत्र की जरूरतों के अनुसार किसी भी उद्देश्य के लिए इस्तेमाल किया जा सकेगा।
मौजूदा समझौते के अनुसार एंथ्रोपिक ने दो तरह के उपयोगों पर स्पष्ट प्रतिबंध लगाया है। पहला, एआई का बड़े पैमाने पर निगरानी प्रणाली के रूप में इस्तेमाल। दूसरा, पूरी तरह स्वायत्त हथियारों में एआई का उपयोग, जहां अंतिम निर्णय लेने में किसी इंसान की भूमिका न हो।
कुछ विशेषज्ञों को यह स्थिति उन विज्ञान-कथाओं की याद दिलाती है जिनमें मशीनें खुद फैसले लेने लगती हैं। हालांकि पेंटागन का कहना है कि उसका लक्ष्य किसी भी तरह के ‘किलर रोबोट’ बनाना नहीं है।
सैन्य अधिकारियों का तर्क है कि राष्ट्रीय सुरक्षा जैसे संवेदनशील क्षेत्रों में उपयोग होने वाली तकनीक पर अंतिम निर्णय किसी निजी कंपनी के हाथ में नहीं होना चाहिए। उनके अनुसार ऐसे फैसले लोकतांत्रिक सरकारों और उनके जिम्मेदार अधिकारियों को ही लेने चाहिए।
उदाहरण के तौर पर रक्षा विभाग ने यह आशंका जताई है कि यदि अमेरिका पर किसी Hypersonic मिसाइल से हमला हो जाए और उस समय कोई एआई कंपनी अपनी नीति के कारण तकनीकी सहायता देने से इनकार कर दे, तो इससे राष्ट्रीय सुरक्षा को गंभीर खतरा हो सकता है।
यही वजह है कि आज एआई तकनीक को लेकर एक बड़ा सवाल खड़ा हो गया है—क्या भविष्य में तकनीकी कंपनियों के नैतिक नियम ज्यादा महत्वपूर्ण होंगे या फिर राष्ट्रीय सुरक्षा की जरूरतें? आने वाले वर्षों में यह बहस और गहरी होने की संभावना है।
नए खबरों के लिए बने रहे सटीकता न्यूज के साथ।




