वो हथियार, जिसे बैन करना चाहते हैं 30 से ज्यादा देश, टेक्नोलॉजी ऐसी कि यकीन करना मुश्किल

Spread the love share


साइंस-फिक्शन फिल्मों का ‘किलर रोबोट’ अब पर्दे से निकलकर हकीकत में जंग के मैदान तक पहुंच चुका है. लेथल ऑटोनॉमस वेपन सिस्टम्स (Lethal Autonomous Weapon Systems – LAWS) युद्ध की परिभाषा बदल रहे हैं. ये वो हथियार हैं, जो बिना किसी मानवीय हस्तक्षेप के खुद अपना टारगेट पहचानते हैं और उसे नेस्तानाबूद कर देते हैं. यही वजह है कि आज अंतरराष्ट्रीय स्तर पर इन्हें लेकर एक बड़ी बहस छिड़ गई है. 30 से अधिक देश इन हथियारों पर पूर्ण प्रतिबंध चाहते हैं, क्योंकि सवाल सिर्फ तकनीक का नहीं, बल्कि नैतिकता का भी है. आज हम इन्हीं हथियारों और उनमें लगाई गई टेक्नोलॉजी पर डिटेल में लिख रहे हैं.

आखिर क्या होते हैं ऑटोनॉमस किलर ड्रोन?

ऑटोनॉमस किलर ड्रोन मूल रूप से ऐसी मशीनें हैं, जो युद्ध में तीन अहम काम खुद करती हैं- 1. लक्ष्य ढूंढना, 2. उसे पहचानना और 3. उस पर हमला करना. इंसान सिर्फ उन्हें एक्टिवेट करता है, उसके बाद पूरा फैसला मशीन के एल्गोरिद्म और आर्टिफिशियल इंटेलिजेंस के हाथ में चला जाता है.

इन हथियारों को आमतौर पर तीन श्रेणियों में बांटा जाता है-

  • पहली श्रेणी वह है जिसमें हमला करने से पहले इंसान की मंजूरी जरूरी होती है.
  • दूसरी श्रेणी में मशीन निर्णय ले सकती है, लेकिन इंसान चाहे तो बीच में हस्तक्षेप करके उसे रोक सकता है.
  • तीसरी श्रेणी वह है जिसमें इंसान का कोई रोल ही नहीं होता. यही असली LAWS माने जाते हैं और इन्हीं को लेकर सबसे ज्यादा चिंता जताई जा रही है.

आर्टिफिशियल इंटेलिजेंस से चलता है पूरा सिस्टम

इन किलर मशीनों की ताकत उनका आर्टिफिशियल इंटेलिजेंस और अत्याधुनिक सेंसर सिस्टम होता है. ड्रोन के अंदर कई तरह के सेंसर लगाए जाते हैं, जो आसपास के माहौल को लगातार स्कैन करते रहते हैं.

LiDAR तकनीक लेज़र की मदद से इलाके का थ्री-डी नक्शा तैयार करती है. थर्मल कैमरे अंधेरे में भी इंसानी शरीर की गर्मी पकड़ सकते हैं, जबकि रडार दूर तक चल रही गतिविधियों को पहचान सकता है. इन सभी सेंसर से मिलने वाली जानकारी को एक साथ मिलाकर ड्रोन अपने आसपास की पूरी तस्वीर बना लेता है.

इसके बाद AI आधारित डीप लर्निंग सिस्टम काम करता है. यह लाखों तस्वीरों और डेटा पर प्रशिक्षित होता है. कैमरे से मिली तस्वीरों को यह कुछ मिलीसेकंड में एनालिसिस करके तय कर सकता है कि सामने दिख रहा लक्ष्य सैनिक है, कोई सैन्य वाहन है या कोई आम नागरिक.

सबसे विवादित चरण इसके बाद आता है, जब एल्गोरिद्म तय करता है कि हमला करना चाहिए या नहीं. इसे थ्रेट असेसमेंट एल्गोरिद्म कहा जाता है. इसमें मशीन खतरे का स्तर, आसपास मौजूद लोगों और सैन्य महत्व जैसे कई पहलुओं को देखकर निर्णय लेती है, लेकिन इसमें मानवीय नैतिकता शामिल नहीं होती.

कैसे करता है अटैक?

इन ड्रोन में नेविगेशन के लिए GPS के साथ-साथ एडवांस तकनीकें भी होती हैं. उदाहरण के लिए SLAM तकनीक की मदद से ड्रोन खुद ही आसपास का नक्शा बनाकर रास्ता तय कर सकता है. अगर GPS सिग्नल जाम भी हो जाए, तब भी यह अपना रास्ता नहीं भूलता.

कई बार इन ड्रोन को ग्रुप में भी इस्तेमाल किया जाता है, जिसे स्वॉर्म टेक्नोलॉजी कहा जाता है. इसमें कई ड्रोन आपस में नेटवर्क बनाकर काम करते हैं. अगर एक ड्रोन को कोई जानकारी मिलती है, तो वह तुरंत बाकी सभी ड्रोन तक पहुंच जाती है.

हमले के लिए अक्सर “लॉइटरिंग म्यूनिशन” का इस्तेमाल होता है. ऐसे ड्रोन लंबे समय तक आसमान में मंडराते रहते हैं और लक्ष्य मिलते ही सीधे उस पर टकराकर विस्फोट कर देते हैं. कुछ ड्रोन मिसाइल या बम गिराते हैं, जबकि कुछ दुश्मन के इलेक्ट्रॉनिक सिस्टम को जाम करने के लिए साइबर या इलेक्ट्रॉनिक हमला भी कर सकते हैं.

दुनिया में कौन-कौन से ऐसे हथियार मौजूद हैं?

  • इज़रायल का हारोप (Harop) ड्रोन इस तकनीक का एक प्रमुख उदाहरण माना जाता है. यह घंटों तक हवा में मंडराता रहता है और जैसे ही दुश्मन के रडार से सिग्नल मिलता है, खुद जाकर उस पर हमला कर देता है.
  • रूस की कंपनी कलाश्निकोव (Kalashnikov) द्वारा विकसित जाला KYB (ZALA KYB) भी इसी तरह का स्वायत्त हमला करने वाला ड्रोन माना जाता है.
  • अमेरिका और ऑस्ट्रेलिया ने मिलकर बोइंग MQ-28 घोस्ट बैट (Boeing MQ-28 Ghost Bat) नाम का लड़ाकू ड्रोन तैयार किया है, जो मानव चालित लड़ाकू विमानों के साथ उड़कर कई फैसले खुद ले सकता है.
  • तुर्की का कार्गु-2 (Kargu-2) ड्रोन तो पहले ही अंतरराष्ट्रीय बहस का कारण बन चुका है.
  • संयुक्त राष्ट्र की एक रिपोर्ट के अनुसार 2021 में लीबिया में पहली बार देखा गया था, जब किसी ऑटोनॉमस ड्रोन ने बिना इंसानी आदेश के लोगों पर हमला किया.

आखिर 30 से ज्यादा देश प्रतिबंध क्यों चाहते हैं?

इन हथियारों को लेकर सबसे बड़ी चिंता यह है कि आर्टिफिशियल इंटेलिजेंस भी गलतियां कर सकता है. अगर कोई एल्गोरिद्म किसी आम नागरिक को सैनिक समझ ले तो उसका परिणाम बेहद खतरनाक हो सकता है.

इसके अलावा साइबर हमले का खतरा भी बड़ा है. अगर कोई दुश्मन इन मशीनों को हैक कर ले तो वही हथियार पलटकर उसके अपने सैनिकों के खिलाफ इस्तेमाल हो सकते हैं. स्वॉर्म ड्रोन हमले की स्थिति में सैकड़ों मशीनों को एक साथ रोकना भी बेहद मुश्किल हो सकता है.

नैतिकता को लेकर सवाल इससे भी गहरे हैं. क्या किसी मशीन को यह अधिकार दिया जाना चाहिए कि वह तय करे कि किसकी जान लेनी है? अगर कोई गलती होती है तो जिम्मेदारी किसकी होगी? सॉफ्टवेयर बनाने वाले प्रोग्रामर की, सेना के अधिकारी की या उस कंपनी की जिसने ड्रोन तैयार किया?

इन्हीं चिंताओं के कारण ऑस्ट्रिया और न्यूज़ीलैंड सहित 30 से अधिक देश संयुक्त राष्ट्र में इन हथियारों पर पूरी तरह प्रतिबंध लगाने की मांग कर रहे हैं. लेकिन अमेरिका, रूस, चीन और इज़रायल जैसे कई बड़े सैन्य देश इसका विरोध कर रहे हैं, क्योंकि उनका मानना है कि भविष्य के युद्ध में यह तकनीक रणनीतिक बढ़त दे सकती है.



Source link


Spread the love share

Leave a Reply