स्मृति दिवस के रूप में हमें हर साल याद दिलाता है, युद्ध दूर नहीं जाता है।
लेकिन यह बदलता है। और आने वाले वर्षों में हम देखेंगे कि अधिक गहन पारियों में से एक रोबोटों पर तेजी से निर्भर सेना है। ड्रोन को अब सबसे अधिक ध्यान आकर्षित होता है, लेकिन रक्षा विभाग के नवाचारों के अधिक से अधिक अन्य प्रकार की मानवरहित मशीनें हैं, प्रायोगिक विमान से लेकर ऑन-द-ग्राउंड सैनिकों तक।
आकर्षण को समझना आसान है। युद्ध में मनुष्यों पर पूरी तरह भरोसा करने की तुलना में रोबोट का उपयोग करना संभवतः अधिक कुशल, अधिक सटीक और कम खर्चीला है। और यह भी निश्चित रूप से, मानव हताहतों की संख्या को कम करेगा।
लेकिन यह परिवर्तन अपने साथ एक जटिल चुनौती लेकर आया है: क्या सैन्य मशीनों को निर्णय लेने के लिए प्रोग्राम किया जा सकता है? जो एक स्पष्ट प्रश्न की ओर जाता है: क्या रोबोट नैतिकता सीख सकते हैं?
अमेरिकी नौसेना अनुसंधान कार्यालय का मानना है कि अब यह पता लगाने का समय है। इस महीने की शुरुआत में, इसने टफट्स, ब्राउन, येल और जॉर्जटाउन विश्वविद्यालयों और Rensselaer Polytechnic Institute (RPI) में पांच साल के लिए $ 7.5 मिलियन अनुदान देने की घोषणा की कि क्या मशीनें एक दिन गलत से सही चयन करने में सक्षम हो सकती हैं।
नौसेना उस स्थिति से बचना चाहती है जो अब Google की चालकविहीन कार का सामना करती है: एक ऐसी तकनीक होना जो अपने द्वारा उठाए गए कानूनी और नैतिक मुद्दों पर किसी भी स्पष्टता से बहुत पहले जारी हो। स्वायत्त रोबोट क्षेत्र में बाहर जाने से पहले, सैन्य जानना चाहते हैं कि क्या वे वास्तव में सही काम करना सीख सकते हैं।
आरपीआई के संज्ञानात्मक विज्ञान विभाग के प्रमुख सेल्मर ब्रिंग्सजॉर्ड के रूप में, यह देखता है कि एक रोबोट की कृत्रिम बुद्धि को नैतिकता के दो स्तरों पर कार्य करने के लिए डिज़ाइन किया जा सकता है। पहला स्पष्ट नैतिक विकल्पों की एक चेकलिस्ट पर आधारित होगा, जैसे कि "यदि आप एक घायल सैनिक पर आते हैं, तो आपको उसकी मदद करनी चाहिए।" लेकिन क्या होगा यदि यह कार्रवाई अपने प्राथमिक मिशन के साथ संघर्ष करती है, जैसे कि गोला बारूद की आवश्यकता के अनुसार। अन्य सैनिक? उस बिंदु पर, ब्रिंग्सजॉर्ड कहते हैं, रोबोट को "गहन नैतिक तर्क" में संलग्न होने की क्षमता की आवश्यकता होगी ताकि उन परिस्थितियों में निर्णय लिया जा सके जो उसके प्रोग्रामर का अनुमान लगाने में सक्षम नहीं थे।
शोधकर्ताओं को अद्वितीय एल्गोरिदम और कम्प्यूटेशनल तंत्र विकसित करने की आवश्यकता होगी जिसे स्वायत्त रोबोट की मौजूदा वास्तुकला में एकीकृत किया जा सकता है, एक "सोच प्रक्रिया" जो एक मशीन को नैतिक तर्क को लागू करने की क्षमता के आधार पर योजनाबद्ध व्यवहार को ओवरराइड करने की अनुमति देगी।
अगर यह असाधारण रूप से महत्वाकांक्षी लगता है, ठीक है, यह है। शुरू करने के लिए, शोधकर्ताओं को मानव नैतिकता के मूल तत्वों को अलग करने की आवश्यकता होगी - जिन सिद्धांतों पर हम सभी सहमत हैं - और फिर यह पता लगाने के लिए कि उन्हें एल्गोरिदम में कैसे शामिल किया जाए जो रोबोट को नैतिक क्षमता का कुछ स्तर प्रदान करेगा।
यह कोई छोटा उपक्रम नहीं है। इस कारण से, यह संभावना है कि मानव द्वारा नियंत्रित नहीं की जाने वाली मशीनें, भविष्य के लिए, निगरानी, सुरक्षा, खोज और बचाव या चिकित्सा देखभाल जैसे गैर-लड़ाकू भूमिकाओं तक सीमित रहेंगी। लेकिन अनिवार्य रूप से, सैन्य नियोजक उस प्रश्न का उत्तर चाहते हैं जो इस सब पर लटका हुआ है: क्या रोबोट, अपने दम पर काम करते हुए, कभी भी एक मानव को मारने की अनुमति दी जानी चाहिए?
यदि एक मशीन 90 प्रतिशत सुनिश्चित है कि एक वाहन में सभी को गोली मारने का इरादा है वह एक आतंकवादी है, तो क्या यह पर्याप्त है? क्या कोई रोबोट किसी बच्चे पर हथियार दागने में सक्षम होगा अगर यह निर्धारित करता है कि वह दुश्मन है? अगर कुछ गलत हो जाता है और एक स्वायत्त रोबोट गलती से एक गांव को उड़ा देता है, तो कौन जिम्मेदार है? कमांडर जिसने ऑपरेशन का आदेश दिया था? रोबोट को प्रोग्राम करने वाला व्यक्ति? या कोई नहीं?
अगर आपको लगता है कि यह अभी भी विज्ञान कथा का सामान है, तो इस महीने की शुरुआत में, जिनेवा में एक संयुक्त राष्ट्र सम्मेलन में "हत्यारे रोबोट" पर कृत्रिम बुद्धि से लेकर मानव अधिकारों से लेकर अंतर्राष्ट्रीय कानून तक के विषयों पर विशेषज्ञों का वजन किया गया। ह्यूमन राइट्स वॉच और पाकिस्तान, मिस्र, क्यूबा और वेटिकन सहित कुछ देशों के अधिकारियों के अधिकारियों ने हत्या करने के अधिकार के साथ रोबोट पर एक समान प्रतिबंध लगाने का आह्वान किया। लेकिन अधिकांश देशों, विशेष रूप से सबसे उन्नत रोबोट वाले, अब तक जाने के लिए तैयार नहीं हैं।
उदाहरण के लिए, WildCat पर एक नज़र डालें, चार-पैर वाला रोबोट सभी प्रकार के इलाकों में उच्च गति पर चलने के लिए विकसित किया जा रहा है।
अभी के लिए, अमेरिकी सेना 2012 के रक्षा विभाग के निर्देश का पालन करती है कि मारने की शक्ति वाली कोई मशीन पूरी तरह से स्वायत्त नहीं हो सकती है। एक मानव को शाब्दिक रूप से शॉट्स को कॉल करना होता है। लेकिन यह सभी जगहों के लिए सही नहीं हो सकता है: मार्च में, न्यू साइंटिस्ट ने एक रूसी अधिकारी के हवाले से कहा कि रोबोट पांच बैलिस्टिक मिसाइल प्रतिष्ठानों पर भेजता है, जो मानव को बिना लक्ष्य दिए लक्ष्य का पता लगाने और नष्ट करने में सक्षम होगा।
नीचे देखा गया फोस्टर-मिलर टैल्न, दुनिया भर में कई मशीनों में से एक है जो युद्ध के लिए विकसित की जा रही है।
युद्ध के नियम
नवंबर में हत्यारे रोबोट सम्मेलन पर एक रिपोर्ट संयुक्त राष्ट्र की कुछ सह-प्रतिष्ठित हथियार समिति को प्रस्तुत की जाएगी। लेकिन ऐसा नहीं लगता है कि प्रतिबंध जल्द ही किसी भी समय आ रहा है।
जिनेवा में चर्चा में शामिल होने वालों में जॉर्जिया टेक के एक कृत्रिम बुद्धिमत्ता विशेषज्ञ रोनाल्ड अर्किन थे, जो लंबे समय से मशीनों को नैतिक निर्णय लेने की क्षमता प्रदान करने के लिए एक वकील थे। उनका मानना है कि अगर रोबोट अंतरराष्ट्रीय कानून का पालन करना सीख सकते हैं, तो वे वास्तव में युद्ध में मनुष्यों की तुलना में अधिक नैतिक व्यवहार कर सकते हैं क्योंकि वे लगातार संगत होंगे। वे गुस्से में या घबराहट या पूर्वाग्रह के साथ प्रतिक्रिया करने में सक्षम नहीं होंगे। इसलिए आर्किन एक प्रतिबंध का विरोध करता है, हालांकि वह स्वायत्त हथियारों पर रोक के लिए खुला है जब तक कि मशीनों को यह देखने का मौका नहीं दिया जाता है कि क्या वे युद्ध के नियमों में महारत हासिल कर सकते हैं।
जिनेवा में आर्किन पर बहस करने वाले एक अन्य एआई वैज्ञानिक नोएल शार्की बहुत अलग दिमाग के हैं। उन्हें नहीं लगता कि रोबोट को कभी भी जीवन या मृत्यु निर्णय लेने का अधिकार दिया जाना चाहिए।
हाल ही में उन्होंने डिफेंस वन को बताया: “मुझे नहीं लगता कि वे कभी नैतिक या नैतिक रोबोट के साथ समाप्त होंगे। उसके लिए हमें नैतिक एजेंसी की आवश्यकता है। उसके लिए हमें दूसरों को समझने और यह जानने की जरूरत है कि इसका क्या मतलब है। "
"एक रोबोट नैतिकता के कुछ नियमों के साथ स्थापित किया जा सकता है, लेकिन यह वास्तव में परवाह नहीं करेगा, " वे कहते हैं।