एआई की ‘ओपेनहाइमर मोमेंट’: डिस्मामेंट पर नई सोच की आवश्यकता क्यों है



तकनीकी समुदाय के साथ संलग्न होना रक्षा नीति निर्माताओं के लिए “साइडलाइन” नहीं है-यह “इस समुदाय को उन फ्रेमवर्क के डिजाइन, विकास और उपयोग में शुरू से ही अपरिहार्य है, जो एआई सिस्टम और क्षमताओं की सुरक्षा और सुरक्षा का मार्गदर्शन करेंगे”, यूएन इंस्टीट्यूट फॉर डिसमेट रिसर्च के सह-डिप्टी हेड ने कहा।

जिनेवा में यूनीदिर द्वारा आयोजित एआई सुरक्षा और नैतिकता पर हाल के वैश्विक सम्मेलन में बोलते हुए, उन्होंने प्रभावी रेलिंग के महत्व पर जोर दिया, क्योंकि दुनिया ने नेविगेट किया कि जिसे अक्सर एआई के “ओपेनहाइमर मोमेंट” कहा जाता है – रॉबर्ट ओपेनहाइमर के संदर्भ में, यूएस न्यूक्लियर फिजिकिस्ट बेस्ट के लिए बेस्ट ऑफ हाइवोटल बम बनाने के लिए जाना जाता है।

ओवरसाइट की आवश्यकता है ताकि एआई विकास मानव अधिकारों, अंतर्राष्ट्रीय कानून और नैतिकता का सम्मान करें – विशेष रूप से एआई -निर्देशित हथियारों के क्षेत्र में – यह गारंटी देने के लिए कि ये शक्तिशाली प्रौद्योगिकियां एक नियंत्रित, जिम्मेदार तरीके से विकसित होती हैं, यूनीडिर अधिकारी ने जोर देकर कहा।

दोषपूर्ण तकनीक

एआई ने पहले ही दुनिया भर की सरकारों और आतंकवादियों के लिए एक सुरक्षा दुविधा पैदा कर दी है।

एआई प्रौद्योगिकियों की दोहरी-उपयोग प्रकृति-जहां उनका उपयोग नागरिक और सैन्य सेटिंग्स में समान रूप से किया जा सकता है-का मतलब है कि डेवलपर्स युद्ध के मैदान की स्थितियों की वास्तविकताओं के साथ संपर्क खो सकते हैं, जहां उनकी प्रोग्रामिंग में जीवन की लागत आ सकती है, कॉमंड एआई में सार्वजनिक मामलों के प्रमुख अरनॉड वल्ली को चेतावनी दी।

उपकरण अभी भी अपनी प्रारंभिक अवस्था में हैं, लेकिन लंबे समय से ईंधन की आशंका है कि उनका उपयोग युद्ध सेटिंग में जीवन-या-मृत्यु के फैसले करने के लिए किया जा सकता है, मानव निर्णय लेने और जिम्मेदारी की आवश्यकता को दूर करते हुए। इसलिए विनियमन के लिए बढ़ती कॉल, यह सुनिश्चित करने के लिए कि गलतियों से बचा जाता है जिससे विनाशकारी परिणाम हो सकते हैं।

लंदन स्थित कंपनी एडवाई के सीईओ डेविड सुली ने कहा, “हम इन प्रणालियों को हर समय विफल कर देते हैं।”

“तो, उन्हें गलत करना उतना मुश्किल नहीं है जितना लोग कभी -कभी सोचते हैं,” उन्होंने कहा।

एक साझा जिम्मेदारी

Microsoft में, टीमें सुरक्षा, सुरक्षा, समावेशिता, निष्पक्षता और जवाबदेही के मुख्य सिद्धांतों पर ध्यान केंद्रित कर रही हैं, डिजिटल कूटनीति के निदेशक माइकल करीमियन ने कहा।

बिल गेट्स द्वारा स्थापित यूएस टेक दिग्गज कानून प्रवर्तन द्वारा उपयोग किए जाने वाले वास्तविक समय के चेहरे की मान्यता तकनीक पर सीमाओं को स्थान देते हैं जो मानसिक या शारीरिक नुकसान का कारण बन सकते हैं, श्री करीमियन ने समझाया।

स्पष्ट सुरक्षा उपायों को रखा जाना चाहिए और फर्मों को सिलोस को तोड़ने के लिए सहयोग करना चाहिए, उन्होंने संयुक्त राष्ट्र जिनेवा में घटना को बताया।

“नवाचार कुछ ऐसा नहीं है जो सिर्फ एक संगठन के भीतर होता है। साझा करने की जिम्मेदारी है,” श्री करीमियन ने कहा, जिनकी कंपनी यूनीदिर के साथ अंतर्राष्ट्रीय मानवाधिकारों के साथ एआई अनुपालन सुनिश्चित करने के लिए है।

ओवरसाइट विरोधाभास

समीकरण का एक हिस्सा यह है कि प्रौद्योगिकियां इतनी तेजी से गति से विकसित हो रही हैं, देशों को बनाए रखने के लिए संघर्ष कर रहे हैं।

“एआई विकास अपने कई जोखिमों को प्रबंधित करने की हमारी क्षमता को पछाड़ रहा है,” सुलीन नूर अब्दुल्ला ने कहा, जो अंतर्राष्ट्रीय दूरसंचार संघ (आईटीयू) में महासचिव के रणनीतिक योजना प्रमुख और विशेष सलाहकार हैं।

सुश्री अब्दुल्ला ने कहा, “हमें एआई शासन विरोधाभास को संबोधित करने की आवश्यकता है, यह मानते हुए कि कभी -कभी प्रौद्योगिकी से गुजरने वाले नियमों को प्रभावी शासन के लिए उपकरण विकसित करने के लिए नीति और तकनीकी विशेषज्ञों के बीच चल रहे संवाद के लिए जरूरी है,” सुश्री अब्दुल्ला ने कहा, विकासशील देशों को भी तालिका में एक सीट मिलनी चाहिए।

जवाबदेही अंतराल

2013 में एक दशक से अधिक समय पहले, घातक स्वायत्त रोबोटिक्स (लार्स) पर एक रिपोर्ट में प्रसिद्ध मानवाधिकार विशेषज्ञ क्रिस्टोफ हेन्स ने चेतावनी दी थी कि “मनुष्यों को लूप से बाहर निकालने से मानवता को लूप से बाहर ले जाने का जोखिम होता है”।

आज संदर्भ-निर्भर कानूनी निर्णयों को एक सॉफ्टवेयर प्रोग्राम में अनुवाद करना कम मुश्किल नहीं है और यह अभी भी महत्वपूर्ण है कि “जीवन और मृत्यु” निर्णय मनुष्यों द्वारा लिया जाता है और रोबोट नहीं, संयुक्त राष्ट्र मानवाधिकार कार्यालय (OHCHR) के विकास प्रभाग के अधिकार के निदेशक पैगी हिक्स पर जोर दिया।

मिररिंग सोसाइटी

जबकि बिग टेक और गवर्नेंस के नेता काफी हद तक एआई डिफेंस सिस्टम के मार्गदर्शक सिद्धांतों पर नज़र रखते हैं, आदर्शों को कंपनियों की निचली रेखा के साथ बाधाओं पर हो सकता है।

“हम एक निजी कंपनी हैं – हम लाभप्रदता की तलाश करते हैं,” कॉमंड एआई के श्री वल्ली ने कहा।

“सिस्टम की विश्वसनीयता कभी -कभी ढूंढने में बहुत कठिन होती है,” उन्होंने कहा। “लेकिन जब आप इस क्षेत्र में काम करते हैं, तो जिम्मेदारी बहुत बड़ी हो सकती है, बिल्कुल विशाल हो सकती है।”

अनुत्तरित चुनौतियां

जबकि कई डेवलपर्स एल्गोरिदम को डिजाइन करने के लिए प्रतिबद्ध हैं जो श्री सुली के अनुसार “निष्पक्ष, सुरक्षित, मजबूत” हैं – इन मानकों को लागू करने के लिए कोई रोड मैप नहीं है – और कंपनियों को यह भी पता नहीं हो सकता है कि वे वास्तव में क्या हासिल करने की कोशिश कर रहे हैं।

ये सिद्धांत “सभी तय करते हैं कि कैसे गोद लेना चाहिए, लेकिन वे वास्तव में यह नहीं समझाते हैं कि ऐसा कैसे होना चाहिए,” श्री सुली ने कहा, नीति निर्माताओं को याद दिलाते हुए कि “एआई अभी भी शुरुआती चरणों में है”।

बड़ी तकनीक और नीति निर्माताओं को बड़ी तस्वीर पर ज़ूम आउट करने और मुल करने की आवश्यकता है।

“एक प्रणाली के लिए क्या मजबूती है यह निर्धारित करने के लिए एक अविश्वसनीय रूप से तकनीकी, वास्तव में चुनौतीपूर्ण उद्देश्य है और यह वर्तमान में अनुत्तरित है,” उन्होंने जारी रखा।

नहीं, आपके पास ‘फिंगरप्रिंट’ है

श्री सुली, जिन्होंने खुद को एआई सिस्टम के “विनियमन के बड़े समर्थक” के रूप में वर्णित किया था, वियना में अन-अनिवार्य व्यापक परमाणु-परीक्षण-प्रतिबंध संधि संगठन के लिए काम करते थे, जो कि परमाणु परीक्षण होता है या नहीं।

लेकिन एआई-निर्देशित हथियारों की पहचान करते हुए, वे कहते हैं, एक पूरी नई चुनौती है, जो परमाणु हथियार-फोरेंसिक हस्ताक्षर-नहीं है।

सीईओ ने कहा, “आप अंतरराष्ट्रीय स्तर पर किसी भी प्रकार के विनियमन के बारे में एक व्यावहारिक समस्या है।” “यह वह बिट है जो कोई भी संबोधित नहीं करना चाहता है। लेकिन जब तक कि यह संबोधित नहीं किया जाता है … मुझे लगता है कि यह एक विशाल, विशाल बाधा है।”

भविष्य की सुरक्षा

यूनीडिर सम्मेलन के प्रतिनिधियों ने रणनीतिक दूरदर्शिता की आवश्यकता पर जोर दिया, अब जन्म लेने वाली प्रौद्योगिकियों द्वारा उत्पन्न जोखिमों को समझने के लिए।

मोज़िला के लिए, जो नई पीढ़ी के प्रौद्योगिकीविदों को प्रशिक्षित करता है, भविष्य के डेवलपर्स को “इस शक्तिशाली तकनीक के साथ वे क्या कर रहे हैं और वे क्या बना रहे हैं, इसके बारे में पता होना चाहिए”, फर्म के श्री एलियास ने जोर देकर कहा।

दक्षिण अफ्रीका में स्टेलनबोश विश्वविद्यालय के मूसा बी। खानिले जैसे शिक्षाविदों का मानना ​​है कि विश्वविद्यालयों को भी मूल नैतिक मूल्यों की सुरक्षा के लिए एक “सर्वोच्च जिम्मेदारी” वहन करती है।

स्टेलनबोश विश्वविद्यालय में डिफेंस आर्टिफिशियल इंटेलिजेंस रिसर्च यूनिट के निदेशक डॉ। खानिले ने कहा कि सेना के हित – इन प्रौद्योगिकियों के इच्छित उपयोगकर्ता – और नियामकों के रूप में सरकारों को “सामंजस्यपूर्ण” होना चाहिए।

“उन्हें एआई टेक को अच्छे के लिए एक उपकरण के रूप में देखना होगा, और इसलिए उन्हें अच्छे के लिए एक बल बनना चाहिए।”

संलग्न देश

यह पूछे जाने पर कि चीन, नीदरलैंड, पाकिस्तान, फ्रांस, इटली और दक्षिण कोरिया के देशों, राजनयिकों के बीच विश्वास बनाने के लिए वे क्या कार्रवाई करेंगे।

“हमें हाई-टेक प्रौद्योगिकियों के निर्यात नियंत्रण के मामले में राष्ट्रीय सुरक्षा की एक पंक्ति को परिभाषित करने की आवश्यकता है”, शेन जियान, राजदूत असाधारण और प्लेनिपोटेंटरी (निरस्त्रीकरण) और पीपुल्स रिपब्लिक ऑफ चाइना के उप स्थायी प्रतिनिधि ने कहा।

भविष्य के एआई अनुसंधान और विकास के लिए मार्ग में अन्य उभरते हुए क्षेत्र जैसे भौतिकी और तंत्रिका विज्ञान भी शामिल होना चाहिए।

“एआई जटिल है, लेकिन वास्तविक दुनिया और भी अधिक जटिल है,” डेन बॉश में रॉबर्ट ने कहा, निरस्त्रीकरण राजदूत और नीदरलैंड के स्थायी प्रतिनिधि ने निरस्त्रीकरण पर सम्मेलन में कहा। “इस कारण से, मैं कहूंगा कि अन्य तकनीकों और विशेष रूप से साइबर, क्वांटम और स्पेस के साथ अभिसरण में एआई को देखना भी महत्वपूर्ण है।”

(टैगस्टोट्रांसलेट) संयुक्त राष्ट्र समाचार (टी) मानवाधिकार (टी) शांति और सुरक्षा (टी) (टी) संयुक्त राष्ट्र समाचार (टी) वैश्विक मुद्दे

Source link

प्रातिक्रिया दे

आपका ईमेल पता प्रकाशित नहीं किया जाएगा. आवश्यक फ़ील्ड चिह्नित हैं *

This site uses Akismet to reduce spam. Learn how your comment data is processed.