संघर्षों में एआई परिनियोजन की जिम्मेदारी मानव संचालकों की होनी चाहिए, वायु सेना सचिव ने पुष्टि की

kj 1

वायु सेना सचिव फ्रैंक केंडल ने पेंटागन के लिए भविष्य के संघर्षों में कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के कार्यों के संबंध में जवाबदेही के लिए तंत्र स्थापित करने की आवश्यकता पर जोर दिया।

रक्षा विभाग के एक शीर्ष अधिकारी ने शनिवार को रीगन नेशनल डिफेंस फोरम में एक पैनल चर्चा के दौरान कहा कि सैन्य संघर्षों के दौरान कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के उपयोग या दुरुपयोग के लिए अंततः मनुष्यों को जिम्मेदार ठहराया जाएगा।

वायु सेना सचिव फ्रैंक केंडल ने “दुष्ट रोबोट की धारणा को खारिज कर दिया जो वहां जाता है और चारों ओर दौड़ता है और जो कुछ भी दिखाई देता है उसे अंधाधुंध गोली मारता है,” इस तथ्य पर प्रकाश डालते हुए कि एआई प्रौद्योगिकियां – विशेष रूप से भविष्य के युद्ध के मैदानों पर तैनात – कुछ लोगों द्वारा शासित होंगी मानवीय निरीक्षण का स्तर.

उन्होंने कहा, “मैं नागरिक समाज और कानून के शासन की बहुत परवाह करता हूं, जिसमें सशस्त्र संघर्ष के कानून भी शामिल हैं।” “हमारी नीतियां उन कानूनों के अनुपालन के इर्द-गिर्द लिखी गई हैं। आप मशीनों के विरुद्ध कानून लागू नहीं करते; आप उन्हें लोगों के विरुद्ध लागू करते हैं। और मुझे लगता है कि हमारी चुनौती एआई के साथ हम जो कर सकते हैं उसे किसी तरह सीमित करना नहीं है, बल्कि एआई जो करता है उसके लिए लोगों को जवाबदेह बनाने का एक तरीका ढूंढना है।

भले ही पेंटागन एआई के साथ प्रयोग करना जारी रखता है, विभाग ने प्रौद्योगिकियों के उपयोग के आसपास सुरक्षा उपाय स्थापित करने के लिए काम किया है। डीओडी ने फरवरी में स्वायत्त हथियारों पर अपनी दशकों पुरानी नीति को अद्यतन किया, ताकि यह स्पष्ट किया जा सके कि एआई-सक्षम क्षमताओं वाले हथियारों को विभाग के एआई दिशानिर्देशों का पालन करना होगा।

पेंटागन ने पहले 2020 में प्रौद्योगिकियों के उपयोग को नियंत्रित करने वाले नैतिक एआई सिद्धांतों की एक श्रृंखला जारी की थी, और नवंबर में एक डेटा, एनालिटिक्स और एआई अपनाने की रणनीति जारी की थी, जिसमें विभाग के उन्नत तकनीक के कार्यान्वयन के लिए डेटा की गुणवत्ता को महत्वपूर्ण बताया गया था।

केंडल ने कहा, फिलहाल लक्ष्य प्रौद्योगिकी में विश्वास और विश्वास पैदा करना है और फिर “जितनी जल्दी हो सके इसे क्षेत्र की क्षमताओं में लाना है।”

lkhbn

उन्होंने कहा, “युद्ध के मैदान पर महत्वपूर्ण पैरामीटर समय है।” “और एआई इंसानों की तुलना में कहीं अधिक जटिल चीजों को अधिक सटीक और बहुत तेजी से करने में सक्षम होगा।”

केंडल ने दो विशिष्ट गलतियों की ओर इशारा किया जो एआई “घातक क्षेत्र में” कर सकता है, जिसमें उस लक्ष्य को शामिल नहीं करना शामिल है जिसे उसे नागरिक लक्ष्यों और अमेरिकी सैन्य संपत्तियों और सहयोगियों को शामिल करना चाहिए था। उन्होंने कहा, इन संभावनाओं के घटित होने पर ऑपरेटरों को जिम्मेदार ठहराने के लिए अधिक परिभाषित नियमों की आवश्यकता होती है।

उन्होंने कहा, “हमें अभी भी इस तकनीक को प्रबंधित करने, इसके अनुप्रयोग को प्रबंधित करने और हमारे पास पहले से मौजूद नियमों का अनुपालन नहीं करने पर मनुष्यों को जवाबदेह ठहराने के तरीके खोजने होंगे।” “मुझे लगता है कि हमें यही दृष्टिकोण अपनाने की ज़रूरत है।”

हालाँकि, फिलहाल पेंटागन का एआई का उपयोग अधिक प्रशासनिक-उन्मुख कार्यों के लिए बड़ी मात्रा में डेटा संसाधित करने पर केंद्रित है।

केंडल ने एआई के सबसे प्रभावी अनुप्रयोगों के रूप में पैटर्न पहचान और चीजों को खुफिया दृष्टिकोण से जोड़ने के लिए गहन डेटा विश्लेषण का हवाला देते हुए कहा, “यहां अपार संभावनाएं हैं, लेकिन यह सामान्य मानव बुद्धि समकक्षों के आसपास भी नहीं है।”

पिछले महीने एक चर्चा के दौरान, अमेरिकी सेंट्रल कमांड के मुख्य प्रौद्योगिकी अधिकारी शूयलर मूर ने एआई के असमान प्रदर्शन का हवाला दिया और कहा कि सैन्य संघर्षों के दौरान, अधिकारी “अधिकतर इसे किनारे रख देंगे या बहुत ही चुनिंदा संदर्भों में इसका उपयोग करेंगे।” जहां हम इससे जुड़े जोखिमों के बारे में बहुत आश्वस्त महसूस करते हैं।”

लेकिन चिंताएं अभी भी बनी हुई हैं कि इन उपकरणों का उपयोग अंततः भविष्य की युद्ध क्षमताओं को बढ़ाने के लिए कैसे किया जाएगा, और सुरक्षा उपायों को लागू करने के लिए किन विशिष्ट नीतियों की आवश्यकता है।

प्रतिनिधि माइक गैलाघेर, आर-विस। – जो चीनी कम्युनिस्ट पार्टी पर हाउस सेलेक्ट कमेटी के अध्यक्ष हैं और साइबरस्पेस सोलारियम कमीशन के पूर्व सह-अध्यक्ष थे – ने कहा, “हमें इस बात के लिए एक योजना बनाने की आवश्यकता है कि हम कई युद्धक्षेत्र डोमेन में [एआई] को जल्दी से कैसे अपनाएंगे।” और युद्ध लड़ने की क्षमताएँ।”

Leave a comment