मस्क ने हत्यारे रोबोट को प्रतिबंधित करने के लिए कॉल किया

विशेषज्ञों ने अभी तक रोबोट का उत्पादन शुरू नहीं किया है, लेकिन जो लोग सबसे बड़े संगठनों के प्रतिनिधि हैं, उन्होंने पहले से ही एक खुला पत्र लिखा है जिसमें उन्हें नवाचार पर प्रतिबंध लगाने के लिए कहा गया है। अपील में पहले से ही डीप माइंड प्रयोगशाला के प्रमुख इलोना मास्क और बाकी के हस्ताक्षर हैं। संयुक्त राष्ट्र के पास यह अपील भेजी गई थी कि हम सौ से अधिक हस्ताक्षर एकत्र करने में सफल रहे।

यूएन स्वायत्त लड़ाकू ड्रोन, साथ ही अन्य स्वतंत्र उपकरणों को बनाने और वितरित करने के मुद्दे का अध्ययन करने की योजना बना रहा है। हालांकि, जो लोग आईटी संगठनों के प्रतिनिधि हैं, वे सुनिश्चित हैं कि कृत्रिम बुद्धि वाले सभी उपकरण भविष्य में अधिक खतरनाक हो सकते हैं। यह निष्कर्ष निकाला जा सकता है कि सभी, जिनके पास बयान से कम से कम कुछ संबंध हैं, काफी सही तरीके से डरते हैं। दौड़ के दौरान, यह संभव है कि आधुनिक घातक उपकरण प्रकट हो सकते हैं जो मानवता और पर्यावरण दोनों के लिए खतरा हो सकते हैं।

पत्र का सार यह है कि आधुनिक हथियारों के उपयोग के निषेध और प्रतिबंध पर कन्वेंशन में सुधार किया जाना चाहिए। लड़ाकू रोबोटों को शामिल करना भी आवश्यक है, जिसमें अन्य हथियार भी शामिल हैं जो स्वायत्त हैं। 1983 में सम्मेलन को अपनाया गया था, तब से एक लंबा समय बीत चुका है, जिसका अर्थ है कि कानून पुराना है।

यह उल्लेखनीय है कि ज़करबर्ग ने लोगों और पर्यावरण के लिए बड़े खतरे के बारे में इलोन मास्क के शब्दों की आलोचना की। पत्र की तैयारी में मुख्य सर्जक टोबी वाल्श था। समझौते पर हस्ताक्षर करने वाले सर्जक, इकाइयों के निर्माण को प्रतिबंधित करने के लिए कानूनों और नियमों के सामंजस्य के लिए कहते हैं जो बाद में हत्यारे बन सकते हैं। जब तक इस तरह के उपाय नहीं किए जाते हैं, तब तक जिन पार्टियों ने समझौते पर हस्ताक्षर किए हैं, वे विकास में भाग लेने के लिए नहीं, और स्वायत्त घातक हथियारों के उत्पादन का समर्थन करने के लिए नहीं।

आधुनिक रोबोट जो भर्ती होंगे

एआई की उपस्थिति के साथ रोबोट के विकास से संबंधित परियोजनाओं के प्रायोजकों में सेना शामिल है। इस तरह के उपाय किए जाने तक, सभी हस्ताक्षरकर्ता व्यापार का समर्थन नहीं करते हैं, साथ ही साथ इकाइयों का विकास जो बाद में सभी जीवित चीजों का लड़ाका बन सकता है।

एआई तकनीक के मालिकों के लिए सैन्य को सुरक्षित रूप से जिम्मेदार ठहराया जा सकता है। पदों पर प्रवेश की मशीनें दुश्मन से संबंधित क्षेत्र पर उड़ान भरने में सक्षम होंगी। इसके अलावा, उनके पास जमीन पर अच्छी तरह से नेविगेट करने की क्षमता है, साथ ही पानी पर गश्त करने की भी क्षमता होगी।

आज तक, उपकरण प्रणालियों की खोज जो अधिक आधुनिक हो जाएगी। गेविन विलियमसन ने एक नए लड़ाकू विमान बनाने की योजना की घोषणा की, जो बाद में बिना पायलट के उड़ान भरेगा। परियोजना में लगभग 2 बिलियन का निवेश किया गया है।

फिर भी, बड़ी मात्रा में किए गए शोध से साबित होता है कि मशीनों को सभी अधिकारों का हस्तांतरण नैतिकता के सभी पहलुओं से परे है - आखिरकार, रोबोट स्वतंत्र रूप से यह तय करने में सक्षम होंगे कि किसे "निष्पादित" होने की आवश्यकता है और कौन "क्षमा" कर सकता है।

जो मंत्री कानून को पारित करने के पक्ष में थे, उन्हें तुरंत न्यायोचित ठहराना था - उनका तर्क है कि ग्रेट ब्रिटेन में ऐसे हथियार प्रणालियों का विकास नहीं हुआ है जो घातक हो सकते हैं। लेकिन कृत्रिम बुद्धिमत्ता प्रणाली के निर्माण और सुधार के क्षेत्र में ऐसी तीव्र प्रगति केवल यह बताती है कि आधुनिक हथियार बनाने का एक नया अवसर है, जो व्यक्ति के साथ अपने सभी चरणों का समन्वय नहीं कर पाएगा - एकमात्र तर्कसंगत प्राणी।

सिडनी में कृत्रिम बुद्धि के प्रोफेसर का तर्क है कि स्वायत्त हथियार अस्वीकार्य है, उन्होंने एक अनुबंध पर भी हस्ताक्षर किए। उन्होंने कहा कि उनके पास किसी व्यक्ति को स्वायत्त हथियार बनाने से रोकने का कोई अवसर नहीं है। यही बात रासायनिक हथियारों के निर्माण पर लागू होती है। लेकिन अगर ऐसी इच्छा है कि आतंकवादियों के पास आसानी से पहुंचने का कोई अवसर नहीं है, तो आपको यह सुनिश्चित करने की आवश्यकता है कि इसे खुले तौर पर नहीं बेचा जाए।

बेशक, वैज्ञानिक अच्छी तरह से स्वायत्त हथियारों पर काम करना बंद कर सकते हैं। यह ध्यान रखना महत्वपूर्ण है कि यह ज्ञात नहीं है कि लोग उस डेटा के साथ क्या कर सकते हैं जो पहले ही प्रकाशित हो चुका है, क्योंकि यह कारक डेवलपर्स के प्रभाव के क्षेत्र से बाहर है।

इस परियोजना को मावेन पेंटागन कॉन्ट्रैक्ट से बाहर किया गया, जिसके कारण बहुत अधिक प्रचार हुआ। कार्यक्रम में एआई के साथ-साथ मशीन लर्निंग का उपयोग किया गया है, जो वीडियो का विश्लेषण कर सकता है और यहां तक ​​कि वस्तुओं को भी पहचान सकता है। हालांकि, परियोजना जल्द ही युद्ध में कमाई के रूप में जानी जाने लगी, जिसके परिणामस्वरूप अनुबंध टूट गया। लेकिन इलोन मस्क इस कहानी पर बुरी तरह से पॉप्यारिट्सा नहीं कर सके। आज तक, यह अज्ञात है कि क्या कृत्रिम बुद्धिमत्ता वाले हथियारों का उपयोग भविष्य में किया जाएगा और क्या समझौता काम करेगा।