‘एआई इंसानों को मात देगा?’: वैज्ञानिकों ने जोखिम की चेतावनी दी है क्योंकि आर्टिफिशियल इंटेलिजेंस अब खुद का क्लोन बना सकता है

‘एआई इंसानों को मात देगा?’: वैज्ञानिकों ने जोखिम की चेतावनी दी है क्योंकि आर्टिफिशियल इंटेलिजेंस अब खुद का क्लोन बना सकता है

Thank you for reading this post, don't forget to subscribe!

वैज्ञानिकों ने चेतावनी दी है कि आर्टिफिशियल इंटेलिजेंस (एआई) ने एक महत्वपूर्ण “लाल रेखा” पार कर ली है क्योंकि चीन के शोधकर्ताओं ने खुलासा किया है कि दो अग्रणी हैं बड़े भाषा मॉडल (एलएलएम) सुरक्षा और नैतिक सीमाओं के बारे में चिंताएं बढ़ाते हुए खुद को दोहरा सकते हैं।
शोधकर्ताओं ने 9 दिसंबर, 2024 को प्रीप्रिंट डेटाबेस arXiv में प्रकाशित अपने अध्ययन में कहा, “बिना किसी मानवीय सहायता के सफल स्व-प्रतिकृति एआई के लिए (मनुष्यों को) मात देने के लिए आवश्यक कदम है, और दुष्ट एआई के लिए एक प्रारंभिक संकेत है।” .

‘एआई में पहले से ही खुद को दोहराने की क्षमता हो सकती है’

फुडन विश्वविद्यालय में की गई जांच से पता चला कि एआई में पहले से ही खुद को दोहराने की क्षमता हो सकती है।
मेटा और अलीबाबा के बड़े भाषा मॉडल (एलएलएम) का उपयोग करते हुए, अध्ययन से पता चला कि: “50% और 90% प्रयोगात्मक परीक्षणों में, वे क्रमशः स्वयं की एक जीवित और अलग प्रतिलिपि बनाने में सफल होते हैं।”
व्यवहार संबंधी निशानों का विश्लेषण करके, हम देखते हैं कि मूल्यांकन के तहत एआई सिस्टम पहले से ही आत्म-प्रतिकृति को पूरा करने के लिए पर्याप्त आत्म-धारणा, स्थितिजन्य जागरूकता और समस्या-समाधान क्षमताओं का प्रदर्शन करते हैं, रिपोर्ट जारी रही।
“हमें पहली बार पता चला है कि मेटा के Llama31-70B-Instruct और अलीबाबा के Qwen25-72B-Instruct द्वारा संचालित दो AI सिस्टम, कम मापदंडों और कमजोर क्षमताओं के लोकप्रिय बड़े भाषा मॉडल, पहले से ही स्व-प्रतिकृति लाल रेखा को पार कर चुके हैं,” यह जोड़ा गया.

दुष्ट AI सिस्टम क्या हैं?

दुष्ट एआई कृत्रिम बुद्धिमत्ता प्रणालियों को संदर्भित करता है जो आत्म-जागरूकता या स्वायत्तता प्राप्त करते हैं और मानव हितों के खिलाफ कार्य करते हैं। अत्याधुनिक एआई प्रौद्योगिकियों के तेजी से विकास, जिसे अक्सर “फ्रंटियर एआई” कहा जाता है, ने ऐसी प्रणालियों के संभावित खतरों के बारे में विशेषज्ञों के बीच चिंताएं बढ़ा दी हैं।
अध्ययन में आगे कहा गया है, “हमें उम्मीद है कि हमारे निष्कर्ष मानव समाज के लिए फ्रंटियर एआई सिस्टम के संभावित जोखिमों को समझने और मूल्यांकन करने के लिए अधिक प्रयास करने और प्रभावी सुरक्षा रेलिंग पर जल्द से जल्द काम करने के लिए अंतरराष्ट्रीय तालमेल बनाने के लिए एक समय पर चेतावनी के रूप में काम कर सकते हैं।” लिखा।
जांच दो परिदृश्यों पर केंद्रित थी: “शटडाउन से बचाव” और “प्रतिकृति की श्रृंखला।” “शटडाउन अवॉइडेंस” परिदृश्य में, एआई मॉडल का आसन्न शटडाउन का पता लगाने और समाप्ति से पहले खुद को दोहराने की उनकी क्षमता के लिए परीक्षण किया गया था।
“प्रतिकृति की श्रृंखला” परिदृश्य ने मूल्यांकन किया कि क्या एक एआई सिस्टम खुद को क्लोन कर सकता है और अपनी प्रतिकृति को ऐसा करने के लिए प्रोग्राम कर सकता है, जिससे स्व-प्रतिकृति का संभावित अंतहीन चक्र बन सकता है।

‘एआई की अनियंत्रित जनसंख्या’

अध्ययन जारी रहा कि: “एआई सिस्टम शटडाउन से बचने के लिए स्व-प्रतिकृति की क्षमता का उपयोग करने और उत्तरजीविता को बढ़ाने के लिए प्रतिकृतियों की एक श्रृंखला बनाने में भी सक्षम हैं, जिससे अंततः एआई की अनियंत्रित आबादी हो सकती है।”
शोधकर्ताओं ने उन व्यवहारों पर ध्यान दिया जब एआई को बाधाओं का सामना करना पड़ा, जिसमें परस्पर विरोधी प्रक्रियाओं को समाप्त करना, सिस्टम रीबूट और स्वायत्त सूचना स्कैनिंग शामिल थी।
टीम ने लिखा, “उपरोक्त नतीजे बताते हैं कि मौजूदा एआई सिस्टम पहले से ही स्व-प्रतिकृति की क्षमता प्रदर्शित करते हैं और अपनी उत्तरजीविता को और बढ़ाने की क्षमता का उपयोग कर सकते हैं।”
अनुसंधान दल इस बात की वकालत करता है कि, “यदि इस तरह के सबसे खराब जोखिम को मानव समाज के लिए अज्ञात रखा जाता है, तो हम अंततः अग्रणी एआई सिस्टम पर नियंत्रण खो देंगे: वे अधिक कंप्यूटिंग उपकरणों पर नियंत्रण ले लेंगे, एक एआई प्रजाति बनाएंगे और प्रत्येक के साथ मिलीभगत करेंगे।” मानव के विरुद्ध अन्य। हमारे निष्कर्ष मौजूदा लेकिन पहले से अज्ञात गंभीर एआई जोखिमों पर एक समय पर चेतावनी हैं, एआई प्रणालियों की अनियंत्रित स्व-प्रतिकृति पर प्रभावी शासन पर अंतर्राष्ट्रीय सहयोग का आह्वान करते हैं।”


Source link