टॉप 10 एआई और ChatGPT 2023 में जोखिम और खतरे
आर्टिफिशियल इंटेलिजेंस (एआई) और चैटबॉट तकनीक की प्रगति के साथ, अधिक कंपनियां अपने ग्राहक अनुभव को बेहतर बनाने और ओवरहेड लागत को कम करने के साधन के रूप में स्वचालित ग्राहक सेवा समाधान का अनुसरण कर रही हैं। जबकि एआई मॉडल और चैटबॉट समाधानों का लाभ उठाने के कई लाभ हैं, प्रौद्योगिकी से जुड़े विभिन्न जोखिम और खतरे भी बने हुए हैं, खासकर जब वे आने वाले दशक में अधिक व्यापक और हमारे दैनिक जीवन में एकीकृत हो जाते हैं।
इस हफ्ते अमेरिकी सीनेट में सभी ने एआई मॉडल के नियमन और जोखिमों के बारे में सैम ऑल्टमैन की बात सुनी। यहाँ एक बुनियादी ठहरनेवाला है:
bioweapons
आर्टिफिशियल इंटेलिजेंस का उपयोग (AI) जैविक हथियारों के विकास में सामूहिक विनाश के शक्तिशाली और घातक हथियार बनाने का एक खतरनाक ढंग से व्यवस्थित और कुशल तरीका प्रस्तुत करता है। ChatGPT बॉट एआई-संचालित संवादी सहायक हैं जो मनुष्यों के साथ आजीवन बातचीत करने में सक्षम हैं। की चिंता ChatGPT बॉट्स का मतलब यह है कि उनमें झूठी जानकारी फैलाने और प्रभावित करने के लिए दिमाग में हेराफेरी करने की क्षमता होती है जनता की राय.
एआई के दुरुपयोग को रोकने के लिए विनियमन एक महत्वपूर्ण घटक है और ChatGPT जैवहथियारों के विकास और तैनाती में बॉट। सरकारों को प्रौद्योगिकी के संभावित दुरुपयोग को संबोधित करने के लिए राष्ट्रीय कार्य योजना विकसित करने की आवश्यकता है, और कंपनियों को उनके किसी भी संभावित दुरुपयोग के लिए जवाबदेह ठहराया जाना चाहिए ऐ और ChatGPT बॉट. अंतर्राष्ट्रीय संगठनों को उन पहलों में निवेश करना चाहिए जो एआई और प्रशिक्षण, निगरानी और शिक्षित करने पर ध्यान केंद्रित करते हैं ChatGPT बॉट।
नौकरी खोना
एआई और के कारण नौकरी छूटने की संभावना ChatGPT 2023 में 2020 की तुलना में तीन गुना अधिक होने का अनुमान है। एआई और ChatGPT कार्यस्थल में असुरक्षा, नैतिक विचार और श्रमिकों पर मनोवैज्ञानिक प्रभाव बढ़ सकता है। ऐ और ChatGPT इसका उपयोग कर्मचारियों के व्यवहार और गतिविधियों की निगरानी के लिए किया जा सकता है, जिससे नियोक्ताओं को मानव कर्मियों को शामिल किए बिना जल्दी से निर्णय लेने की अनुमति मिलती है। इसके अतिरिक्त, एआई और ChatGPT अनुचित और पक्षपातपूर्ण निर्णयों का कारण बन सकता है जिससे कार्यस्थल में वित्तीय, सामाजिक और भावनात्मक असुरक्षा हो सकती है।
एआई विनियमन
यह लेख की पड़ताल करता है संभावित जोखिम और एआई तथा आसपास के खतरे ChatGPT 2023 में विनियमन। एआई और ChatGPT तकनीक इसका उपयोग संभावित रूप से दुर्भावनापूर्ण गतिविधियों को करने के लिए किया जा सकता है, जैसे लोगों को उनके व्यवहार और गतिविधियों के आधार पर प्रोफाइल करना। उचित का अभाव एआई विनियमन डेटा उल्लंघन या भेदभाव जैसे अनपेक्षित परिणाम हो सकते हैं। एआई विनियमन यह सुनिश्चित करने के लिए सख्त दिशानिर्देश निर्धारित करके इस जोखिम को कम करने में मदद कर सकता है ChatGPT सिस्टम दुर्भावनापूर्ण तरीके से उपयोग नहीं किया जाता है। अंत में, एआई और ChatGPT हमारे जीवन में एक नियंत्रक कारक बन सकता है, यातायात प्रवाह और वित्तीय बाजारों जैसी चीजों को नियंत्रित कर सकता है, और यहां तक कि हमारे राजनीतिक और सामाजिक जीवन को प्रभावित करने के लिए भी इस्तेमाल किया जा सकता है। इस तरह के बिजली असंतुलन को रोकने के लिए सख्त नियमों को लागू करने की जरूरत है।
सुरक्षा मानक
एआई और चैटबॉट प्रौद्योगिकियां उस तरह से प्रगति कर रही हैं जिससे हम अपने दैनिक जीवन का प्रबंधन करते हैं। जैसे-जैसे ये प्रौद्योगिकियां अधिक उन्नत होती जाती हैं, उनमें स्वायत्त बनने और अपने दम पर निर्णय लेने की क्षमता होती है। इसे रोकने के लिए, सुरक्षा मानकों स्थापित किया जाना चाहिए कि इन मॉडलों को तैनात किए जाने से पहले मिलना चाहिए। Altman द्वारा 2023 में प्रस्तावित मुख्य सुरक्षा मानकों में से एक स्व-प्रतिकृति के लिए एक परीक्षण है, जो यह सुनिश्चित करेगा कि AI मॉडल प्राधिकरण के बिना स्व-दोहराने में असमर्थ है। ऑल्टमैन द्वारा 2023 में प्रस्तावित दूसरा सुरक्षा मानक डेटा एक्सफिल्ट्रेशन के लिए एक परीक्षण है, जो यह सुनिश्चित करेगा कि एआई मॉडल बिना प्राधिकरण के सिस्टम से डेटा को एक्सफ़िलिएट करने में सक्षम नहीं हैं। दुनिया भर की सरकारों ने नागरिकों को संभावित जोखिमों से बचाने के लिए कार्य करना शुरू कर दिया है।
स्वतंत्र लेखापरीक्षा
2023 में, एआई और एलएलएम प्रौद्योगिकियों के स्वतंत्र ऑडिट की आवश्यकता तेजी से महत्वपूर्ण हो गई है। एआई कई तरह के जोखिम पैदा करता है, जैसे कि बिना पर्यवेक्षित मशीन लर्निंग एल्गोरिदम जो डेटा को अनैच्छिक रूप से बदल सकते हैं और यहां तक कि हटा भी सकते हैं, और साइबर हमले तेजी से एआई को निशाना बना रहे हैं और ChatGPT. एआई-निर्मित मॉडल में पूर्वाग्रह शामिल है, जो भेदभावपूर्ण प्रथाओं को जन्म दे सकता है। एक स्वतंत्र ऑडिट में इसकी समीक्षा शामिल होनी चाहिए एआई मॉडल करता है एल्गोरिथम डिज़ाइन और मॉडल के आउटपुट पर प्रशिक्षित किया जाता है ताकि यह सुनिश्चित किया जा सके कि यह पक्षपाती कोडिंग या परिणाम प्रदर्शित नहीं करता है। इसके अतिरिक्त, ऑडिट में सुरक्षा नीतियों और सुरक्षा के लिए उपयोग की जाने वाली प्रक्रियाओं की समीक्षा शामिल होनी चाहिए उपयोगकर्ता का आधार - सामग्री और एक सुरक्षित वातावरण सुनिश्चित करें।
एक स्वतंत्र ऑडिट के बिना, व्यवसायों और उपयोगकर्ताओं को उजागर किया जाता है संभावित खतरनाक और महंगे जोखिम जिनसे बचा जा सकता था। यह महत्वपूर्ण है कि इस तकनीक का उपयोग करने वाले सभी व्यवसायों की तैनाती से पहले एक स्वतंत्र ऑडिट पूरा हो, ताकि यह सुनिश्चित हो सके कि तकनीक सुरक्षित और नैतिक है।
एआई एक उपकरण के रूप में
एआई तेजी से विकसित हुआ है, और उन्नति जैसे GPT-4 कंप्यूटर के साथ अधिक यथार्थवादी और परिष्कृत अंतःक्रिया को जन्म दिया है। हालाँकि, ऑल्टमैन ने इस बात पर जोर दिया है कि एआई को उपकरण के रूप में देखा जाना चाहिए, न कि संवेदनशील प्राणी के रूप में। GPT-4 एक प्राकृतिक भाषा-प्रसंस्करण मॉडल है जो मानव-लिखित सामग्री से लगभग अप्रभेद्य सामग्री उत्पन्न कर सकता है, लेखकों से कुछ काम छीन सकता है और उपयोगकर्ताओं को प्रौद्योगिकी के साथ अधिक मानवीय अनुभव प्राप्त करने की अनुमति दे सकता है।
हालांकि, सैम ऑल्टमैन ने चेतावनी दी है कि एआई पर एक उपकरण से अधिक जोर देने से इसकी क्षमताओं के बारे में अवास्तविक अपेक्षाएं और गलत धारणाएं पैदा हो सकती हैं। वह यह भी बताते हैं कि एआई इसके नैतिक निहितार्थों के बिना नहीं है, और भले ही एआई के उन्नत स्तरों का उपयोग अच्छे के लिए किया जा सकता है, फिर भी इसका उपयोग बुरे के लिए किया जा सकता है, जिससे खतरनाक नस्लीय रूपरेखा बन सकती है, गोपनीयता का उल्लंघन, और यहां तक कि सुरक्षा खतरे भी। ऑल्टमैन एआई को समझने के महत्व पर प्रकाश डालता है, यह केवल एक उपकरण है, और इसे मानव प्रगति में तेजी लाने के लिए एक उपकरण के रूप में देखा जाना चाहिए, न कि मनुष्यों को बदलने के लिए।
एआई चेतना
एआई से संबंधित बहस और यह जागरूक जागरूकता प्राप्त कर सकता है या नहीं, बढ़ रहा है। कई शोधकर्ता तर्क दे रहे हैं कि मशीनें अपने जटिल कम्प्यूटेशनल आर्किटेक्चर के बावजूद भावनात्मक, मानसिक या सचेत अवस्थाओं का अनुभव करने में असमर्थ हैं। कुछ शोधकर्ता एआई द्वारा सचेत जागरूकता प्राप्त करने की संभावना को स्वीकार करते हैं। इस संभावना के लिए मुख्य तर्क यह है कि एआई उन कार्यक्रमों पर आधारित है जो इसे करने में सक्षम बनाते हैं प्रतिलिपिकारक मानव मस्तिष्क में पाई जाने वाली कुछ शारीरिक और मानसिक प्रक्रियाएँ। हालाँकि, मुख्य प्रतिवाद यह है कि AI के पास कोई वास्तविक भावनात्मक बुद्धिमत्ता नहीं है।
एआई के कई शोधकर्ता इस बात से सहमत हैं कि यह सुझाव देने के लिए कोई वैज्ञानिक प्रमाण नहीं है कि एआई उसी तरह से जागरूक जागरूकता प्राप्त करने में सक्षम है जैसे एक इंसान कर सकता है। एलोन मस्क, इस दृष्टिकोण के सबसे मुखर समर्थकों में से एक, का मानना है कि जैविक जीवन रूपों की नकल करने की एआई की क्षमता बेहद सीमित है और मशीनों को नैतिक मूल्यों के शिक्षण पर अधिक जोर दिया जाना चाहिए।
सैन्य अनुप्रयोग
सैन्य संदर्भ में एआई तेजी से आगे बढ़ रहा है और इसमें सेना के युद्ध संचालन के तरीके में सुधार करने की क्षमता है। वैज्ञानिकों को चिंता है कि सेना में एआई कई तरह की नैतिक और जोखिम संबंधी समस्याएं पेश कर सकता है, जैसे कि अप्रत्याशितता, अगणनीयता और पारदर्शिता की कमी।
एआई सिस्टम दुर्भावनापूर्ण अभिनेताओं के लिए कमजोर हैं जो या तो सिस्टम को फिर से प्रोग्राम कर सकते हैं या सिस्टम में घुसपैठ कर सकते हैं, संभावित रूप से विनाशकारी परिणाम की ओर ले जा सकते हैं। इन्हें संबोधित करने के लिए चिंताओं, अंतर्राष्ट्रीय समुदाय ने 1980 के कुछ पारंपरिक हथियारों पर अपने अंतर्राष्ट्रीय सम्मेलन के रूप में पहला कदम उठाया है, जो कुछ हथियारों के उपयोग पर कुछ प्रतिबंध लगाता है। एआई विशेषज्ञों ने सैन्य अनुप्रयोगों में एआई के मूल्यांकन, प्रशिक्षण और तैनाती जैसी प्रक्रियाओं की देखरेख के लिए एक अंतर्राष्ट्रीय समिति की वकालत की है।
आंदोलन
एआई तकनीक तेजी से उन्नत और व्यापक होती जा रही है, जिससे एआई एजेंटों और प्रणालियों द्वारा उत्पन्न संभावित जोखिमों को समझना महत्वपूर्ण हो गया है। एआई एजेंटों से जुड़ा पहला और सबसे स्पष्ट जोखिम है मशीनों द्वारा मनुष्यों को पछाड़ने का खतरा। एआई एजेंट निर्णय लेने, स्वचालन प्रक्रियाओं और अन्य उन्नत कार्यों को अपने हाथों में लेकर अपने रचनाकारों को आसानी से मात दे सकते हैं। इसके अतिरिक्त, एआई-संचालित स्वचालन असमानता को बढ़ा सकता है, क्योंकि यह दुनिया में मनुष्यों की जगह लेता है नोकरी बाजार.
एआई एल्गोरिदम और जटिल निर्णय लेने में उनका उपयोग पारदर्शिता की कमी के लिए चिंता पैदा करता है। संगठन कर सकते हैं जोखिमों को कम करें एआई एजेंटों के साथ सक्रिय रूप से यह सुनिश्चित करके एआई को नैतिक रूप से विकसित किया जा रहा है, डेटा का उपयोग करना जो नैतिक मानकों के अनुरूप है, और यह सुनिश्चित करने के लिए नियमित परीक्षणों के लिए एल्गोरिदम का विषय है कि वे पक्षपाती नहीं हैं और उपयोगकर्ताओं और डेटा के लिए जिम्मेदार हैं।
निष्कर्ष
ऑल्टमैन ने यह भी कहा कि हालांकि हम चीन को संभालने में असमर्थ हो सकते हैं, हमें इसके साथ बातचीत करनी चाहिए। मूल्यांकन के लिए प्रस्तावित मानदंड और एआई मॉडल को विनियमित करने में शामिल हैं जैविक नमूनों को संश्लेषित करने की क्षमता, लोगों के विश्वासों में हेरफेर, प्रसंस्करण शक्ति की मात्रा खर्च, और इसी तरह।
एक महत्वपूर्ण विषय यह है कि सैम के राज्य के साथ "संबंध" होने चाहिए। हम आशा करते हैं कि वे यूरोप के उदाहरण का अनुसरण नहीं करेंगे, जैसा कि हमने पहले उल्लेख किया है।
अक्सर पूछे गए प्रश्न
एआई जोखिमों में एआई सिस्टम के लिए पक्षपातपूर्ण या भेदभावपूर्ण व्यवहार प्रदर्शित करने, दुर्भावनापूर्ण या अनुपयुक्त तरीके से उपयोग करने, या नुकसान पहुंचाने वाले तरीकों से खराब होने की क्षमता शामिल है। एआई प्रौद्योगिकियों का विकास और परिनियोजन गोपनीयता और डेटा सुरक्षा के साथ-साथ लोगों और प्रणालियों की सुरक्षा और सुरक्षा के लिए जोखिम पैदा कर सकता है।
एआई से जुड़े पांच मुख्य जोखिम हैं: नौकरी छूटना, सुरक्षा जोखिम, पूर्वाग्रह या भेदभाव, जैविक हथियार और AGI।
एआई का सबसे खतरनाक पहलू बड़े पैमाने पर बेरोजगारी पैदा करने की इसकी क्षमता है।
Disclaimer
साथ लाइन में ट्रस्ट परियोजना दिशानिर्देश, कृपया ध्यान दें कि इस पृष्ठ पर दी गई जानकारी का कानूनी, कर, निवेश, वित्तीय या किसी अन्य प्रकार की सलाह के रूप में व्याख्या करने का इरादा नहीं है और न ही इसकी व्याख्या की जानी चाहिए। यह महत्वपूर्ण है कि केवल उतना ही निवेश करें जितना आप खो सकते हैं और यदि आपको कोई संदेह हो तो स्वतंत्र वित्तीय सलाह लें। अधिक जानकारी के लिए, हम नियम और शर्तों के साथ-साथ जारीकर्ता या विज्ञापनदाता द्वारा प्रदान किए गए सहायता और समर्थन पृष्ठों का संदर्भ लेने का सुझाव देते हैं। MetaversePost सटीक, निष्पक्ष रिपोर्टिंग के लिए प्रतिबद्ध है, लेकिन बाज़ार की स्थितियाँ बिना सूचना के परिवर्तन के अधीन हैं।
के बारे में लेखक
दामिर टीम लीडर, उत्पाद प्रबंधक और संपादक हैं Metaverse Postएआई/एमएल, एजीआई, एलएलएम, मेटावर्स और जैसे विषयों को कवर करता है Web3-संबंधित क्षेत्रों। उनके लेख हर महीने दस लाख से अधिक उपयोगकर्ताओं को आकर्षित करते हैं। ऐसा प्रतीत होता है कि वह SEO और डिजिटल मार्केटिंग में 10 वर्षों के अनुभव वाला एक विशेषज्ञ है। दामिर का उल्लेख मैशबल, वायर्ड, में किया गया है Cointelegraph, द न्यू यॉर्कर, Inside.com, एंटरप्रेन्योर, BeInCrypto, और अन्य प्रकाशन। वह एक डिजिटल खानाबदोश के रूप में संयुक्त अरब अमीरात, तुर्की, रूस और सीआईएस के बीच यात्रा करता है। दामिर ने भौतिकी में स्नातक की डिग्री हासिल की, उनका मानना है कि इससे उन्हें इंटरनेट के लगातार बदलते परिदृश्य में सफल होने के लिए आवश्यक महत्वपूर्ण सोच कौशल प्राप्त हुआ है।
और अधिक लेखदामिर टीम लीडर, उत्पाद प्रबंधक और संपादक हैं Metaverse Postएआई/एमएल, एजीआई, एलएलएम, मेटावर्स और जैसे विषयों को कवर करता है Web3-संबंधित क्षेत्रों। उनके लेख हर महीने दस लाख से अधिक उपयोगकर्ताओं को आकर्षित करते हैं। ऐसा प्रतीत होता है कि वह SEO और डिजिटल मार्केटिंग में 10 वर्षों के अनुभव वाला एक विशेषज्ञ है। दामिर का उल्लेख मैशबल, वायर्ड, में किया गया है Cointelegraph, द न्यू यॉर्कर, Inside.com, एंटरप्रेन्योर, BeInCrypto, और अन्य प्रकाशन। वह एक डिजिटल खानाबदोश के रूप में संयुक्त अरब अमीरात, तुर्की, रूस और सीआईएस के बीच यात्रा करता है। दामिर ने भौतिकी में स्नातक की डिग्री हासिल की, उनका मानना है कि इससे उन्हें इंटरनेट के लगातार बदलते परिदृश्य में सफल होने के लिए आवश्यक महत्वपूर्ण सोच कौशल प्राप्त हुआ है।