AI Wiki टेक्नोलॉजी
18 मई 2023

टॉप 10 एआई और ChatGPT 2023 में जोखिम और खतरे

आर्टिफिशियल इंटेलिजेंस (एआई) और चैटबॉट तकनीक की प्रगति के साथ, अधिक कंपनियां अपने ग्राहक अनुभव को बेहतर बनाने और ओवरहेड लागत को कम करने के साधन के रूप में स्वचालित ग्राहक सेवा समाधान का अनुसरण कर रही हैं। जबकि एआई मॉडल और चैटबॉट समाधानों का लाभ उठाने के कई लाभ हैं, प्रौद्योगिकी से जुड़े विभिन्न जोखिम और खतरे भी बने हुए हैं, खासकर जब वे आने वाले दशक में अधिक व्यापक और हमारे दैनिक जीवन में एकीकृत हो जाते हैं।

इस हफ्ते अमेरिकी सीनेट में सभी ने एआई मॉडल के नियमन और जोखिमों के बारे में सैम ऑल्टमैन की बात सुनी। यहाँ एक बुनियादी ठहरनेवाला है:

bioweapons

bioweapons
@Midjourney

आर्टिफिशियल इंटेलिजेंस का उपयोग (AI) जैविक हथियारों के विकास में सामूहिक विनाश के शक्तिशाली और घातक हथियार बनाने का एक खतरनाक ढंग से व्यवस्थित और कुशल तरीका प्रस्तुत करता है। ChatGPT बॉट एआई-संचालित संवादी सहायक हैं जो मनुष्यों के साथ आजीवन बातचीत करने में सक्षम हैं। की चिंता ChatGPT बॉट्स का मतलब यह है कि उनमें झूठी जानकारी फैलाने और प्रभावित करने के लिए दिमाग में हेराफेरी करने की क्षमता होती है जनता की राय.

मैंने जैविक हथियारों के निर्माण में एआई के संभावित दुरुपयोग की चेतावनी दी और ऐसे परिदृश्यों को रोकने के लिए नियमन की आवश्यकता पर बल दिया।

सैम ऑल्टमैन

एआई के दुरुपयोग को रोकने के लिए विनियमन एक महत्वपूर्ण घटक है और ChatGPT जैवहथियारों के विकास और तैनाती में बॉट। सरकारों को प्रौद्योगिकी के संभावित दुरुपयोग को संबोधित करने के लिए राष्ट्रीय कार्य योजना विकसित करने की आवश्यकता है, और कंपनियों को उनके किसी भी संभावित दुरुपयोग के लिए जवाबदेह ठहराया जाना चाहिए ऐ और ChatGPT बॉट. अंतर्राष्ट्रीय संगठनों को उन पहलों में निवेश करना चाहिए जो एआई और प्रशिक्षण, निगरानी और शिक्षित करने पर ध्यान केंद्रित करते हैं ChatGPT बॉट।

नौकरी खोना

नौकरी खोना
@Midjourney

एआई और के कारण नौकरी छूटने की संभावना ChatGPT 2023 में 2020 की तुलना में तीन गुना अधिक होने का अनुमान है। एआई और ChatGPT कार्यस्थल में असुरक्षा, नैतिक विचार और श्रमिकों पर मनोवैज्ञानिक प्रभाव बढ़ सकता है। ऐ और ChatGPT इसका उपयोग कर्मचारियों के व्यवहार और गतिविधियों की निगरानी के लिए किया जा सकता है, जिससे नियोक्ताओं को मानव कर्मियों को शामिल किए बिना जल्दी से निर्णय लेने की अनुमति मिलती है। इसके अतिरिक्त, एआई और ChatGPT अनुचित और पक्षपातपूर्ण निर्णयों का कारण बन सकता है जिससे कार्यस्थल में वित्तीय, सामाजिक और भावनात्मक असुरक्षा हो सकती है।

मैंने इस बात पर जोर दिया कि एआई के विकास से महत्वपूर्ण नौकरी का नुकसान हो सकता है और असमानता में वृद्धि हो सकती है।

सैम ऑल्टमैन

एआई विनियमन

एआई विनियमन
@Midjourney

यह लेख की पड़ताल करता है संभावित जोखिम और एआई तथा आसपास के खतरे ChatGPT 2023 में विनियमन। एआई और ChatGPT तकनीक इसका उपयोग संभावित रूप से दुर्भावनापूर्ण गतिविधियों को करने के लिए किया जा सकता है, जैसे लोगों को उनके व्यवहार और गतिविधियों के आधार पर प्रोफाइल करना। उचित का अभाव एआई विनियमन डेटा उल्लंघन या भेदभाव जैसे अनपेक्षित परिणाम हो सकते हैं। एआई विनियमन यह सुनिश्चित करने के लिए सख्त दिशानिर्देश निर्धारित करके इस जोखिम को कम करने में मदद कर सकता है ChatGPT सिस्टम दुर्भावनापूर्ण तरीके से उपयोग नहीं किया जाता है। अंत में, एआई और ChatGPT हमारे जीवन में एक नियंत्रक कारक बन सकता है, यातायात प्रवाह और वित्तीय बाजारों जैसी चीजों को नियंत्रित कर सकता है, और यहां तक ​​कि हमारे राजनीतिक और सामाजिक जीवन को प्रभावित करने के लिए भी इस्तेमाल किया जा सकता है। इस तरह के बिजली असंतुलन को रोकने के लिए सख्त नियमों को लागू करने की जरूरत है।

हमने लाइसेंस और के लिए एक नई एजेंसी बनाने का सुझाव दिया एआई को विनियमित करें गतिविधियाँ यदि उनकी क्षमताएँ एक निश्चित सीमा से अधिक हैं।

सैम ऑल्टमैन

सुरक्षा मानक

सुरक्षा मानक
@Midjourney

एआई और चैटबॉट प्रौद्योगिकियां उस तरह से प्रगति कर रही हैं जिससे हम अपने दैनिक जीवन का प्रबंधन करते हैं। जैसे-जैसे ये प्रौद्योगिकियां अधिक उन्नत होती जाती हैं, उनमें स्वायत्त बनने और अपने दम पर निर्णय लेने की क्षमता होती है। इसे रोकने के लिए, सुरक्षा मानकों स्थापित किया जाना चाहिए कि इन मॉडलों को तैनात किए जाने से पहले मिलना चाहिए। Altman द्वारा 2023 में प्रस्तावित मुख्य सुरक्षा मानकों में से एक स्व-प्रतिकृति के लिए एक परीक्षण है, जो यह सुनिश्चित करेगा कि AI मॉडल प्राधिकरण के बिना स्व-दोहराने में असमर्थ है। ऑल्टमैन द्वारा 2023 में प्रस्तावित दूसरा सुरक्षा मानक डेटा एक्सफिल्ट्रेशन के लिए एक परीक्षण है, जो यह सुनिश्चित करेगा कि एआई मॉडल बिना प्राधिकरण के सिस्टम से डेटा को एक्सफ़िलिएट करने में सक्षम नहीं हैं। दुनिया भर की सरकारों ने नागरिकों को संभावित जोखिमों से बचाने के लिए कार्य करना शुरू कर दिया है।

हमें सुरक्षा मानकों को लागू करना होगा जो एआई मॉडल को तैनाती से पहले पूरा करना होगा, जिसमें स्व-प्रतिकृति और डेटा एक्सफिल्ट्रेशन के लिए परीक्षण शामिल हैं।

सैम ऑल्टमैन

स्वतंत्र लेखापरीक्षा

स्वतंत्र लेखापरीक्षा
@Midjourney

2023 में, एआई और एलएलएम प्रौद्योगिकियों के स्वतंत्र ऑडिट की आवश्यकता तेजी से महत्वपूर्ण हो गई है। एआई कई तरह के जोखिम पैदा करता है, जैसे कि बिना पर्यवेक्षित मशीन लर्निंग एल्गोरिदम जो डेटा को अनैच्छिक रूप से बदल सकते हैं और यहां तक ​​कि हटा भी सकते हैं, और साइबर हमले तेजी से एआई को निशाना बना रहे हैं और ChatGPT. एआई-निर्मित मॉडल में पूर्वाग्रह शामिल है, जो भेदभावपूर्ण प्रथाओं को जन्म दे सकता है। एक स्वतंत्र ऑडिट में इसकी समीक्षा शामिल होनी चाहिए एआई मॉडल करता है एल्गोरिथम डिज़ाइन और मॉडल के आउटपुट पर प्रशिक्षित किया जाता है ताकि यह सुनिश्चित किया जा सके कि यह पक्षपाती कोडिंग या परिणाम प्रदर्शित नहीं करता है। इसके अतिरिक्त, ऑडिट में सुरक्षा नीतियों और सुरक्षा के लिए उपयोग की जाने वाली प्रक्रियाओं की समीक्षा शामिल होनी चाहिए उपयोगकर्ता का आधार - सामग्री और एक सुरक्षित वातावरण सुनिश्चित करें।

यह सुनिश्चित करने के लिए कि एआई मॉडल स्थापित सुरक्षा मानकों को पूरा करते हैं, स्वतंत्र ऑडिट आयोजित किए जाएं।

सैम ऑल्टमैन

एक स्वतंत्र ऑडिट के बिना, व्यवसायों और उपयोगकर्ताओं को उजागर किया जाता है संभावित खतरनाक और महंगे जोखिम जिनसे बचा जा सकता था। यह महत्वपूर्ण है कि इस तकनीक का उपयोग करने वाले सभी व्यवसायों की तैनाती से पहले एक स्वतंत्र ऑडिट पूरा हो, ताकि यह सुनिश्चित हो सके कि तकनीक सुरक्षित और नैतिक है।

एआई एक उपकरण के रूप में

एआई एक उपकरण के रूप में
@Midjourney

एआई तेजी से विकसित हुआ है, और उन्नति जैसे GPT-4 कंप्यूटर के साथ अधिक यथार्थवादी और परिष्कृत अंतःक्रिया को जन्म दिया है। हालाँकि, ऑल्टमैन ने इस बात पर जोर दिया है कि एआई को उपकरण के रूप में देखा जाना चाहिए, न कि संवेदनशील प्राणी के रूप में। GPT-4 एक प्राकृतिक भाषा-प्रसंस्करण मॉडल है जो मानव-लिखित सामग्री से लगभग अप्रभेद्य सामग्री उत्पन्न कर सकता है, लेखकों से कुछ काम छीन सकता है और उपयोगकर्ताओं को प्रौद्योगिकी के साथ अधिक मानवीय अनुभव प्राप्त करने की अनुमति दे सकता है।

एआई, विशेष रूप से उन्नत मॉडल जैसे GPT-4, को उपकरण के रूप में देखा जाना चाहिए, संवेदनशील प्राणियों के रूप में नहीं।

सैम ऑल्टमैन

हालांकि, सैम ऑल्टमैन ने चेतावनी दी है कि एआई पर एक उपकरण से अधिक जोर देने से इसकी क्षमताओं के बारे में अवास्तविक अपेक्षाएं और गलत धारणाएं पैदा हो सकती हैं। वह यह भी बताते हैं कि एआई इसके नैतिक निहितार्थों के बिना नहीं है, और भले ही एआई के उन्नत स्तरों का उपयोग अच्छे के लिए किया जा सकता है, फिर भी इसका उपयोग बुरे के लिए किया जा सकता है, जिससे खतरनाक नस्लीय रूपरेखा बन सकती है, गोपनीयता का उल्लंघन, और यहां तक ​​कि सुरक्षा खतरे भी। ऑल्टमैन एआई को समझने के महत्व पर प्रकाश डालता है, यह केवल एक उपकरण है, और इसे मानव प्रगति में तेजी लाने के लिए एक उपकरण के रूप में देखा जाना चाहिए, न कि मनुष्यों को बदलने के लिए।

एआई चेतना

एआई चेतना
@Midjourney

एआई से संबंधित बहस और यह जागरूक जागरूकता प्राप्त कर सकता है या नहीं, बढ़ रहा है। कई शोधकर्ता तर्क दे रहे हैं कि मशीनें अपने जटिल कम्प्यूटेशनल आर्किटेक्चर के बावजूद भावनात्मक, मानसिक या सचेत अवस्थाओं का अनुभव करने में असमर्थ हैं। कुछ शोधकर्ता एआई द्वारा सचेत जागरूकता प्राप्त करने की संभावना को स्वीकार करते हैं। इस संभावना के लिए मुख्य तर्क यह है कि एआई उन कार्यक्रमों पर आधारित है जो इसे करने में सक्षम बनाते हैं प्रतिलिपिकारक मानव मस्तिष्क में पाई जाने वाली कुछ शारीरिक और मानसिक प्रक्रियाएँ। हालाँकि, मुख्य प्रतिवाद यह है कि AI के पास कोई वास्तविक भावनात्मक बुद्धिमत्ता नहीं है।

जबकि एआई को एक उपकरण के रूप में देखा जाना चाहिए, मैं संभावित एआई चेतना के संबंध में वैज्ञानिक समुदाय में चल रही बहस को स्वीकार करता हूं।

सैम ऑल्टमैन

एआई के कई शोधकर्ता इस बात से सहमत हैं कि यह सुझाव देने के लिए कोई वैज्ञानिक प्रमाण नहीं है कि एआई उसी तरह से जागरूक जागरूकता प्राप्त करने में सक्षम है जैसे एक इंसान कर सकता है। एलोन मस्क, इस दृष्टिकोण के सबसे मुखर समर्थकों में से एक, का मानना ​​है कि जैविक जीवन रूपों की नकल करने की एआई की क्षमता बेहद सीमित है और मशीनों को नैतिक मूल्यों के शिक्षण पर अधिक जोर दिया जाना चाहिए।

सैन्य अनुप्रयोग

सैन्य अनुप्रयोग
@Midjourney

सैन्य संदर्भ में एआई तेजी से आगे बढ़ रहा है और इसमें सेना के युद्ध संचालन के तरीके में सुधार करने की क्षमता है। वैज्ञानिकों को चिंता है कि सेना में एआई कई तरह की नैतिक और जोखिम संबंधी समस्याएं पेश कर सकता है, जैसे कि अप्रत्याशितता, अगणनीयता और पारदर्शिता की कमी।

मैं स्वायत्त ड्रोन जैसे सैन्य अनुप्रयोगों में एआई का उपयोग करने की क्षमता को पहचानता हूं और इसका आह्वान करता हूं शासन करने के लिए नियम ऐसा उपयोग.

सैम ऑल्टमैन

एआई सिस्टम दुर्भावनापूर्ण अभिनेताओं के लिए कमजोर हैं जो या तो सिस्टम को फिर से प्रोग्राम कर सकते हैं या सिस्टम में घुसपैठ कर सकते हैं, संभावित रूप से विनाशकारी परिणाम की ओर ले जा सकते हैं। इन्हें संबोधित करने के लिए चिंताओं, अंतर्राष्ट्रीय समुदाय ने 1980 के कुछ पारंपरिक हथियारों पर अपने अंतर्राष्ट्रीय सम्मेलन के रूप में पहला कदम उठाया है, जो कुछ हथियारों के उपयोग पर कुछ प्रतिबंध लगाता है। एआई विशेषज्ञों ने सैन्य अनुप्रयोगों में एआई के मूल्यांकन, प्रशिक्षण और तैनाती जैसी प्रक्रियाओं की देखरेख के लिए एक अंतर्राष्ट्रीय समिति की वकालत की है।

आंदोलन

आंदोलन
@Midjourney

एआई तकनीक तेजी से उन्नत और व्यापक होती जा रही है, जिससे एआई एजेंटों और प्रणालियों द्वारा उत्पन्न संभावित जोखिमों को समझना महत्वपूर्ण हो गया है। एआई एजेंटों से जुड़ा पहला और सबसे स्पष्ट जोखिम है मशीनों द्वारा मनुष्यों को पछाड़ने का खतरा। एआई एजेंट निर्णय लेने, स्वचालन प्रक्रियाओं और अन्य उन्नत कार्यों को अपने हाथों में लेकर अपने रचनाकारों को आसानी से मात दे सकते हैं। इसके अतिरिक्त, एआई-संचालित स्वचालन असमानता को बढ़ा सकता है, क्योंकि यह दुनिया में मनुष्यों की जगह लेता है नोकरी बाजार.

मैं चेतावनी देता हूं कि अधिक शक्तिशाली और जटिल एआई सिस्टम वास्तविकता के करीब हो सकते हैं जितना कि कई लोग सोचते हैं और तैयारियों और निवारक उपायों की आवश्यकता पर बल दिया।

सैम ऑल्टमैन

एआई एल्गोरिदम और जटिल निर्णय लेने में उनका उपयोग पारदर्शिता की कमी के लिए चिंता पैदा करता है। संगठन कर सकते हैं जोखिमों को कम करें एआई एजेंटों के साथ सक्रिय रूप से यह सुनिश्चित करके एआई को नैतिक रूप से विकसित किया जा रहा है, डेटा का उपयोग करना जो नैतिक मानकों के अनुरूप है, और यह सुनिश्चित करने के लिए नियमित परीक्षणों के लिए एल्गोरिदम का विषय है कि वे पक्षपाती नहीं हैं और उपयोगकर्ताओं और डेटा के लिए जिम्मेदार हैं।

निष्कर्ष

ऑल्टमैन ने यह भी कहा कि हालांकि हम चीन को संभालने में असमर्थ हो सकते हैं, हमें इसके साथ बातचीत करनी चाहिए। मूल्यांकन के लिए प्रस्तावित मानदंड और एआई मॉडल को विनियमित करने में शामिल हैं जैविक नमूनों को संश्लेषित करने की क्षमता, लोगों के विश्वासों में हेरफेर, प्रसंस्करण शक्ति की मात्रा खर्च, और इसी तरह।

एक महत्वपूर्ण विषय यह है कि सैम के राज्य के साथ "संबंध" होने चाहिए। हम आशा करते हैं कि वे यूरोप के उदाहरण का अनुसरण नहीं करेंगे, जैसा कि हमने पहले उल्लेख किया है।

अक्सर पूछे गए प्रश्न

एआई जोखिमों में एआई सिस्टम के लिए पक्षपातपूर्ण या भेदभावपूर्ण व्यवहार प्रदर्शित करने, दुर्भावनापूर्ण या अनुपयुक्त तरीके से उपयोग करने, या नुकसान पहुंचाने वाले तरीकों से खराब होने की क्षमता शामिल है। एआई प्रौद्योगिकियों का विकास और परिनियोजन गोपनीयता और डेटा सुरक्षा के साथ-साथ लोगों और प्रणालियों की सुरक्षा और सुरक्षा के लिए जोखिम पैदा कर सकता है।

एआई से जुड़े पांच मुख्य जोखिम हैं: नौकरी छूटना, सुरक्षा जोखिम, पूर्वाग्रह या भेदभाव, जैविक हथियार और AGI।

एआई का सबसे खतरनाक पहलू बड़े पैमाने पर बेरोजगारी पैदा करने की इसकी क्षमता है।

Disclaimer

साथ लाइन में ट्रस्ट परियोजना दिशानिर्देश, कृपया ध्यान दें कि इस पृष्ठ पर दी गई जानकारी का कानूनी, कर, निवेश, वित्तीय या किसी अन्य प्रकार की सलाह के रूप में व्याख्या करने का इरादा नहीं है और न ही इसकी व्याख्या की जानी चाहिए। यह महत्वपूर्ण है कि केवल उतना ही निवेश करें जितना आप खो सकते हैं और यदि आपको कोई संदेह हो तो स्वतंत्र वित्तीय सलाह लें। अधिक जानकारी के लिए, हम नियम और शर्तों के साथ-साथ जारीकर्ता या विज्ञापनदाता द्वारा प्रदान किए गए सहायता और समर्थन पृष्ठों का संदर्भ लेने का सुझाव देते हैं। MetaversePost सटीक, निष्पक्ष रिपोर्टिंग के लिए प्रतिबद्ध है, लेकिन बाज़ार की स्थितियाँ बिना सूचना के परिवर्तन के अधीन हैं।

के बारे में लेखक

दामिर टीम लीडर, उत्पाद प्रबंधक और संपादक हैं Metaverse Postएआई/एमएल, एजीआई, एलएलएम, मेटावर्स और जैसे विषयों को कवर करता है Web3-संबंधित क्षेत्रों। उनके लेख हर महीने दस लाख से अधिक उपयोगकर्ताओं को आकर्षित करते हैं। ऐसा प्रतीत होता है कि वह SEO और डिजिटल मार्केटिंग में 10 वर्षों के अनुभव वाला एक विशेषज्ञ है। दामिर का उल्लेख मैशबल, वायर्ड, में किया गया है Cointelegraph, द न्यू यॉर्कर, Inside.com, एंटरप्रेन्योर, BeInCrypto, और अन्य प्रकाशन। वह एक डिजिटल खानाबदोश के रूप में संयुक्त अरब अमीरात, तुर्की, रूस और सीआईएस के बीच यात्रा करता है। दामिर ने भौतिकी में स्नातक की डिग्री हासिल की, उनका मानना ​​है कि इससे उन्हें इंटरनेट के लगातार बदलते परिदृश्य में सफल होने के लिए आवश्यक महत्वपूर्ण सोच कौशल प्राप्त हुआ है। 

और अधिक लेख
दामिर यालालोव
दामिर यालालोव

दामिर टीम लीडर, उत्पाद प्रबंधक और संपादक हैं Metaverse Postएआई/एमएल, एजीआई, एलएलएम, मेटावर्स और जैसे विषयों को कवर करता है Web3-संबंधित क्षेत्रों। उनके लेख हर महीने दस लाख से अधिक उपयोगकर्ताओं को आकर्षित करते हैं। ऐसा प्रतीत होता है कि वह SEO और डिजिटल मार्केटिंग में 10 वर्षों के अनुभव वाला एक विशेषज्ञ है। दामिर का उल्लेख मैशबल, वायर्ड, में किया गया है Cointelegraph, द न्यू यॉर्कर, Inside.com, एंटरप्रेन्योर, BeInCrypto, और अन्य प्रकाशन। वह एक डिजिटल खानाबदोश के रूप में संयुक्त अरब अमीरात, तुर्की, रूस और सीआईएस के बीच यात्रा करता है। दामिर ने भौतिकी में स्नातक की डिग्री हासिल की, उनका मानना ​​है कि इससे उन्हें इंटरनेट के लगातार बदलते परिदृश्य में सफल होने के लिए आवश्यक महत्वपूर्ण सोच कौशल प्राप्त हुआ है। 

Hot Stories
हमारे समाचार पत्र शामिल हों।
नवीनतम समाचार

अस्थिरता के बीच बिटकॉइन ईटीएफ के प्रति संस्थागत रुचि बढ़ी

13एफ फाइलिंग के माध्यम से प्रकटीकरण से पता चलता है कि उल्लेखनीय संस्थागत निवेशक बिटकॉइन ईटीएफ में रुचि ले रहे हैं, जो इसकी बढ़ती स्वीकार्यता को रेखांकित करता है...

अधिक जानिए

सजा का दिन आ गया: सीजेड का भाग्य अधर में लटक गया क्योंकि अमेरिकी अदालत ने डीओजे की याचिका पर विचार किया

चांगपेंग झाओ आज सिएटल की एक अमेरिकी अदालत में सजा का सामना करने के लिए तैयार हैं।

अधिक जानिए
हमारे इनोवेटिव टेक समुदाय से जुड़ें
विस्तार में पढ़ें
अधिक पढ़ें
लेयर 2 नेटवर्क लिनिया ने ज़ीरोलेंड के शून्य टोकन के लिए दावा शुरू किया Airdrop उपयोगकर्ता और निवेशक
Markets समाचार रिपोर्ट टेक्नोलॉजी
लेयर 2 नेटवर्क लिनिया ने ज़ीरोलेंड के शून्य टोकन के लिए दावा शुरू किया Airdrop उपयोगकर्ता और निवेशक
6 मई 2024
बायनेन्स बीआईडीआर उत्पादों और सेवाओं के लिए समर्थन बंद करेगा, उपयोगकर्ताओं को 20 अगस्त से पहले फंड बदलने की सलाह देगा
Markets समाचार रिपोर्ट टेक्नोलॉजी
बायनेन्स बीआईडीआर उत्पादों और सेवाओं के लिए समर्थन बंद करेगा, उपयोगकर्ताओं को 20 अगस्त से पहले फंड बदलने की सलाह देगा
6 मई 2024
सुरक्षा उल्लंघन ने फैंटम इकोसिस्टम के GNUS.AI को प्रभावित किया, जिसके परिणामस्वरूप $1.27M का नुकसान हुआ
Markets समाचार रिपोर्ट टेक्नोलॉजी
सुरक्षा उल्लंघन ने फैंटम इकोसिस्टम के GNUS.AI को प्रभावित किया, जिसके परिणामस्वरूप $1.27M का नुकसान हुआ
6 मई 2024
लॉन्च के पंद्रह साल बाद बिटकॉइन नेटवर्क ने 1बी लेनदेन को पीछे छोड़ दिया
Markets समाचार रिपोर्ट टेक्नोलॉजी
लॉन्च के पंद्रह साल बाद बिटकॉइन नेटवर्क ने 1बी लेनदेन को पीछे छोड़ दिया
6 मई 2024
क्रिप्टोमेरिया लैब्स पीटीई। लिमिटेड