गुआनाको एक संभावित ओपन-सोर्स के रूप में उभरा ChatGPT प्रतियोगी
संक्षेप में
वाशिंगटन विश्वविद्यालय के शोधकर्ताओं द्वारा विकसित एक ओपन-सोर्स चैटबॉट गुआनाको के साथ प्रतिस्पर्धा करने की इच्छा रखता है ChatGPT जबकि प्रशिक्षण के लिए कम समय और धन की आवश्यकता होती है।
हालाँकि, एक नए अध्ययन ने अल्पाका जैसे मॉडलों की प्रभावकारिता पर सवाल उठाया है।
वाशिंगटन विश्वविद्यालय के शोधकर्ताओं ने खुलासा किया है guanaco, एक ओपन-सोर्स चैटबॉट जिसका उद्देश्य प्रदर्शन को प्रतिद्वंद्वी बनाना है ChatGPT जबकि प्रशिक्षण के लिए आवश्यक समय और संसाधनों को काफी कम कर दिया गया है। के एक दक्षिण अमेरिकी रिश्तेदार के नाम पर रखा गया llamaएस, गुआनाको पर बनाया गया है LLaMA भाषा मॉडल और QLoRA नामक एक नवीन फाइन-ट्यूनिंग विधि शामिल है।
गुआनाको के रचनाकारों का दावा है कि यह तुलनीय प्रदर्शन प्राप्त करता है ChatGPT लेकिन केवल एक ही दिन में प्रशिक्षित किया जा सकता है। यह उल्लेखनीय उपलब्धि QLoRA द्वारा संभव हुई है, जो एक भाषा मॉडल फाइन-ट्यूनिंग तकनीक है जो प्रशिक्षण के लिए आवश्यक GPU मेमोरी की मात्रा को काफी हद तक कम कर देती है। जबकि ChatGPT एक विशाल 780 जीबी जीपीयू मेमोरी की आवश्यकता है 65 बिलियन मापदंडों वाले मॉडल के लिए, गुआनाको के सरलतम संस्करण के लिए केवल 5 जीबी की आवश्यकता होती है।
इन प्रभावशाली दक्षता लाभ के साथ, गुआनाको और इसी तरह के ओपन-सोर्स मॉडल इस धारणा को चुनौती दे रहे हैं कि महंगा प्रशिक्षण आवश्यक है अत्याधुनिक भाषा मॉडल. गुआनाको का उदय, उसकी ऊन का कपड़ा, तथा अन्य मॉडल बहुत ही कम लागत पर उस ट्रेन ने महंगे मॉडलों के भविष्य के बारे में अटकलें लगाई हैं GPT.
हालांकि, ओपन-सोर्स मॉडल के इस आशावादी दृष्टिकोण से हर कोई सहमत नहीं है। हाल ही में यूनिवर्सिटी ऑफ कैलिफोर्निया ने एक अध्ययन किया है संदेह जताया है अल्पाका जैसे मॉडलों की क्षमताओं पर और उनकी वास्तविक क्षमता पर सवाल उठाए। प्रारंभ में, शोधकर्ता गुआनाको के रचनाकारों के समान निष्कर्ष पर पहुंचे: जब ठीक से प्रशिक्षित किया जाता है, तो ओपन-सोर्स मॉडल प्रतिद्वंद्वी हो सकते हैं GPT क्षमताओं में. आगे के परीक्षणों से एक महत्वपूर्ण सीमा का पता चला। ये "डॉली" मॉडल, जैसा कि उन्हें कभी-कभी कहा जाता है, प्रशिक्षण के दौरान आने वाली समस्याओं के समाधान का अनुकरण करने में माहिर हैं। हालाँकि, वे उन कार्यों में अच्छा प्रदर्शन करने के लिए संघर्ष करते हैं जिनसे उन्हें स्पष्ट रूप से अवगत नहीं कराया गया है, और अधिक उन्नत मॉडलों से पीछे रह जाते हैं।
इस रहस्योद्घाटन से पता चलता है कि प्रशिक्षण में लाखों का निवेश किया गया GPT और इसी तरह के मॉडल व्यर्थ नहीं गए होंगे। जबकि गुआनाको और इसके समकक्ष आशाजनक परिणाम प्रदर्शित करते हैं, फिर भी ऐसे क्षेत्र हैं जहां अधिक परिष्कृत मॉडल उत्कृष्टता प्राप्त करते हैं। गौरतलब है कि द कैलिफोर्निया विश्वविद्यालय द्वारा किए गए शोध प्रचलित धारणा को चुनौती देता है कि ओपन-सोर्स मॉडल पूरी तरह से महंगे मॉडल की जगह ले सकते हैं GPT.
जैसा कि प्राकृतिक भाषा प्रसंस्करण का क्षेत्र विकसित होता है, यह देखना दिलचस्प होगा कि कैसे गुआनाको और अन्य ओपन-सोर्स मॉडल स्थापित के खिलाफ निष्पक्ष हैं जैसे बेंचमार्क ChatGPT. नवाचार की उच्च दर और निरंतर अनुसंधान, बिना किसी प्रश्न के, भाषा मॉडल के भविष्य को प्रभावित करेगा और यह निर्धारित करेगा कि कौन से मॉडल विशेष अनुप्रयोगों के लिए पसंद बनेंगे।
- डॉली 2.0, पहला व्यावसायिक रूप से उपलब्ध ओपन-सोर्स 12बी चैट-एलएलएम, की घोषणा की गई है डाटाब्रिक्स द्वारा। यह मशीन लर्निंग उद्योग के लिए एक महत्वपूर्ण प्रगति है, जिससे व्यवसायों को महंगे जीपीयू क्लस्टर में निवेश किए बिना प्रभावी भाषा मॉडल बनाने की अनुमति मिलती है। डाटाब्रिक्स ने अपने ओपन-सोर्स भाषा मॉडल को बनाने के लिए 5,000 कर्मचारियों को शामिल किया, जिसमें एमआईटी लाइसेंस के तहत एलुथेरएआई का पाइथिया-12बी भाषा मॉडल शामिल था। डॉली 2.0, साथ ही संबंधित कोड, एमआईटी लाइसेंस के तहत उपलब्ध है। डॉली 2.0 में उद्योग को बदलने की क्षमता है और यह मशीन सीखने की दिशा में एक महत्वपूर्ण कदम है।
एआई के बारे में और पढ़ें:
Disclaimer
साथ लाइन में ट्रस्ट परियोजना दिशानिर्देश, कृपया ध्यान दें कि इस पृष्ठ पर दी गई जानकारी का कानूनी, कर, निवेश, वित्तीय या किसी अन्य प्रकार की सलाह के रूप में व्याख्या करने का इरादा नहीं है और न ही इसकी व्याख्या की जानी चाहिए। यह महत्वपूर्ण है कि केवल उतना ही निवेश करें जितना आप खो सकते हैं और यदि आपको कोई संदेह हो तो स्वतंत्र वित्तीय सलाह लें। अधिक जानकारी के लिए, हम नियम और शर्तों के साथ-साथ जारीकर्ता या विज्ञापनदाता द्वारा प्रदान किए गए सहायता और समर्थन पृष्ठों का संदर्भ लेने का सुझाव देते हैं। MetaversePost सटीक, निष्पक्ष रिपोर्टिंग के लिए प्रतिबद्ध है, लेकिन बाज़ार की स्थितियाँ बिना सूचना के परिवर्तन के अधीन हैं।
के बारे में लेखक
दामिर टीम लीडर, उत्पाद प्रबंधक और संपादक हैं Metaverse Postएआई/एमएल, एजीआई, एलएलएम, मेटावर्स और जैसे विषयों को कवर करता है Web3-संबंधित क्षेत्रों। उनके लेख हर महीने दस लाख से अधिक उपयोगकर्ताओं को आकर्षित करते हैं। ऐसा प्रतीत होता है कि वह SEO और डिजिटल मार्केटिंग में 10 वर्षों के अनुभव वाला एक विशेषज्ञ है। दामिर का उल्लेख मैशबल, वायर्ड, में किया गया है Cointelegraph, द न्यू यॉर्कर, Inside.com, एंटरप्रेन्योर, BeInCrypto, और अन्य प्रकाशन। वह एक डिजिटल खानाबदोश के रूप में संयुक्त अरब अमीरात, तुर्की, रूस और सीआईएस के बीच यात्रा करता है। दामिर ने भौतिकी में स्नातक की डिग्री हासिल की, उनका मानना है कि इससे उन्हें इंटरनेट के लगातार बदलते परिदृश्य में सफल होने के लिए आवश्यक महत्वपूर्ण सोच कौशल प्राप्त हुआ है।
और अधिक लेखदामिर टीम लीडर, उत्पाद प्रबंधक और संपादक हैं Metaverse Postएआई/एमएल, एजीआई, एलएलएम, मेटावर्स और जैसे विषयों को कवर करता है Web3-संबंधित क्षेत्रों। उनके लेख हर महीने दस लाख से अधिक उपयोगकर्ताओं को आकर्षित करते हैं। ऐसा प्रतीत होता है कि वह SEO और डिजिटल मार्केटिंग में 10 वर्षों के अनुभव वाला एक विशेषज्ञ है। दामिर का उल्लेख मैशबल, वायर्ड, में किया गया है Cointelegraph, द न्यू यॉर्कर, Inside.com, एंटरप्रेन्योर, BeInCrypto, और अन्य प्रकाशन। वह एक डिजिटल खानाबदोश के रूप में संयुक्त अरब अमीरात, तुर्की, रूस और सीआईएस के बीच यात्रा करता है। दामिर ने भौतिकी में स्नातक की डिग्री हासिल की, उनका मानना है कि इससे उन्हें इंटरनेट के लगातार बदलते परिदृश्य में सफल होने के लिए आवश्यक महत्वपूर्ण सोच कौशल प्राप्त हुआ है।