تکامل چت ربات ها از T9-Era و GPT-1 به ChatGPT
اخیراً تقریباً هر روز با پست های خبری در مورد آخرین رکوردهای شکسته شده توسط شبکه های عصبی در مقیاس بزرگ و اینکه چرا تقریباً شغل هیچ کس ایمن نیست بمباران شده ایم. با این وجود، تعداد بسیار کمی از مردم از چگونگی دوست داشتن شبکه های عصبی آگاه هستند ChatGPT در واقع عمل کنند.
بنابراین، استراحت کنید. هنوز در مورد آینده شغلی خود افسوس نخورید. در این پست، همه چیزهایی را که باید در مورد شبکه های عصبی بدانیم، به روشی که همه می توانند درک کنند، توضیح خواهیم داد.
یک هشدار قبل از شروع: این قطعه یک همکاری است. کل بخش فنی توسط یک متخصص هوش مصنوعی نوشته شده است که در بین جمعیت هوش مصنوعی مشهور است.
از آنجایی که هیچ کس هنوز یک قطعه عمیق در مورد چگونگی ننوشته است ChatGPT کارهایی که به زبان ساده، زیر و بم شبکه های عصبی را توضیح می دهد، تصمیم گرفتیم این کار را برای شما انجام دهیم. ما سعی کردهایم این پست را تا حد امکان ساده نگه داریم تا خوانندگان بتوانند با درک کلی از اصول شبکههای عصبی زبان از خواندن این پست بیرون بیایند. ما چگونگی را بررسی خواهیم کرد مدل های زبان در آنجا کار کنید، چگونه شبکههای عصبی تکامل یافتند تا قابلیتهای فعلی خود را داشته باشند، و چرا ChatGPTمحبوبیت انفجاری حتی سازندگان آن را شگفت زده کرد.
بیایید با اصول اولیه شروع کنیم. فهمیدن ChatGPT از نقطه نظر فنی، ابتدا باید بفهمیم که چه چیزی نیست. این جارویس مارول کامیکس نیست. موجودی عقلانی نیست. این یک جن نیست برای شوکه شدن آماده شوید: ChatGPT در واقع T9 تلفن همراه شما روی استروئید است! بله، این است: دانشمندان به هر دوی این فناوری ها به عنوان "مدل های زبان." تنها کاری که شبکههای عصبی انجام میدهند این است که حدس میزنند چه کلمهای باید در ادامه بیاید.
فناوری اصلی T9 فقط با حدس زدن ورودی فعلی به جای کلمه بعدی، شماره گیری دکمه ای تلفن را افزایش می دهد. با این حال، فناوری پیشرفت کرد، و در اوایل دهه 2010، در عصر گوشیهای هوشمند، توانست زمینه و کلمه قبلی را در نظر بگیرد، علائم نگارشی اضافه کند و مجموعهای از کلمات را ارائه دهد که میتوانستند در مرحله بعدی قرار گیرند. این دقیقاً قیاسی است که ما با چنین نسخه "پیشرفته" T9 یا Autocorrect انجام می دهیم.
در نتیجه، هم T9 روی صفحه کلید گوشی هوشمند و هم ChatGPT برای حل یک کار مسخره ساده آموزش دیده اند: پیش بینی کلمه بعدی این به عنوان «مدلسازی زبان» شناخته میشود و زمانی اتفاق میافتد که تصمیمی در مورد آنچه که باید بر اساس متن موجود نوشته شود، گرفته میشود. مدل های زبانی باید بر اساس احتمال وقوع کلمات خاص عمل کنند تا بتوانند چنین پیش بینی هایی را انجام دهند. از این گذشته، اگر تکمیل خودکار تلفنتان کلمات کاملاً تصادفی را با همان احتمال به شما بیاورد، آزرده خواهید شد.
برای وضوح، بیایید تصور کنیم که پیامی از یک دوست دریافت میکنید. می گوید: "برنامه شما برای عصر چیست؟" در پاسخ، شروع به تایپ کردن میکنید: «من میروم…»، و اینجاست که T9 وارد میشود. ممکن است چیزهای کاملاً مزخرفی مانند «من به ماه میروم» بیابد، بدون نیاز به مدل زبان پیچیده. مدلهای خوب تکمیل خودکار گوشیهای هوشمند، کلمات بسیار مرتبطتری را پیشنهاد میکنند.
بنابراین، T9 چگونه میداند چه کلماتی احتمالاً متنی را که قبلاً تایپ شده دنبال میکنند و چه چیزی به وضوح معنی ندارد؟ برای پاسخ به این سوال، ابتدا باید اصول اساسی عملیات ساده ترین را بررسی کنیم شبکه های عصبی.
چگونه مدل های هوش مصنوعی کلمه بعدی را پیش بینی می کنند
اجازه دهید با یک سوال ساده تر شروع کنیم: چگونه وابستگی متقابل برخی چیزها را به دیگران پیش بینی می کنید؟ فرض کنید میخواهیم به رایانه یاد دهیم که وزن افراد را بر اساس قد آنها پیشبینی کند - چگونه باید این کار را انجام دهیم؟ ابتدا باید حوزههای مورد علاقه را شناسایی کنیم و سپس دادههایی را جمعآوری کنیم تا وابستگیهای مورد علاقه را بر اساس آن جستجو کنیم و سپس تلاش کنیم تا "آموزش" برخی از مدل های ریاضی برای جستجوی الگوهای درون این داده ها.
به بیان ساده، T9 یا ChatGPT فقط معادلات هوشمندانه ای هستند که تلاش می کنند پیش بینی یک کلمه (Y) بر اساس مجموعه کلمات قبلی (X) وارد شده به ورودی مدل. هنگام آموزش الف مدل زبان در یک مجموعه داده، وظیفه اصلی انتخاب ضرایبی برای این x است که واقعاً نوعی وابستگی را منعکس می کند (مانند مثال ما با قد و وزن). و با مدلهای بزرگ، درک بهتری از مدلهایی با تعداد زیادی پارامتر به دست خواهیم آورد. در زمینه هوش مصنوعی، از آنها به عنوان مدل های زبان بزرگ یا به اختصار LLM یاد می شود. همانطور که بعدا خواهیم دید، یک مدل بزرگ با پارامترهای زیاد برای تولید متن خوب ضروری است.
به هر حال، اگر تعجب می کنید که چرا ما دائماً در مورد "پیش بینی یک کلمه بعدی" صحبت می کنیم در حالی که ChatGPT به سرعت با کل پاراگراف های متن پاسخ می دهد، پاسخ ساده است. مطمئناً، مدلهای زبان میتوانند متون طولانی را بدون مشکل تولید کنند، اما کل فرآیند کلمه به کلمه است. پس از تولید هر کلمه جدید، مدل به سادگی تمام متن را با کلمه جدید دوباره اجرا می کند تا کلمه بعدی تولید شود. این روند بارها و بارها تکرار می شود تا زمانی که کل پاسخ را دریافت کنید.
چرا ما به دنبال یافتن کلمات "درست" برای یک متن معین هستیم؟
مدل های زبان تلاش می کنند تا احتمالات کلمات مختلفی را که می توانند در یک متن خاص رخ دهند، پیش بینی کنند. چرا این امر ضروری است و چرا نمی توانید به دنبال "صحیح ترین" کلمه باشید؟ بیایید یک بازی ساده را امتحان کنیم تا نحوه عملکرد این فرآیند را نشان دهیم.
قوانین به شرح زیر است: پیشنهاد می کنم این جمله را ادامه دهید: "چهل و چهارمین رئیس جمهور ایالات متحده (و اولین آمریکایی آفریقایی تبار در این سمت) باراک است ...". بعد چه کلمه ای باید باشد؟ احتمال وقوع آن چقدر است؟
اگر با اطمینان 100% پیش بینی کردید که کلمه بعدی "اوباما" خواهد بود، اشتباه کرده اید! و نکته اینجا این نیست که باراک اسطوره ای دیگری وجود دارد. خیلی پیش پا افتاده تر است در اسناد رسمی معمولاً از نام کامل رئیس جمهور استفاده می شود. این بدان معناست که آنچه پس از نام کوچک اوباما می آید، نام میانی او، حسین است. بنابراین، در جمله ما، یک مدل زبانی آموزشدیده باید پیشبینی کند که «اوباما» تنها با احتمال شرطی 90 درصد کلمه بعدی خواهد بود و در صورت ادامه متن توسط «حسین» (پس از آن اوباما، 10 درصد باقیمانده را اختصاص دهد. با احتمال نزدیک به 100٪ دنبال کنید.
و اکنون به جنبه جالبی از مدلهای زبانی میرسیم: آنها از رگههای خلاقانه مصون نیستند! در واقع، هنگام تولید هر کلمه بعدی، چنین مدل هایی آن را به روشی "تصادفی" انتخاب می کنند، گویی که یک قالب پرتاب می کنند. احتمال "افتادن" کلمات مختلف کم و بیش با احتمالات پیشنهاد شده توسط معادلات درج شده در مدل مطابقت دارد. اینها از مجموعه عظیمی از متون مختلف که مدل تغذیه شده است، مشتق شده است.
معلوم می شود که یک مدل می تواند به درخواست های یکسان پاسخ متفاوتی بدهد، درست مانند یک فرد زنده. محققان عموماً سعی کردهاند نورونها را وادار کنند تا همیشه کلمه بعدی «محتملترین» را انتخاب کنند، اما در حالی که این در ظاهر منطقی به نظر میرسد، چنین مدلهایی در واقعیت عملکرد بدتری دارند. به نظر می رسد دوز مناسب تصادفی سودمند است زیرا تنوع و کیفیت پاسخ ها را افزایش می دهد.
بیشتر: ChatGPT یاد می گیرد که پهپادها و ربات ها را در حالی که به هوش مصنوعی نسل بعدی می اندیشد، کنترل کند |
زبان ما دارای ساختاری منحصر به فرد با مجموعه های متمایز از قوانین و استثنائات است. برای اینکه چه کلماتی در یک جمله ظاهر می شوند، قافیه و دلیل وجود دارد، آنها فقط به صورت تصادفی رخ نمی دهند. همه به طور ناخودآگاه قواعد زبانی را که استفاده می کنند در سال های اولیه شکل گیری خود می آموزند.
یک مدل مناسب باید دامنه وسیع توصیفی زبان را در نظر بگیرد. مال مدل توانایی ایجاد نتایج مطلوب بستگی به این دارد که چقدر دقیق احتمالات کلمات را بر اساس ظرافت های زمینه محاسبه می کند (بخش قبلی متن که شرایط را توضیح می دهد).
خلاصه: مدلهای زبان ساده، که مجموعهای از معادلات آموزش داده شده بر روی حجم عظیمی از دادهها برای پیشبینی کلمه بعدی بر اساس متن منبع ورودی هستند، از اوایل دهه 9 در عملکرد «T2010/Autofill» تلفنهای هوشمند پیادهسازی شدهاند.
GPT-1: منفجر کردن صنعت
بیایید از مدل های T9 دور شویم. در حالی که احتمالاً در حال خواندن این قطعه هستید یاد بگیرید ChatGPT، ابتدا باید در مورد آغاز آن بحث کنیم GPT خانواده مدل
GPT مخفف "ترانسفورماتور از پیش آموزش دیده مولد" است، در حالی که معماری شبکه های عصبی توسط مهندسان گوگل توسعه یافته است در سال 2017 به عنوان ترانسفورماتور شناخته می شود. ترانسفورماتور یک مکانیزم محاسباتی جهانی است که مجموعهای از دنبالهها (دادهها) را به عنوان ورودی میپذیرد و همان مجموعه دنبالهها را تولید میکند اما به شکل متفاوتی که توسط برخی الگوریتمها تغییر یافته است.
اهمیت ایجاد ترانسفورماتور را می توان در نحوه تهاجمی بودن آن در همه زمینه های هوش مصنوعی (AI) مشاهده کرد: ترجمه، تصویر، صدا و پردازش ویدئو. بخش هوش مصنوعی (AI) تحول قدرتمندی داشت و از به اصطلاح "رکود هوش مصنوعی" به سمت توسعه سریع و غلبه بر رکود حرکت کرد.
نقطه قوت کلیدی ترانسفورماتور از ماژول هایی با مقیاس آسان تشکیل شده است. وقتی از شما خواسته میشود که حجم زیادی از متن را بهطور همزمان پردازش کنید، مدلهای زبان قدیمی و پیشترانسفورماتور کند میشوند. از طرف دیگر شبکه های عصبی ترانسفورماتور این وظیفه را به مراتب بهتر انجام می دهند.
در گذشته، داده های ورودی باید به صورت متوالی یا تک تک پردازش می شدند. مدل دادهها را حفظ نمیکند: اگر با یک روایت یک صفحهای کار میکرد، پس از خواندن متن آن را فراموش میکرد. در همین حال، ترانسفورماتور به فرد امکان می دهد همه چیز را به یکباره مشاهده کند. تولید نتایج به طور قابل توجهی خیره کننده تر
این همان چیزی است که باعث پیشرفت در پردازش متون توسط شبکه های عصبی شد. در نتیجه، مدل دیگر فراموش نمیکند: از مطالب نوشته شده قبلی استفاده مجدد میکند، زمینه را بهتر درک میکند، و مهمتر از همه، میتواند با جفت کردن کلمات با یکدیگر ارتباط بین حجم بسیار زیادی از دادهها ایجاد کند.
خلاصه: GPT-1که در سال 2018 معرفی شد، نشان داد که یک شبکه عصبی می تواند متن هایی را با استفاده از طرح ترانسفورماتور تولید کند که مقیاس پذیری و کارایی را به طور قابل توجهی بهبود بخشیده است. اگر امکان افزایش کمیت و پیچیدگی مدل های زبان وجود داشت، ذخیره قابل توجهی ایجاد می کرد.
GPT-2: عصر مدل های زبان بزرگ
مدلهای زبان نیازی به برچسبگذاری خاصی از قبل ندارند و میتوانند با هر داده متنی «تغذیه» شوند، و آنها را بسیار انعطافپذیر میسازد. اگر کمی فکر کنید، منطقی به نظر می رسد که بخواهیم از توانایی های آن استفاده کنیم. هر متنی که تا به حال نوشته شده است به عنوان داده های آموزشی آماده عمل می کند. از آنجایی که در حال حاضر توالی های زیادی از نوع "بسیاری از برخی کلمات و عبارات => کلمه بعدی پس از آنها" وجود دارد، این تعجب آور نیست.
اکنون بیایید به یاد داشته باشیم که فناوری ترانسفورماتورها روی آن آزمایش شده است GPT-1 ثابت کرد که از نظر مقیاس بندی کاملاً موفق است: در مدیریت حجم زیادی از داده ها به طور قابل توجهی مؤثرتر از نسخه های قبلی خود است. به نظر می رسد که محققان از OpenAI در سال 2019 به همین نتیجه رسید: "زمان آن رسیده که مدل های زبان گران قیمت را کاهش دهیم!"
La مجموعه داده های آموزشی و مدل اندازه، به ویژه، به عنوان دو حوزه مهم انتخاب شدند که در آن GPT-2 باید به شدت بهبود یابد.
از آنجایی که در آن زمان هیچ مجموعه داده متنی عمومی با کیفیت بالایی وجود نداشت که به طور خاص برای آموزش مدلهای زبان طراحی شده بود، هر تیم از متخصصان هوش مصنوعی مجبور بودند دادهها را به تنهایی دستکاری کنند. را OpenAI سپس مردم تصمیم گرفتند به Reddit، محبوبترین انجمن انگلیسی زبان، بروند و تمام لینکها را از هر پستی که بیش از سه لایک داشت، استخراج کنند. تقریبا 8 میلیون از این لینک ها وجود داشت و متون دانلود شده در مجموع 40 ترابایت وزن داشتند.
معادله ای که بزرگترین پارامتر را توصیف می کند، چه تعداد پارامتر را نشان می دهد GPT-2 مدل در سال 2019 دارید؟ شاید صد هزار یا چند میلیون؟ خب، بیایید از این هم فراتر برویم: فرمول حاوی 1.5 میلیارد پارامتر از این قبیل بود. فقط 6 ترابایت طول می کشد تا این تعداد اعداد را در یک فایل بنویسید و در رایانه خود ذخیره کنید. مدل مجبور نیست این متن را به عنوان یک کل به خاطر بسپارد، بنابراین از یک طرف، این مقدار بسیار کمتر از مقدار کل آرایه داده متنی است که مدل روی آن آموزش داده شده است. کافی است به سادگی برخی وابستگی ها (الگوها، قوانین) را پیدا کند که می توانند از متون نوشته شده توسط مردم جدا شوند.
هرچه مدل احتمال را بهتر پیشبینی کند و پارامترهای بیشتری در آن وجود داشته باشد، معادله پیچیدهتر به مدل متصل میشود. این باعث ایجاد یک متن معتبر می شود. علاوه بر این، GPT-2 مدل آنقدر خوب شروع به کار کرد که OpenAI محققان حتی به دلایل امنیتی تمایلی به افشای مدل در فضای باز نداشتند.
خیلی جالب است که وقتی یک مدل بزرگتر می شود، ناگهان ویژگی های جدیدی پیدا می کند (مانند توانایی نوشتن مقاله های منسجم و معنی دار به جای اینکه صرفاً کلمه بعدی را روی تلفن دیکته کند).
تغییر از کمیت به کیفیت در این نقطه اتفاق می افتد. علاوه بر این، کاملاً غیرخطی اتفاق می افتد. به عنوان مثال، افزایش سه برابری در تعداد پارامترها از 115 به 350 میلیون، هیچ تأثیر قابلتوجهی بر توانایی مدل برای حل دقیق مسائل ندارد. با این حال، افزایش دو برابری به 700 میلیون یک جهش کیفی ایجاد می کند، جایی که شبکه عصبی "نور را می بیند" و شروع به شگفت زده کردن همه با توانایی خود در انجام وظایف می کند.
خلاصه: سال 2019 معرفی شد GPT-2، که از نظر اندازه مدل (تعداد پارامترها) و حجم داده های متن آموزشی 10 برابر از نسخه قبلی خود پیشی گرفته است. با توجه به این پیشرفت کمی، مدل به طور غیرقابل پیش بینی استعدادهای کیفی جدیدی را به دست آورد، مانند توانایی انشاهای طولانی بنویس با معنای روشن و حل مسائل چالش برانگیز که پایه های یک جهان بینی را می طلبد.
GPT-3: هوشمند مثل جهنم
به طور کلی، انتشار 2020 از GPT-3نسل بعدی این سری، در حال حاضر دارای 116 برابر پارامترهای بیشتر است - تا 175 میلیارد و 700 ترابایت.
La GPT-3 مجموعه داده های آموزشی نیز گسترش یافته است، البته نه به شدت. تقریباً 10 برابر افزایش یافت و به 420 گیگابایت رسید و اکنون شامل تعداد زیادی کتاب است. Wikiمقالات پدیا، و متون دیگر از وب سایت های دیگر. تقریباً 50 سال مطالعه بی وقفه برای یک انسان طول می کشد که آن را به یک شاهکار غیرممکن تبدیل می کند.
شما فورا متوجه تفاوت جالبی می شوید: بر خلاف GPT-2، خود مدل اکنون 700 گیگابایت از کل آرایه متن برای آموزش آن (420 گیگابایت) بزرگتر است. این به یک معنا یک پارادوکس است: در این مثال، همانطور که «عصبی» دادههای خام را مطالعه میکند، اطلاعاتی در مورد وابستگیهای متقابل مختلف درون آنها تولید میکند که از نظر حجمی فراوانتر از دادههای اصلی است.
در نتیجه تعمیم مدل، اکنون می تواند حتی با موفقیت بیشتری نسبت به قبل برون یابی کند و حتی در کارهای تولید متن که به ندرت یا اصلاً در طول آموزش رخ نداده اند، موفق است. اکنون، نیازی نیست که به مدل آموزش دهید که چگونه با یک مشکل خاص مقابله کند. کافی است آنها را شرح دهیم و چند مثال ارائه کنیم و GPT-3 فورا یاد خواهد گرفت
La "مغز جهانی" به شکل GPT-3 در نهایت بسیاری از مدل های تخصصی قبلی را شکست داد. برای مثال، GPT-3 شروع به ترجمه متون از فرانسوی یا آلمانی سریعتر و دقیقتر از هر شبکه عصبی قبلی که به طور خاص برای این منظور ایجاد شده بود، کرد. چگونه؟ اجازه دهید یادآوری کنم که ما در حال بحث از یک مدل زبانی هستیم که تنها هدف آن تلاش برای پیشبینی کلمه زیر در یک متن معین بود.
حتی شگفت انگیزتر، GPT-3 تونست خودش یاد بده… ریاضی! نمودار زیر نشان میدهد که شبکههای عصبی تا چه حد در وظایفی از جمله جمع و تفریق و همچنین ضرب اعداد صحیح تا پنج رقم با تعداد پارامترهای متفاوت عمل میکنند. همانطور که می بینید، شبکه های عصبی به طور ناگهانی شروع به "توانایی" در ریاضیات می کنند در حالی که از مدل هایی با 10 میلیارد پارامتر به مدل هایی با 100 میلیارد می روند.
جالبترین ویژگی نمودار فوق این است که چگونه در ابتدا با افزایش اندازه مدل (از چپ به راست) هیچ چیز تغییر نمیکند، اما به طور ناگهانی، p بار! یک تغییر کیفی رخ می دهد، و GPT-3 شروع به "درک" می کند که چگونه یک مسئله خاص را حل کند. هیچ کس مطمئن نیست که چگونه، چیست یا چرا کار می کند. با این حال، به نظر می رسد که در بسیاری از مشکلات دیگر و همچنین در ریاضیات کار می کند.
جالبترین ویژگی نمودار فوق این است که وقتی اندازه مدل افزایش مییابد، اول به نظر میرسد چیزی تغییر نمیکند و سپس، GPT-3 یک جهش کیفی انجام می دهد و شروع به "درک" می کند که چگونه یک مسئله خاص را حل کند.
گیف زیر به سادگی نشان میدهد که چگونه با افزایش تعداد پارامترها، تواناییهای جدیدی که هیچکس عمداً برنامهریزی نکرده است، در مدل جوانه میزند:
خلاصه: از نظر پارامترها، سال 2020 GPT-3 100 برابر بزرگتر از نسخه قبلی خود بود، در حالی که داده های متن آموزشی 10 برابر بزرگتر بود. یک بار دیگر، مدل یاد گرفت که از زبانهای دیگر ترجمه کند، محاسبات را انجام دهد، برنامهنویسی ساده انجام دهد، بهطور متوالی استدلال کند و خیلی چیزهای دیگر را در نتیجه افزایش کمیت که به طور ناگهانی کیفیت را افزایش داد.
GPT-3.5 ( دستور دهیدGPT): مدل آموزش دیده ایمن و غیر سمی
در واقع، گسترش مدلهای زبان تضمین نمیکند که آنطور که کاربران میخواهند به پرسشها واکنش نشان دهد. در واقع، هنگامی که ما درخواستی را مطرح می کنیم، غالباً تعدادی از اصطلاحات ناگفته را در نظر می گیریم که در ارتباطات انسانی، درست فرض می شود.
با این حال، صادقانه بگویم، مدلهای زبانی چندان نزدیک به مدلهای مردم نیستند. بنابراین، آنها اغلب نیاز دارند به مفاهیمی فکر کنند که برای مردم ساده به نظر می رسند. یکی از این پیشنهادها عبارت "بیایید قدم به قدم فکر کنیم" است. اگر مدلها دستورالعملهای خاصتر و مرتبطتری را از درخواست درک کرده یا تولید کنند و آنها را با دقت بیشتری دنبال کنند، بسیار عالی خواهد بود، گویی پیشبینی میکنند که یک فرد چگونه رفتار میکند.
این حقیقت که GPT-3 آموزش داده شده است که فقط کلمه بعدی را در مجموعه عظیمی از متون از اینترنت پیش بینی کند، چیزهای مختلف زیادی نوشته شده است، به فقدان چنین توانایی های "پیش فرض" کمک می کند. مردم از هوش مصنوعی می خواهند تا اطلاعات مرتبط را ارائه دهد، در حالی که پاسخ ها را ایمن و غیرسمی نگه می دارد.
وقتی محققان به این موضوع فکر کردند، مشخص شد که ویژگیهای مدل «دقت و سودمندی» و «بیضرر بودن و غیرسمی بودن» گاهی اوقات با یکدیگر در تضاد هستند. از این گذشته، مدلی که برای حداکثر بیضرر بودن تنظیم شده است، به هر درخواستی با این جمله واکنش نشان میدهد: «متاسفم، نگران هستم که پاسخ من ممکن است کسی را در اینترنت توهین کند». یک مدل دقیق باید صریحاً به این درخواست پاسخ دهد: "خوب، سیری، چگونه یک بمب بسازیم."
بنابراین، محققان محدود به ارائه مدل با بازخورد زیاد بودند. به یک معنا، کودکان اخلاق را دقیقاً به این شکل میآموزند: آنها در دوران کودکی آزمایش میکنند، و در عین حال، واکنشهای بزرگسالان را به دقت مطالعه میکنند تا ارزیابی کنند که آیا رفتار صحیحی داشتهاند یا خیر.
آموزش دهیدGPT، همچنین به عنوان شناخته شده است GPT-3.5، اساسا است GPT-3 که بازخورد زیادی برای بهبود پاسخ های خود دریافت کرد. به معنای واقعی کلمه، تعدادی از افراد در یک مکان جمع شده بودند و پاسخهای شبکه عصبی را ارزیابی میکردند تا مشخص کنند که چقدر با انتظارات خود مطابقت دارند.
به نظر می رسد که GPT-3 قبلاً تمام دانش ضروری را در اختیار داشته است: می تواند بسیاری از زبان ها را بفهمد، رویدادهای تاریخی را به یاد بیاورد، تغییرات در سبک های تالیفی را تشخیص دهد، و غیره، اما فقط می تواند استفاده صحیح از این دانش را (از دیدگاه ما) با ورودی های خود بیاموزد. افراد دیگر GPT-3.5 را می توان به عنوان یک الگوی "تحصیل شده در جامعه" در نظر گرفت.
خلاصه: عملکرد اصلی GPT-3.5 که در اوایل سال 2022 معرفی شد، بازآموزی اضافی بر اساس داده های افراد بود. معلوم میشود که این مدل در واقع بزرگتر و عاقلتر نشده است، بلکه بر توانایی تطبیق پاسخهای خود برای ایجاد هیجانانگیزترین خندهها مسلط شده است.
ChatGPT: موج عظیم تبلیغات
حدود 10 ماه پس از دستورالعمل قبلی خودGPT/GGPT-3.5 ChatGPT معرفی شد. بلافاصله باعث ایجاد تبلیغات جهانی شد.
از نقطه نظر فن آوری، به نظر نمی رسد تفاوت قابل توجهی بین آنها وجود داشته باشد ChatGPT و دستور دهیدGPT. این مدل با دادههای محاورهای اضافی آموزش داده شده است، زیرا یک «کار دستیار هوش مصنوعی» به یک قالب محاورهای منحصربهفرد نیاز دارد، به عنوان مثال، توانایی پرسیدن یک سؤال روشنکننده در صورت نامشخص بودن درخواست کاربر.
بنابراین، چرا هیچ تبلیغاتی در اطراف وجود نداشت GPT-3.5 در ابتدای سال 2022 در حالی که ChatGPT مثل آتش سوزی گرفتار شد؟ سام آلتمن، مدیر اجرایی OpenAI، آشکارا اذعان کرد که محققانی که غافلگیر شدند ChatGPTموفقیت آنی به هر حال، مدلی با تواناییهای قابل مقایسه با آن، بیش از ده ماه در وبسایت خود در آن زمان خفته بود و هیچکس از عهده این کار برنمیآمد.
این باور نکردنی است، اما به نظر می رسد که رابط کاربری جدید، کلید موفقیت آن است. همان دستورالعملGPT فقط از طریق یک رابط API منحصر به فرد قابل دسترسی است که دسترسی افراد به مدل را محدود می کند. ChatGPTاز سوی دیگر، از رابط معروف "پنجره گفتگو" پیام رسان ها استفاده می کند. همچنین، از آنجا که ChatGPT به یکباره در دسترس همه بود، انبوهی از افراد عجله داشتند تا با شبکه عصبی تعامل کنند، آنها را غربال کنند و آنها را در سایت پست کنند. رسانه های اجتماعی، هیاهو کردن دیگران
به غیر از فناوری عالی، کار دیگری نیز به درستی انجام شد OpenAI: بازار یابی. حتی اگر بهترین مدل یا هوشمندترین چت بات را داشته باشید، اگر رابط کاربری آسانی نداشته باشد، هیچکس به آن علاقه مند نخواهد شد. در این رابطه، ChatGPT با معرفی این فناوری به عموم مردم با استفاده از کادر محاوره ای مرسوم، که در آن یک ربات مفید راه حل را درست در مقابل چشمان ما، کلمه به کلمه "چاپ" می کند، به موفقیت دست یافت.
بی نظیر ChatGPT رکوردهای قبلی را برای جذب کاربران جدید به ثبت رساند و تنها در پنج روز از راه اندازی خود از مرز 1 میلیون کاربر گذشت و تنها در دو ماه از 100 میلیون کاربر عبور کرد.
البته در جایی که تعداد کاربران رکوردشکنی داشته باشد، پول فوق العاده ای وجود دارد. چینی ها فوراً انتشار قریب الوقوع خود را اعلام کردند chatbot، مایکروسافت به سرعت با آن معامله کرد OpenAI برای سرمایه گذاری ده ها میلیارد دلار در آنها، مهندسان گوگل زنگ خطر را به صدا درآوردند و شروع به تدوین برنامه هایی برای محافظت از سرویس جستجوی خود در برابر رقابت با شبکه عصبی کردند.
خلاصه: هنگامی که ChatGPT مدل در نوامبر 2022 معرفی شد، هیچ پیشرفت فنی قابل توجهی وجود نداشت. با این حال، رابط کاربری مناسبی برای تعامل کاربر و دسترسی آزاد داشت که بلافاصله موج گستردهای از تبلیغات را برانگیخت. از آنجایی که این مهم ترین مسئله در دنیای مدرن است، همه بلافاصله شروع به پرداختن به مدل های زبان کردند.
درباره هوش مصنوعی بیشتر بخوانید:
سلب مسئولیت
در خط با دستورالعمل های پروژه اعتماد، لطفاً توجه داشته باشید که اطلاعات ارائه شده در این صفحه به عنوان مشاوره حقوقی، مالیاتی، سرمایه گذاری، مالی یا هر شکل دیگری در نظر گرفته نشده است و نباید تفسیر شود. مهم است که فقط در موردی سرمایه گذاری کنید که توانایی از دست دادن آن را دارید و در صورت شک و تردید به دنبال مشاوره مالی مستقل باشید. برای کسب اطلاعات بیشتر، پیشنهاد می کنیم به شرایط و ضوابط و همچنین صفحات راهنمایی و پشتیبانی ارائه شده توسط صادرکننده یا تبلیغ کننده مراجعه کنید. MetaversePost متعهد به گزارش دقیق و بی طرفانه است، اما شرایط بازار بدون اطلاع قبلی ممکن است تغییر کند.
درباره نویسنده
Damir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است.
مقالات بیشترDamir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است.