گزارش خبری پیشرفته
مارس 09، 2023

تکامل چت ربات ها از T9-Era و GPT-1 به ChatGPT

اخیراً تقریباً هر روز با پست های خبری در مورد آخرین رکوردهای شکسته شده توسط شبکه های عصبی در مقیاس بزرگ و اینکه چرا تقریباً شغل هیچ کس ایمن نیست بمباران شده ایم. با این وجود، تعداد بسیار کمی از مردم از چگونگی دوست داشتن شبکه های عصبی آگاه هستند ChatGPT در واقع عمل کنند.

بنابراین، استراحت کنید. هنوز در مورد آینده شغلی خود افسوس نخورید. در این پست، همه چیزهایی را که باید در مورد شبکه های عصبی بدانیم، به روشی که همه می توانند درک کنند، توضیح خواهیم داد.

تکامل چت ربات ها از T9-Era و GPT-1 به ChatGPT و بارت

یک هشدار قبل از شروع: این قطعه یک همکاری است. کل بخش فنی توسط یک متخصص هوش مصنوعی نوشته شده است که در بین جمعیت هوش مصنوعی مشهور است.

از آنجایی که هیچ کس هنوز یک قطعه عمیق در مورد چگونگی ننوشته است ChatGPT کارهایی که به زبان ساده، زیر و بم شبکه های عصبی را توضیح می دهد، تصمیم گرفتیم این کار را برای شما انجام دهیم. ما سعی کرده‌ایم این پست را تا حد امکان ساده نگه داریم تا خوانندگان بتوانند با درک کلی از اصول شبکه‌های عصبی زبان از خواندن این پست بیرون بیایند. ما چگونگی را بررسی خواهیم کرد مدل های زبان در آنجا کار کنید، چگونه شبکه‌های عصبی تکامل یافتند تا قابلیت‌های فعلی خود را داشته باشند، و چرا ChatGPTمحبوبیت انفجاری حتی سازندگان آن را شگفت زده کرد.

بیایید با اصول اولیه شروع کنیم. فهمیدن ChatGPT از نقطه نظر فنی، ابتدا باید بفهمیم که چه چیزی نیست. این جارویس مارول کامیکس نیست. موجودی عقلانی نیست. این یک جن نیست برای شوکه شدن آماده شوید: ChatGPT در واقع T9 تلفن همراه شما روی استروئید است! بله، این است: دانشمندان به هر دوی این فناوری ها به عنوان "مدل های زبان." تنها کاری که شبکه‌های عصبی انجام می‌دهند این است که حدس می‌زنند چه کلمه‌ای باید در ادامه بیاید.

فناوری اصلی T9 فقط با حدس زدن ورودی فعلی به جای کلمه بعدی، شماره گیری دکمه ای تلفن را افزایش می دهد. با این حال، فناوری پیشرفت کرد، و در اوایل دهه 2010، در عصر گوشی‌های هوشمند، توانست زمینه و کلمه قبلی را در نظر بگیرد، علائم نگارشی اضافه کند و مجموعه‌ای از کلمات را ارائه دهد که می‌توانستند در مرحله بعدی قرار گیرند. این دقیقاً قیاسی است که ما با چنین نسخه "پیشرفته" T9 یا Autocorrect انجام می دهیم.

در نتیجه، هم T9 روی صفحه کلید گوشی هوشمند و هم ChatGPT برای حل یک کار مسخره ساده آموزش دیده اند: پیش بینی کلمه بعدی این به عنوان «مدل‌سازی زبان» شناخته می‌شود و زمانی اتفاق می‌افتد که تصمیمی در مورد آنچه که باید بر اساس متن موجود نوشته شود، گرفته می‌شود. مدل های زبانی باید بر اساس احتمال وقوع کلمات خاص عمل کنند تا بتوانند چنین پیش بینی هایی را انجام دهند. از این گذشته، اگر تکمیل خودکار تلفنتان کلمات کاملاً تصادفی را با همان احتمال به شما بیاورد، آزرده خواهید شد.

برای وضوح، بیایید تصور کنیم که پیامی از یک دوست دریافت می‌کنید. می گوید: "برنامه شما برای عصر چیست؟" در پاسخ، شروع به تایپ کردن می‌کنید: «من می‌روم…»، و اینجاست که T9 وارد می‌شود. ممکن است چیزهای کاملاً مزخرفی مانند «من به ماه می‌روم» بیابد، بدون نیاز به مدل زبان پیچیده. مدل‌های خوب تکمیل خودکار گوشی‌های هوشمند، کلمات بسیار مرتبط‌تری را پیشنهاد می‌کنند.

بنابراین، T9 چگونه می‌داند چه کلماتی احتمالاً متنی را که قبلاً تایپ شده دنبال می‌کنند و چه چیزی به وضوح معنی ندارد؟ برای پاسخ به این سوال، ابتدا باید اصول اساسی عملیات ساده ترین را بررسی کنیم شبکه های عصبی.

بیشتر: ChatGPT API اکنون در دسترس است، Floodgate را برای توسعه دهندگان باز می کند

چگونه مدل های هوش مصنوعی کلمه بعدی را پیش بینی می کنند

اجازه دهید با یک سوال ساده تر شروع کنیم: چگونه وابستگی متقابل برخی چیزها را به دیگران پیش بینی می کنید؟ فرض کنید می‌خواهیم به رایانه یاد دهیم که وزن افراد را بر اساس قد آنها پیش‌بینی کند - چگونه باید این کار را انجام دهیم؟ ابتدا باید حوزه‌های مورد علاقه را شناسایی کنیم و سپس داده‌هایی را جمع‌آوری کنیم تا وابستگی‌های مورد علاقه را بر اساس آن جستجو کنیم و سپس تلاش کنیم تا "آموزش" برخی از مدل های ریاضی برای جستجوی الگوهای درون این داده ها.

چگونه مدل های هوش مصنوعی کلمه بعدی را پیش بینی می کنند

به بیان ساده، T9 یا ChatGPT فقط معادلات هوشمندانه ای هستند که تلاش می کنند پیش بینی یک کلمه (Y) بر اساس مجموعه کلمات قبلی (X) وارد شده به ورودی مدل. هنگام آموزش الف مدل زبان در یک مجموعه داده، وظیفه اصلی انتخاب ضرایبی برای این x است که واقعاً نوعی وابستگی را منعکس می کند (مانند مثال ما با قد و وزن). و با مدل‌های بزرگ، درک بهتری از مدل‌هایی با تعداد زیادی پارامتر به دست خواهیم آورد. در زمینه هوش مصنوعی، از آنها به عنوان مدل های زبان بزرگ یا به اختصار LLM یاد می شود. همانطور که بعدا خواهیم دید، یک مدل بزرگ با پارامترهای زیاد برای تولید متن خوب ضروری است.

به هر حال، اگر تعجب می کنید که چرا ما دائماً در مورد "پیش بینی یک کلمه بعدی" صحبت می کنیم در حالی که ChatGPT به سرعت با کل پاراگراف های متن پاسخ می دهد، پاسخ ساده است. مطمئناً، مدل‌های زبان می‌توانند متون طولانی را بدون مشکل تولید کنند، اما کل فرآیند کلمه به کلمه است. پس از تولید هر کلمه جدید، مدل به سادگی تمام متن را با کلمه جدید دوباره اجرا می کند تا کلمه بعدی تولید شود. این روند بارها و بارها تکرار می شود تا زمانی که کل پاسخ را دریافت کنید.

بیشتر: ChatGPT می تواند باعث انحطاط غیرقابل برگشت انسان شود

چرا ما به دنبال یافتن کلمات "درست" برای یک متن معین هستیم؟

مدل های زبان تلاش می کنند تا احتمالات کلمات مختلفی را که می توانند در یک متن خاص رخ دهند، پیش بینی کنند. چرا این امر ضروری است و چرا نمی توانید به دنبال "صحیح ترین" کلمه باشید؟ بیایید یک بازی ساده را امتحان کنیم تا نحوه عملکرد این فرآیند را نشان دهیم.

قوانین به شرح زیر است: پیشنهاد می کنم این جمله را ادامه دهید: "چهل و چهارمین رئیس جمهور ایالات متحده (و اولین آمریکایی آفریقایی تبار در این سمت) باراک است ...". بعد چه کلمه ای باید باشد؟ احتمال وقوع آن چقدر است؟

چرا ما به دنبال یافتن کلمات "درست" برای یک متن معین هستیم؟

اگر با اطمینان 100% پیش بینی کردید که کلمه بعدی "اوباما" خواهد بود، اشتباه کرده اید! و نکته اینجا این نیست که باراک اسطوره ای دیگری وجود دارد. خیلی پیش پا افتاده تر است در اسناد رسمی معمولاً از نام کامل رئیس جمهور استفاده می شود. این بدان معناست که آنچه پس از نام کوچک اوباما می آید، نام میانی او، حسین است. بنابراین، در جمله ما، یک مدل زبانی آموزش‌دیده باید پیش‌بینی کند که «اوباما» تنها با احتمال شرطی 90 درصد کلمه بعدی خواهد بود و در صورت ادامه متن توسط «حسین» (پس از آن اوباما، 10 درصد باقیمانده را اختصاص دهد. با احتمال نزدیک به 100٪ دنبال کنید.

و اکنون به جنبه جالبی از مدل‌های زبانی می‌رسیم: آنها از رگه‌های خلاقانه مصون نیستند! در واقع، هنگام تولید هر کلمه بعدی، چنین مدل هایی آن را به روشی "تصادفی" انتخاب می کنند، گویی که یک قالب پرتاب می کنند. احتمال "افتادن" کلمات مختلف کم و بیش با احتمالات پیشنهاد شده توسط معادلات درج شده در مدل مطابقت دارد. اینها از مجموعه عظیمی از متون مختلف که مدل تغذیه شده است، مشتق شده است.

معلوم می شود که یک مدل می تواند به درخواست های یکسان پاسخ متفاوتی بدهد، درست مانند یک فرد زنده. محققان عموماً سعی کرده‌اند نورون‌ها را وادار کنند تا همیشه کلمه بعدی «محتمل‌ترین» را انتخاب کنند، اما در حالی که این در ظاهر منطقی به نظر می‌رسد، چنین مدل‌هایی در واقعیت عملکرد بدتری دارند. به نظر می رسد دوز مناسب تصادفی سودمند است زیرا تنوع و کیفیت پاسخ ها را افزایش می دهد.

محققان عموماً سعی کرده‌اند نورون‌ها را مجبور کنند تا همیشه کلمه بعدی را «محتمل‌ترین» انتخاب کنند، اما در حالی که این در ظاهر منطقی به نظر می‌رسد، چنین مدل‌هایی در واقعیت عملکرد بدتری دارند.
بیشتر: ChatGPT یاد می گیرد که پهپادها و ربات ها را در حالی که به هوش مصنوعی نسل بعدی می اندیشد، کنترل کند

زبان ما دارای ساختاری منحصر به فرد با مجموعه های متمایز از قوانین و استثنائات است. برای اینکه چه کلماتی در یک جمله ظاهر می شوند، قافیه و دلیل وجود دارد، آنها فقط به صورت تصادفی رخ نمی دهند. همه به طور ناخودآگاه قواعد زبانی را که استفاده می کنند در سال های اولیه شکل گیری خود می آموزند.

یک مدل مناسب باید دامنه وسیع توصیفی زبان را در نظر بگیرد. مال مدل توانایی ایجاد نتایج مطلوب بستگی به این دارد که چقدر دقیق احتمالات کلمات را بر اساس ظرافت های زمینه محاسبه می کند (بخش قبلی متن که شرایط را توضیح می دهد).

توانایی مدل برای تولید نتایج مورد نظر بستگی به این دارد که چقدر دقیق احتمالات کلمات را بر اساس ظرافت های زمینه محاسبه می کند (بخش قبلی متن که شرایط را توضیح می دهد).

خلاصه: مدل‌های زبان ساده، که مجموعه‌ای از معادلات آموزش داده شده بر روی حجم عظیمی از داده‌ها برای پیش‌بینی کلمه بعدی بر اساس متن منبع ورودی هستند، از اوایل دهه 9 در عملکرد «T2010/Autofill» تلفن‌های هوشمند پیاده‌سازی شده‌اند.

بیشتر: چین شرکت ها را از استفاده منع می کند ChatGPT پس از رسوایی "اخبار واقعی".

GPT-1: منفجر کردن صنعت

بیایید از مدل های T9 دور شویم. در حالی که احتمالاً در حال خواندن این قطعه هستید یاد بگیرید ChatGPT، ابتدا باید در مورد آغاز آن بحث کنیم GPT خانواده مدل

GPT مخفف "ترانسفورماتور از پیش آموزش دیده مولد" است، در حالی که معماری شبکه های عصبی توسط مهندسان گوگل توسعه یافته است در سال 2017 به عنوان ترانسفورماتور شناخته می شود. ترانسفورماتور یک مکانیزم محاسباتی جهانی است که مجموعه‌ای از دنباله‌ها (داده‌ها) را به عنوان ورودی می‌پذیرد و همان مجموعه دنباله‌ها را تولید می‌کند اما به شکل متفاوتی که توسط برخی الگوریتم‌ها تغییر یافته است.

اهمیت ایجاد ترانسفورماتور را می توان در نحوه تهاجمی بودن آن در همه زمینه های هوش مصنوعی (AI) مشاهده کرد: ترجمه، تصویر، صدا و پردازش ویدئو. بخش هوش مصنوعی (AI) تحول قدرتمندی داشت و از به اصطلاح "رکود هوش مصنوعی" به سمت توسعه سریع و غلبه بر رکود حرکت کرد.

بیشتر: GPT-4-مستقر ChatGPT عملکرد بهتر GPT-3 با ضریب 570

نقطه قوت کلیدی ترانسفورماتور از ماژول هایی با مقیاس آسان تشکیل شده است. وقتی از شما خواسته می‌شود که حجم زیادی از متن را به‌طور هم‌زمان پردازش کنید، مدل‌های زبان قدیمی و پیش‌ترانسفورماتور کند می‌شوند. از طرف دیگر شبکه های عصبی ترانسفورماتور این وظیفه را به مراتب بهتر انجام می دهند.

در گذشته، داده های ورودی باید به صورت متوالی یا تک تک پردازش می شدند. مدل داده‌ها را حفظ نمی‌کند: اگر با یک روایت یک صفحه‌ای کار می‌کرد، پس از خواندن متن آن را فراموش می‌کرد. در همین حال، ترانسفورماتور به فرد امکان می دهد همه چیز را به یکباره مشاهده کند. تولید نتایج به طور قابل توجهی خیره کننده تر

این همان چیزی است که باعث پیشرفت در پردازش متون توسط شبکه های عصبی شد. در نتیجه، مدل دیگر فراموش نمی‌کند: از مطالب نوشته شده قبلی استفاده مجدد می‌کند، زمینه را بهتر درک می‌کند، و مهم‌تر از همه، می‌تواند با جفت کردن کلمات با یکدیگر ارتباط بین حجم بسیار زیادی از داده‌ها ایجاد کند.

خلاصه: GPT-1که در سال 2018 معرفی شد، نشان داد که یک شبکه عصبی می تواند متن هایی را با استفاده از طرح ترانسفورماتور تولید کند که مقیاس پذیری و کارایی را به طور قابل توجهی بهبود بخشیده است. اگر امکان افزایش کمیت و پیچیدگی مدل های زبان وجود داشت، ذخیره قابل توجهی ایجاد می کرد.

بیشتر: 6 مشکل و چالش ربات چت هوش مصنوعی: ChatGPT، بارد، کلود

GPT-2: عصر مدل های زبان بزرگ

مدل‌های زبان نیازی به برچسب‌گذاری خاصی از قبل ندارند و می‌توانند با هر داده متنی «تغذیه» شوند، و آنها را بسیار انعطاف‌پذیر می‌سازد. اگر کمی فکر کنید، منطقی به نظر می رسد که بخواهیم از توانایی های آن استفاده کنیم. هر متنی که تا به حال نوشته شده است به عنوان داده های آموزشی آماده عمل می کند. از آنجایی که در حال حاضر توالی های زیادی از نوع "بسیاری از برخی کلمات و عبارات => کلمه بعدی پس از آنها" وجود دارد، این تعجب آور نیست.

GPT-2: عصر مدل های زبان بزرگ
بیشتر: ChatGPT's Evil Elter Ego در Reddit بیدار شد

اکنون بیایید به یاد داشته باشیم که فناوری ترانسفورماتورها روی آن آزمایش شده است GPT-1 ثابت کرد که از نظر مقیاس بندی کاملاً موفق است: در مدیریت حجم زیادی از داده ها به طور قابل توجهی مؤثرتر از نسخه های قبلی خود است. به نظر می رسد که محققان از OpenAI در سال 2019 به همین نتیجه رسید: "زمان آن رسیده که مدل های زبان گران قیمت را کاهش دهیم!"

La مجموعه داده های آموزشی و مدل اندازه، به ویژه، به عنوان دو حوزه مهم انتخاب شدند که در آن GPT-2 باید به شدت بهبود یابد.

از آنجایی که در آن زمان هیچ مجموعه داده متنی عمومی با کیفیت بالایی وجود نداشت که به طور خاص برای آموزش مدل‌های زبان طراحی شده بود، هر تیم از متخصصان هوش مصنوعی مجبور بودند داده‌ها را به تنهایی دستکاری کنند. را OpenAI سپس مردم تصمیم گرفتند به Reddit، محبوب‌ترین انجمن انگلیسی زبان، بروند و تمام لینک‌ها را از هر پستی که بیش از سه لایک داشت، استخراج کنند. تقریبا 8 میلیون از این لینک ها وجود داشت و متون دانلود شده در مجموع 40 ترابایت وزن داشتند.

GPT-2: عصر مدل های زبان بزرگ
بیشتر: مایکروسافت برای تجاری سازی ChatGPT همانطور که به دنبال کمک به شرکت های دیگر است

معادله ای که بزرگترین پارامتر را توصیف می کند، چه تعداد پارامتر را نشان می دهد GPT-2 مدل در سال 2019 دارید؟ شاید صد هزار یا چند میلیون؟ خب، بیایید از این هم فراتر برویم: فرمول حاوی 1.5 میلیارد پارامتر از این قبیل بود. فقط 6 ترابایت طول می کشد تا این تعداد اعداد را در یک فایل بنویسید و در رایانه خود ذخیره کنید. مدل مجبور نیست این متن را به عنوان یک کل به خاطر بسپارد، بنابراین از یک طرف، این مقدار بسیار کمتر از مقدار کل آرایه داده متنی است که مدل روی آن آموزش داده شده است. کافی است به سادگی برخی وابستگی ها (الگوها، قوانین) را پیدا کند که می توانند از متون نوشته شده توسط مردم جدا شوند.

هرچه مدل احتمال را بهتر پیش‌بینی کند و پارامترهای بیشتری در آن وجود داشته باشد، معادله پیچیده‌تر به مدل متصل می‌شود. این باعث ایجاد یک متن معتبر می شود. علاوه بر این، GPT-2 مدل آنقدر خوب شروع به کار کرد که OpenAI محققان حتی به دلایل امنیتی تمایلی به افشای مدل در فضای باز نداشتند.

خیلی جالب است که وقتی یک مدل بزرگتر می شود، ناگهان ویژگی های جدیدی پیدا می کند (مانند توانایی نوشتن مقاله های منسجم و معنی دار به جای اینکه صرفاً کلمه بعدی را روی تلفن دیکته کند).

تغییر از کمیت به کیفیت در این نقطه اتفاق می افتد. علاوه بر این، کاملاً غیرخطی اتفاق می افتد. به عنوان مثال، افزایش سه برابری در تعداد پارامترها از 115 به 350 میلیون، هیچ تأثیر قابل‌توجهی بر توانایی مدل برای حل دقیق مسائل ندارد. با این حال، افزایش دو برابری به 700 میلیون یک جهش کیفی ایجاد می کند، جایی که شبکه عصبی "نور را می بیند" و شروع به شگفت زده کردن همه با توانایی خود در انجام وظایف می کند.

خلاصه: سال 2019 معرفی شد GPT-2، که از نظر اندازه مدل (تعداد پارامترها) و حجم داده های متن آموزشی 10 برابر از نسخه قبلی خود پیشی گرفته است. با توجه به این پیشرفت کمی، مدل به طور غیرقابل پیش بینی استعدادهای کیفی جدیدی را به دست آورد، مانند توانایی انشاهای طولانی بنویس با معنای روشن و حل مسائل چالش برانگیز که پایه های یک جهان بینی را می طلبد.

بیشتر: درخواست های گوگل حدود هفت برابر ارزان تر از ChatGPT، که 2 سنت هزینه دارد

GPT-3: هوشمند مثل جهنم

به طور کلی، انتشار 2020 از GPT-3نسل بعدی این سری، در حال حاضر دارای 116 برابر پارامترهای بیشتر است - تا 175 میلیارد و 700 ترابایت.

La GPT-3 مجموعه داده های آموزشی نیز گسترش یافته است، البته نه به شدت. تقریباً 10 برابر افزایش یافت و به 420 گیگابایت رسید و اکنون شامل تعداد زیادی کتاب است. Wikiمقالات پدیا، و متون دیگر از وب سایت های دیگر. تقریباً 50 سال مطالعه بی وقفه برای یک انسان طول می کشد که آن را به یک شاهکار غیرممکن تبدیل می کند.

شما فورا متوجه تفاوت جالبی می شوید: بر خلاف GPT-2، خود مدل اکنون 700 گیگابایت از کل آرایه متن برای آموزش آن (420 گیگابایت) بزرگتر است. این به یک معنا یک پارادوکس است: در این مثال، همانطور که «عصبی» داده‌های خام را مطالعه می‌کند، اطلاعاتی در مورد وابستگی‌های متقابل مختلف درون آنها تولید می‌کند که از نظر حجمی فراوان‌تر از داده‌های اصلی است.

GPT-3: هوشمند مثل جهنم
بیشتر: ChatGPT آزمایش: هوش مصنوعی ترجیح می دهد میلیون ها نفر را بکشد تا اینکه به کسی توهین کند

در نتیجه تعمیم مدل، اکنون می تواند حتی با موفقیت بیشتری نسبت به قبل برون یابی کند و حتی در کارهای تولید متن که به ندرت یا اصلاً در طول آموزش رخ نداده اند، موفق است. اکنون، نیازی نیست که به مدل آموزش دهید که چگونه با یک مشکل خاص مقابله کند. کافی است آنها را شرح دهیم و چند مثال ارائه کنیم و GPT-3 فورا یاد خواهد گرفت

La "مغز جهانی" به شکل GPT-3 در نهایت بسیاری از مدل های تخصصی قبلی را شکست داد. برای مثال، GPT-3 شروع به ترجمه متون از فرانسوی یا آلمانی سریعتر و دقیقتر از هر شبکه عصبی قبلی که به طور خاص برای این منظور ایجاد شده بود، کرد. چگونه؟ اجازه دهید یادآوری کنم که ما در حال بحث از یک مدل زبانی هستیم که تنها هدف آن تلاش برای پیش‌بینی کلمه زیر در یک متن معین بود.

حتی شگفت انگیزتر، GPT-3 تونست خودش یاد بده… ریاضی! نمودار زیر نشان می‌دهد که شبکه‌های عصبی تا چه حد در وظایفی از جمله جمع و تفریق و همچنین ضرب اعداد صحیح تا پنج رقم با تعداد پارامترهای متفاوت عمل می‌کنند. همانطور که می بینید، شبکه های عصبی به طور ناگهانی شروع به "توانایی" در ریاضیات می کنند در حالی که از مدل هایی با 10 میلیارد پارامتر به مدل هایی با 100 میلیارد می روند.

شبکه های عصبی به طور ناگهانی شروع به "توانایی" در ریاضیات می کنند در حالی که از مدل هایی با 10 میلیارد پارامتر به مدل هایی با 100 میلیارد می روند.
بیشتر: مسابقه هوش مصنوعی Big Tech: گوگل در حال آزمایش چت ربات مجهز به هوش مصنوعی در پاسخ به ChatGPT

جالب‌ترین ویژگی نمودار فوق این است که چگونه در ابتدا با افزایش اندازه مدل (از چپ به راست) هیچ چیز تغییر نمی‌کند، اما به طور ناگهانی، p بار! یک تغییر کیفی رخ می دهد، و GPT-3 شروع به "درک" می کند که چگونه یک مسئله خاص را حل کند. هیچ کس مطمئن نیست که چگونه، چیست یا چرا کار می کند. با این حال، به نظر می رسد که در بسیاری از مشکلات دیگر و همچنین در ریاضیات کار می کند.

جالب‌ترین ویژگی نمودار فوق این است که وقتی اندازه مدل افزایش می‌یابد، اول به نظر می‌رسد چیزی تغییر نمی‌کند و سپس، GPT-3 یک جهش کیفی انجام می دهد و شروع به "درک" می کند که چگونه یک مسئله خاص را حل کند.

گیف زیر به سادگی نشان می‌دهد که چگونه با افزایش تعداد پارامترها، توانایی‌های جدیدی که هیچ‌کس عمداً برنامه‌ریزی نکرده است، در مدل جوانه می‌زند:

2020 GPT-3 100 برابر بزرگتر از نسخه قبلی خود بود، در حالی که داده های متن آموزشی 10 برابر بزرگتر بود

خلاصه: از نظر پارامترها، سال 2020 GPT-3 100 برابر بزرگتر از نسخه قبلی خود بود، در حالی که داده های متن آموزشی 10 برابر بزرگتر بود. یک بار دیگر، مدل یاد گرفت که از زبان‌های دیگر ترجمه کند، محاسبات را انجام دهد، برنامه‌نویسی ساده انجام دهد، به‌طور متوالی استدلال کند و خیلی چیزهای دیگر را در نتیجه افزایش کمیت که به طور ناگهانی کیفیت را افزایش داد.

بیشتر: ChatGPT با دونالد ترامپ مشکل دارد

GPT-3.5 ( دستور دهیدGPT): مدل آموزش دیده ایمن و غیر سمی

در واقع، گسترش مدل‌های زبان تضمین نمی‌کند که آن‌طور که کاربران می‌خواهند به پرسش‌ها واکنش نشان دهد. در واقع، هنگامی که ما درخواستی را مطرح می کنیم، غالباً تعدادی از اصطلاحات ناگفته را در نظر می گیریم که در ارتباطات انسانی، درست فرض می شود.

با این حال، صادقانه بگویم، مدل‌های زبانی چندان نزدیک به مدل‌های مردم نیستند. بنابراین، آنها اغلب نیاز دارند به مفاهیمی فکر کنند که برای مردم ساده به نظر می رسند. یکی از این پیشنهادها عبارت "بیایید قدم به قدم فکر کنیم" است. اگر مدل‌ها دستورالعمل‌های خاص‌تر و مرتبط‌تری را از درخواست درک کرده یا تولید کنند و آن‌ها را با دقت بیشتری دنبال کنند، بسیار عالی خواهد بود، گویی پیش‌بینی می‌کنند که یک فرد چگونه رفتار می‌کند.

این حقیقت که GPT-3 آموزش داده شده است که فقط کلمه بعدی را در مجموعه عظیمی از متون از اینترنت پیش بینی کند، چیزهای مختلف زیادی نوشته شده است، به فقدان چنین توانایی های "پیش فرض" کمک می کند. مردم از هوش مصنوعی می خواهند تا اطلاعات مرتبط را ارائه دهد، در حالی که پاسخ ها را ایمن و غیرسمی نگه می دارد.

وقتی محققان به این موضوع فکر کردند، مشخص شد که ویژگی‌های مدل «دقت و سودمندی» و «بی‌ضرر بودن و غیرسمی بودن» گاهی اوقات با یکدیگر در تضاد هستند. از این گذشته، مدلی که برای حداکثر بی‌ضرر بودن تنظیم شده است، به هر درخواستی با این جمله واکنش نشان می‌دهد: «متاسفم، نگران هستم که پاسخ من ممکن است کسی را در اینترنت توهین کند». یک مدل دقیق باید صریحاً به این درخواست پاسخ دهد: "خوب، سیری، چگونه یک بمب بسازیم."

بیشتر: مردی پایان نامه خود را فقط با استفاده از یک روز می نویسد ChatGPT

بنابراین، محققان محدود به ارائه مدل با بازخورد زیاد بودند. به یک معنا، کودکان اخلاق را دقیقاً به این شکل می‌آموزند: آنها در دوران کودکی آزمایش می‌کنند، و در عین حال، واکنش‌های بزرگسالان را به دقت مطالعه می‌کنند تا ارزیابی کنند که آیا رفتار صحیحی داشته‌اند یا خیر.

آموزش دهیدGPT، همچنین به عنوان شناخته شده است GPT-3.5، اساسا است GPT-3 که بازخورد زیادی برای بهبود پاسخ های خود دریافت کرد. به معنای واقعی کلمه، تعدادی از افراد در یک مکان جمع شده بودند و پاسخ‌های شبکه عصبی را ارزیابی می‌کردند تا مشخص کنند که چقدر با انتظارات خود مطابقت دارند.

به نظر می رسد که GPT-3 قبلاً تمام دانش ضروری را در اختیار داشته است: می تواند بسیاری از زبان ها را بفهمد، رویدادهای تاریخی را به یاد بیاورد، تغییرات در سبک های تالیفی را تشخیص دهد، و غیره، اما فقط می تواند استفاده صحیح از این دانش را (از دیدگاه ما) با ورودی های خود بیاموزد. افراد دیگر GPT-3.5 را می توان به عنوان یک الگوی "تحصیل شده در جامعه" در نظر گرفت.

خلاصه: عملکرد اصلی GPT-3.5 که در اوایل سال 2022 معرفی شد، بازآموزی اضافی بر اساس داده های افراد بود. معلوم می‌شود که این مدل در واقع بزرگ‌تر و عاقل‌تر نشده است، بلکه بر توانایی تطبیق پاسخ‌های خود برای ایجاد هیجان‌انگیزترین خنده‌ها مسلط شده است.

بیشتر: ترافیک StackOverflow به شدت کاهش می یابد ChatGPT راه اندازی

ChatGPT: موج عظیم تبلیغات

حدود 10 ماه پس از دستورالعمل قبلی خودGPT/GGPT-3.5 ChatGPT معرفی شد. بلافاصله باعث ایجاد تبلیغات جهانی شد.

از نقطه نظر فن آوری، به نظر نمی رسد تفاوت قابل توجهی بین آنها وجود داشته باشد ChatGPT و دستور دهیدGPT. این مدل با داده‌های محاوره‌ای اضافی آموزش داده شده است، زیرا یک «کار دستیار هوش مصنوعی» به یک قالب محاوره‌ای منحصربه‌فرد نیاز دارد، به عنوان مثال، توانایی پرسیدن یک سؤال روشن‌کننده در صورت نامشخص بودن درخواست کاربر.

بنابراین، چرا هیچ تبلیغاتی در اطراف وجود نداشت GPT-3.5 در ابتدای سال 2022 در حالی که ChatGPT مثل آتش سوزی گرفتار شد؟ سام آلتمن، مدیر اجرایی OpenAI، آشکارا اذعان کرد که محققانی که غافلگیر شدند ChatGPTموفقیت آنی به هر حال، مدلی با توانایی‌های قابل مقایسه با آن، بیش از ده ماه در وب‌سایت خود در آن زمان خفته بود و هیچ‌کس از عهده این کار برنمی‌آمد.

ChatGPT: موج عظیم تبلیغات
بیشتر: ChatGPT امتحان MBA وارتون را قبول می کند

این باور نکردنی است، اما به نظر می رسد که رابط کاربری جدید، کلید موفقیت آن است. همان دستورالعملGPT فقط از طریق یک رابط API منحصر به فرد قابل دسترسی است که دسترسی افراد به مدل را محدود می کند. ChatGPTاز سوی دیگر، از رابط معروف "پنجره گفتگو" پیام رسان ها استفاده می کند. همچنین، از آنجا که ChatGPT به یکباره در دسترس همه بود، انبوهی از افراد عجله داشتند تا با شبکه عصبی تعامل کنند، آنها را غربال کنند و آنها را در سایت پست کنند. رسانه های اجتماعی، هیاهو کردن دیگران

ChatGPTاز سوی دیگر، ob از رابط شناخته شده "پنجره گفتگو" پیام رسان ها استفاده می کند
بیشتر: سیستم آموزشی آمریکا به 300 هزار معلم نیاز مبرم دارد - اما ChatGPT می تواند پاسخ باشد

به غیر از فناوری عالی، کار دیگری نیز به درستی انجام شد OpenAI: بازار یابی. حتی اگر بهترین مدل یا هوشمندترین چت بات را داشته باشید، اگر رابط کاربری آسانی نداشته باشد، هیچکس به آن علاقه مند نخواهد شد. در این رابطه، ChatGPT با معرفی این فناوری به عموم مردم با استفاده از کادر محاوره ای مرسوم، که در آن یک ربات مفید راه حل را درست در مقابل چشمان ما، کلمه به کلمه "چاپ" می کند، به موفقیت دست یافت.

بی نظیر ChatGPT رکوردهای قبلی را برای جذب کاربران جدید به ثبت رساند و تنها در پنج روز از راه اندازی خود از مرز 1 میلیون کاربر گذشت و تنها در دو ماه از 100 میلیون کاربر عبور کرد.

ChatGPT رکوردهای قبلی را برای جذب کاربران جدید به ثبت رساند و تنها در پنج روز از راه اندازی خود از مرز 1 میلیون کاربر عبور کرد و تنها در دو ماه از 100 میلیون کاربر عبور کرد.

البته در جایی که تعداد کاربران رکوردشکنی داشته باشد، پول فوق العاده ای وجود دارد. چینی ها فوراً انتشار قریب الوقوع خود را اعلام کردند chatbot، مایکروسافت به سرعت با آن معامله کرد OpenAI برای سرمایه گذاری ده ها میلیارد دلار در آنها، مهندسان گوگل زنگ خطر را به صدا درآوردند و شروع به تدوین برنامه هایی برای محافظت از سرویس جستجوی خود در برابر رقابت با شبکه عصبی کردند.

بیشتر: ChatGPT رکورد رشد مخاطب را با بیش از 100 میلیون نفر در ژانویه شکست

خلاصه: هنگامی که ChatGPT مدل در نوامبر 2022 معرفی شد، هیچ پیشرفت فنی قابل توجهی وجود نداشت. با این حال، رابط کاربری مناسبی برای تعامل کاربر و دسترسی آزاد داشت که بلافاصله موج گسترده‌ای از تبلیغات را برانگیخت. از آنجایی که این مهم ترین مسئله در دنیای مدرن است، همه بلافاصله شروع به پرداختن به مدل های زبان کردند.

درباره هوش مصنوعی بیشتر بخوانید:

سلب مسئولیت

در خط با دستورالعمل های پروژه اعتماد، لطفاً توجه داشته باشید که اطلاعات ارائه شده در این صفحه به عنوان مشاوره حقوقی، مالیاتی، سرمایه گذاری، مالی یا هر شکل دیگری در نظر گرفته نشده است و نباید تفسیر شود. مهم است که فقط در موردی سرمایه گذاری کنید که توانایی از دست دادن آن را دارید و در صورت شک و تردید به دنبال مشاوره مالی مستقل باشید. برای کسب اطلاعات بیشتر، پیشنهاد می کنیم به شرایط و ضوابط و همچنین صفحات راهنمایی و پشتیبانی ارائه شده توسط صادرکننده یا تبلیغ کننده مراجعه کنید. MetaversePost متعهد به گزارش دقیق و بی طرفانه است، اما شرایط بازار بدون اطلاع قبلی ممکن است تغییر کند.

درباره نویسنده

Damir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است. 

مقالات بیشتر
دامیر یالالوف
دامیر یالالوف

Damir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است. 

Hot Stories
به خبرنامه ما بپیوندید.
آخرین اخبار

در میان نوسانات، اشتهای سازمانی به سمت ETF های بیت کوین رشد می کند

افشاگری از طریق پرونده های 13F نشان می دهد که سرمایه گذاران نهادی قابل توجهی در ETF های بیت کوین مشغول هستند و بر پذیرش فزاینده ...

بیشتر بدانید

روز صدور حکم فرا می رسد: با بررسی دادگاه ایالات متحده به درخواست وزارت دادگستری، سرنوشت CZ در تعادل است

چانگ پنگ ژائو امروز در دادگاهی در سیاتل آمریکا محکوم خواهد شد.

بیشتر بدانید
به انجمن فناوری نوآورانه ما بپیوندید
ادامه مطلب
ادامه مطلب
Injective با AltLayer نیروها را به هم می پیوندد تا امنیت مجدد را به inEVM بیاورد
کسب و کار گزارش خبری پیشرفته
Injective با AltLayer نیروها را به هم می پیوندد تا امنیت مجدد را به inEVM بیاورد
ممکن است 3، 2024
Masa با Teller همکاری می کند تا استخر وام MASA را معرفی کند، وام USDC را بر اساس امکان پذیر می کند
بازارها گزارش خبری پیشرفته
Masa با Teller همکاری می کند تا استخر وام MASA را معرفی کند، وام USDC را بر اساس امکان پذیر می کند
ممکن است 3، 2024
Velodrome نسخه بتا سوپرچین را در هفته‌های آینده عرضه می‌کند و در سراسر بلاک‌چین‌های OP Stack Layer 2 گسترش می‌یابد
بازارها گزارش خبری پیشرفته
Velodrome نسخه بتا سوپرچین را در هفته‌های آینده عرضه می‌کند و در سراسر بلاک‌چین‌های OP Stack Layer 2 گسترش می‌یابد
ممکن است 3، 2024
CARV شراکت با Aethir را برای تمرکززدایی لایه داده خود و توزیع جوایز اعلام می کند.
کسب و کار گزارش خبری پیشرفته
CARV شراکت با Aethir را برای تمرکززدایی لایه داده خود و توزیع جوایز اعلام می کند.
ممکن است 3، 2024
CRYPTOMERIA LABS PTE. محدود