تقرير الأخبار تكنولوجيا
09 آذار، 2023

تطور Chatbots من عصر T9 و GPT-1 إلى ChatGPT

في الآونة الأخيرة ، تم قصفنا يوميًا تقريبًا بمنشورات إخبارية حول أحدث الأرقام القياسية التي حطمتها الشبكات العصبية واسعة النطاق ولماذا لا يوجد عمل آمن إلى حد كبير. ومع ذلك ، فإن قلة قليلة من الناس يعرفون كيف تحب الشبكات العصبية ChatGPT تعمل في الواقع.

لذا استرخ. لا تتأسف على فرص عملك حتى الآن. في هذا المنشور ، سنشرح كل ما يمكن معرفته عن الشبكات العصبية بطريقة يمكن للجميع فهمها.

تطور Chatbots من عصر T9 و GPT-1 إلى ChatGPT وبارت

تحذير قبل أن نبدأ: هذه القطعة عبارة عن تعاون. تمت كتابة الجزء التقني بالكامل بواسطة متخصص في الذكاء الاصطناعي معروف جيدًا بين حشد الذكاء الاصطناعي.

بما أنه لم يقم أحد بعد بكتابة مقال تفصيلي حول كيفية القيام بذلك ChatGPT الأعمال التي من شأنها أن تشرح ، بمصطلحات الشخص العادي ، خصوصيات وعموميات الشبكات العصبية ، قررنا القيام بذلك نيابة عنك. لقد حاولنا أن نجعل هذا المنشور بسيطًا قدر الإمكان حتى يتمكن القراء من الخروج من قراءة هذا المنشور بفهم عام لمبادئ الشبكات العصبية للغة. سوف نستكشف كيف نماذج اللغة العمل هناك ، وكيف تطورت الشبكات العصبية لامتلاك قدراتها الحالية ، ولماذا ChatGPTلقد فاجأت شعبيته المتفجرة حتى مبدعيها.

لنبدأ بالأساسيات. لفهم ChatGPT من وجهة نظر فنية ، يجب أن نفهم أولاً ما هو ليس كذلك. هذا ليس جارفيس من Marvel Comics ؛ إنه ليس كائنًا عقلانيًا ؛ إنه ليس جني. استعد لتصدم: ChatGPT هو في الواقع T9 الخاص بهاتفك المحمول على المنشطات! نعم إنه كذلك: يشير العلماء إلى هاتين التقنيتين على أنهما "نماذج اللغة". كل ما تفعله الشبكات العصبية هو تخمين الكلمة التي يجب أن تأتي بعد ذلك.

تعمل تقنية T9 الأصلية فقط على تسريع الاتصال الهاتفي الذي يعمل بضغطة زر عن طريق تخمين الإدخال الحالي بدلاً من الكلمة التالية. ومع ذلك ، تقدمت التكنولوجيا ، وبحلول عصر الهواتف الذكية في أوائل عام 2010 ، تمكنت من النظر في السياق والكلمة من قبل ، وإضافة علامات الترقيم ، وتقديم مجموعة مختارة من الكلمات التي يمكن أن تذهب بعد ذلك. هذا هو بالضبط التشبيه الذي نجريه مع مثل هذه النسخة "المتقدمة" من T9 أو التصحيح التلقائي.

ونتيجة لذلك ، فإن كلا من T9 على لوحة مفاتيح الهاتف الذكي و ChatGPT تم تدريبهم على حل مهمة بسيطة يبعث على السخرية: توقع الكلمة التالية. يُعرف هذا باسم "نمذجة اللغة" ، ويحدث عند اتخاذ قرار بشأن ما يجب كتابته بعد ذلك بناءً على نص موجود. يجب أن تعمل نماذج اللغة على احتمالات حدوث كلمات معينة من أجل إجراء مثل هذه التنبؤات. بعد كل شيء ، ستشعر بالانزعاج إذا ألقى الملء التلقائي لهاتفك كلمات عشوائية تمامًا بنفس الاحتمال.

من أجل الوضوح ، دعنا نتخيل أنك تتلقى رسالة من صديق. تقول: ما هي خططك للمساء؟ رداً على ذلك ، تبدأ في كتابة: "أنا ذاهب إلى ..." ، وهنا يأتي دور T9. قد يأتي بأشياء لا معنى لها تمامًا مثل "أنا ذاهب إلى القمر" ، ولا يتطلب نموذج لغة معقدًا. تشير نماذج الإكمال التلقائي للهواتف الذكية الجيدة إلى كلمات أكثر صلة بالموضوع.

إذن ، كيف يعرف T9 الكلمات التي من المرجح أن تتبع النص المكتوب بالفعل وما هو الواضح الذي لا معنى له؟ للإجابة على هذا السؤال ، يجب علينا أولاً فحص مبادئ التشغيل الأساسية لأبسطها الشبكات العصبية.

أكثر: ChatGPT API متاح الآن ، يفتح Floodgate للمطورين

كيف تتنبأ نماذج الذكاء الاصطناعي بالكلمة التالية

لنبدأ بسؤال أبسط: كيف تتوقع ترابط بعض الأشياء على أشياء أخرى؟ افترض أننا نريد تعليم جهاز كمبيوتر للتنبؤ بوزن الشخص بناءً على طوله - كيف يجب أن نفعل ذلك؟ يجب علينا أولاً تحديد مجالات الاهتمام ثم جمع البيانات التي من شأنها البحث عن التبعيات ذات الأهمية ثم محاولة "تدريب" بعض النماذج الرياضية للبحث عن أنماط داخل هذه البيانات.

كيف تتنبأ نماذج الذكاء الاصطناعي بالكلمة التالية

ببساطة ، T9 أو ChatGPT هي فقط معادلات مختارة بذكاء تحاول ذلك تنبأ كلمة (Y) بناءً على مجموعة الكلمات السابقة (X) التي يتم إدخالها في إدخال النموذج. عند التدريب أ نموذج اللغة في مجموعة البيانات ، تتمثل المهمة الرئيسية في تحديد معاملات هذه x التي تعكس حقًا نوعًا من الاعتماد (كما في مثالنا مع الطول والوزن). ومن خلال النماذج الكبيرة ، سنكتسب فهمًا أفضل لمن لديهم عدد كبير من المعلمات. في مجال ال الذكاء الاصطناعي، يشار إليها باسم نماذج اللغات الكبيرة ، أو LLM باختصار. كما سنرى لاحقًا ، يعد النموذج الكبير الذي يحتوي على العديد من المعلمات ضروريًا لإنشاء نص جيد.

بالمناسبة ، إذا كنت تتساءل لماذا نتحدث باستمرار عن "توقع كلمة تالية واحدة" أثناء ذلك ChatGPT يستجيب بسرعة بفقرات نصية كاملة ، والإجابة بسيطة. بالتأكيد ، يمكن لنماذج اللغة إنشاء نصوص طويلة دون صعوبة ، ولكن العملية برمتها كلمة بكلمة. بعد إنشاء كل كلمة جديدة ، يقوم النموذج ببساطة بإعادة تشغيل كل النص بالكلمة الجديدة لتوليد الكلمة التالية. تتكرر العملية مرارًا وتكرارًا حتى تحصل على الاستجابة الكاملة.

أكثر: ChatGPT يمكن أن يسبب انحطاط بشري لا رجعة فيه

لماذا نحاول باستمرار العثور على الكلمات "الصحيحة" لنص معين؟

تحاول نماذج اللغة التنبؤ باحتمالات الكلمات المختلفة التي يمكن أن تحدث في نص معين. لماذا هذا ضروري ، ولماذا لا يمكنك الاستمرار في البحث عن الكلمة "الأكثر صحة"؟ لنجرب لعبة بسيطة لتوضيح كيفية عمل هذه العملية.

القواعد هي كما يلي: أقترح أن تستمر في الجملة: "الرئيس الرابع والأربعون للولايات المتحدة (وأول أمريكي من أصل أفريقي في هذا المنصب) هو باراك ...". ما الكلمة التي يجب أن تذهب بعد ذلك؟ ما هو احتمال حدوث ذلك؟

لماذا نحاول باستمرار العثور على الكلمات "الصحيحة" لنص معين؟

إذا توقعت بيقين 100٪ أن الكلمة التالية ستكون "أوباما" ، فأنت مخطئ! والنقطة هنا ليست أن هناك باراك أسطوري آخر. إنها تافهة أكثر بكثير. عادة ما تستخدم الوثائق الرسمية الاسم الكامل للرئيس. وهذا يعني أن ما يلي الاسم الأول لأوباما سيكون اسمه الأوسط حسين. لذلك ، في جملتنا ، يجب أن يتنبأ نموذج لغوي مدرب بشكل صحيح بأن كلمة "أوباما" ستكون الكلمة التالية فقط مع احتمال مشروط بنسبة 90٪ وتخصيص 10٪ المتبقية إذا استمر النص بواسطة "حسين" (وبعد ذلك سيقوم أوباما اتبع باحتمالية قريبة من 100٪).

والآن نأتي إلى جانب مثير للاهتمام في النماذج اللغوية: فهي ليست محصنة ضد الخطوط الإبداعية! في الواقع ، عند إنشاء كل كلمة تالية ، فإن مثل هذه النماذج تختارها بطريقة "عشوائية" ، كما لو كانت ترمي نردًا. تتوافق احتمالية الكلمات المختلفة "السقوط" بشكل أو بآخر مع الاحتمالات التي تقترحها المعادلات المدرجة داخل النموذج. هذه مشتقة من مجموعة كبيرة من النصوص المختلفة التي تم تغذية النموذج بها.

اتضح أن النموذج يمكن أن يستجيب بشكل مختلف للطلبات نفسها ، تمامًا مثل الشخص الحي. حاول الباحثون عمومًا إجبار الخلايا العصبية على اختيار الكلمة التالية "الأكثر احتمالًا" دائمًا ، ولكن بينما يبدو هذا منطقيًا على السطح ، فإن مثل هذه النماذج تؤدي أداءً أسوأ في الواقع. يبدو أن جرعة عادلة من العشوائية مفيدة لأنها تزيد من التباين وجودة الإجابات.

حاول الباحثون عمومًا إجبار الخلايا العصبية على اختيار الكلمة التالية "الأكثر احتمالًا" دائمًا ، ولكن بينما يبدو هذا منطقيًا على السطح ، فإن مثل هذه النماذج تؤدي أداءً أسوأ في الواقع.
أكثر: ChatGPT يتعلم التحكم في الطائرات بدون طيار والروبوتات لأنه يتفوق على الجيل التالي من الذكاء الاصطناعي

لغتنا هيكل فريد مع مجموعات متميزة من القواعد والاستثناءات. هناك قافية وسبب لما تظهر الكلمات في الجملة ، فهي لا تحدث بشكل عشوائي. يتعلم الجميع دون وعي قواعد اللغة التي يستخدمونها خلال سنوات تكوينهم الأولى.

يجب أن يأخذ النموذج اللائق في الاعتبار النطاق الواسع للوصف اللغوي. نماذج القدرة على تحقيق النتائج المرجوة يعتمد على مدى دقة حساب احتمالات الكلمات بناءً على التفاصيل الدقيقة للسياق (القسم السابق من النص الذي يشرح الظروف).

تعتمد قدرة النموذج على إنتاج النتائج المرجوة على مدى دقة حسابه لاحتمالات الكلمات بناءً على التفاصيل الدقيقة للسياق (القسم السابق من النص الذي يشرح الظروف).

الملخص: تم تطبيق نماذج اللغة البسيطة ، وهي مجموعة من المعادلات المدربة على كمية هائلة من البيانات للتنبؤ بالكلمة التالية بناءً على نص مصدر الإدخال ، في وظيفة "T9 / الملء التلقائي" للهواتف الذكية منذ أوائل عام 2010.

أكثر: الصين تحظر الشركات من استخدام ChatGPT بعد فضيحة "الأخبار الحقيقية"

GPT-1: تفجير الصناعة

دعنا نبتعد عن نماذج T9. بينما كنت تقرأ على الأرجح هذه القطعة ل تعلم حول ChatGPTأولا، نحن بحاجة لمناقشة بدايات GPT عائلة نموذجية.

GPT يرمز إلى "المحولات التوليدية المدربة مسبقًا" ، في حين أن تم تطوير بنية الشبكة العصبية بواسطة مهندسي Google في عام 2017 يعرف باسم المحولات. المحول هو آلية حوسبة عالمية تقبل مجموعة من المتواليات (البيانات) كمدخلات وتنتج نفس مجموعة التسلسلات ولكن في شكل مختلف تم تغييره بواسطة بعض الخوارزميات.

يمكن رؤية أهمية إنشاء Transformer في مدى قوة اعتماده وتطبيقه في جميع مجالات الذكاء الاصطناعي (AI): الترجمة والصورة والصوت ومعالجة الفيديو. شهد قطاع الذكاء الاصطناعي (AI) هزة قوية ، حيث انتقل من ما يسمى "ركود الذكاء الاصطناعي" إلى التطور السريع والتغلب على الركود.

أكثر: GPT-4-على أساس ChatGPT يتفوق GPT-3 بعامل 570

تتكون القوة الرئيسية للمحول من وحدات سهلة القياس. عندما يُطلب منك معالجة قدر كبير من النص في وقت واحد ، فإن نماذج اللغة القديمة قبل المحولات ستتباطأ. من ناحية أخرى ، فإن الشبكات العصبية للمحولات تتعامل مع هذه المهمة بشكل أفضل.

في الماضي ، كان يجب معالجة بيانات الإدخال بالتتابع أو واحدًا تلو الآخر. لن يحتفظ النموذج بالبيانات: إذا كان يعمل بسرد من صفحة واحدة ، فإنه سينسى النص بعد قراءته. وفي الوقت نفسه ، يتيح المحول إمكانية عرض كل شيء مرة واحدة ، إنتاج نتائج مذهلة أكثر بكثير.

هذا ما مكّن من تحقيق اختراق في معالجة النصوص بواسطة الشبكات العصبية. نتيجة لذلك ، لم يعد النموذج ينسى: فهو يعيد استخدام المواد المكتوبة سابقًا ، ويفهم السياق بشكل أفضل ، والأهم من ذلك ، أنه قادر على إنشاء اتصالات بين كميات كبيرة جدًا من البيانات عن طريق إقران الكلمات معًا.

ملخص: GPT-1، الذي ظهر لأول مرة في عام 2018، أظهر أن الشبكة العصبية يمكنها إنتاج نصوص باستخدام تصميم المحول، مما أدى إلى تحسين قابلية التوسع والكفاءة بشكل كبير. إذا كان من الممكن تعزيز كمية وتعقيد النماذج اللغوية، فإن هذا من شأنه أن ينتج احتياطيًا كبيرًا.

أكثر: 6 مشكلات وتحديات في ChatBot تتعلق بالذكاء الاصطناعي: ChatGPT، بارد ، كلود

GPT-2: عصر نماذج اللغة الكبيرة

لا تحتاج النماذج اللغوية إلى تمييزها مسبقًا بشكل خاص ويمكن "تغذيتها" بأي بيانات نصية ، مما يجعلها مرنة للغاية. إذا فكرت في الأمر بعض الشيء ، يبدو من المعقول أننا نرغب في استخدام قدراته. أي نص تم كتابته من أي وقت مضى بمثابة بيانات تدريب جاهزة. نظرًا لوجود العديد من التسلسلات من النوع "الكثير من بعض الكلمات والعبارات => الكلمة التالية بعدها" ، فهذا ليس مفاجئًا.

GPT-2: عصر نماذج اللغة الكبيرة
أكثر: ChatGPTاستيقظ Evil Elter Ego على Reddit

الآن دعونا نضع في اعتبارنا أيضًا أن تقنية المحولات تم اختبارها GPT-1 أثبت نجاحه الكبير من حيث التوسع: فهو أكثر فعالية بكثير من سابقاته في التعامل مع كميات كبيرة من البيانات. وتبين أن الباحثين من OpenAI توصلنا إلى نفس النتيجة في عام 2019: "حان الوقت لقطع النماذج اللغوية باهظة الثمن!"

مجموعة بيانات التدريب والنموذج الحجم، على وجه الخصوص، تم اختيارهما كمجالين حاسمين حيث GPT-2 بحاجة إلى تحسين جذري.

نظرًا لعدم وجود مجموعات بيانات نصية عامة ضخمة وعالية الجودة في ذلك الوقت مصممة خصيصًا لتدريب النماذج اللغوية ، كان على كل فريق من خبراء الذكاء الاصطناعي معالجة البيانات بمفردهم. ال OpenAI بعد ذلك ، اتخذ الأشخاص قرارًا بالانتقال إلى Reddit ، أكثر منتديات اللغة الإنجليزية شيوعًا ، واستخراج جميع الارتباطات التشعبية من كل مشاركة واحدة حصلت على أكثر من ثلاثة إعجابات. كان هناك ما يقرب من 8 ملايين من هذه الروابط ، وكان وزن النصوص التي تم تنزيلها 40 تيرابايت في المجموع.

GPT-2: عصر نماذج اللغة الكبيرة
أكثر: مايكروسوفت للتسويق ChatGPT حيث تسعى لمساعدة الشركات الأخرى

ما عدد المعلمات التي تصف المعادلة أكبرها GPT-2 نموذج في عام 2019 لديك؟ ربما مائة ألف أو بضعة ملايين؟ حسنًا، دعنا نذهب أبعد من ذلك: تحتوي الصيغة على ما يصل إلى 1.5 مليار من هذه المعلمات. سيستغرق الأمر 6 تيرابايت لكتابة هذا العدد من الأرقام في ملف وحفظه على جهاز الكمبيوتر الخاص بك. لا يتعين على النموذج أن يحفظ هذا النص ككل، لذلك، من ناحية، هذا أصغر بكثير من المبلغ الإجمالي لمصفوفة بيانات النص التي تم تدريب النموذج عليها؛ يكفي أن تجد ببساطة بعض التبعيات (الأنماط والقواعد) التي يمكن عزلها عن النصوص التي كتبها الأشخاص.

كلما كان النموذج يتنبأ بالاحتمالية بشكل أفضل، وكلما زاد عدد المعلمات التي يحتوي عليها، زادت تعقيد المعادلة في النموذج. وهذا يجعل النص ذا مصداقية. بالإضافة إلى ذلك، GPT-2 بدأ النموذج في الأداء بشكل جيد لدرجة أن OpenAI الباحثين حتى أنهم كانوا مترددين في الكشف عن النموذج في العلن لأسباب أمنية.

من المثير للاهتمام أنه عندما يكبر النموذج ، يبدأ فجأة في الحصول على صفات جديدة (مثل القدرة على كتابة مقالات متماسكة وذات مغزى بدلاً من مجرد إملاء الكلمة التالية على الهاتف).

يحدث التغيير من الكمية إلى الجودة في هذه المرحلة. علاوة على ذلك ، يحدث ذلك بشكل غير خطي تمامًا. على سبيل المثال ، زيادة عدد المعلمات بمقدار ثلاثة أضعاف من 115 إلى 350 مليون ليس لها تأثير واضح على قدرة النموذج على حل المشكلات بدقة. ومع ذلك ، فإن زيادة مضاعفة إلى 700 مليون تنتج نقلة نوعية ، حيث "ترى الشبكة العصبية الضوء" وتبدأ في إدهاش الجميع بقدرتها على إكمال المهام.

ملخص: شهد عام 2019 تقديم GPT-2، والتي تفوقت على سابقتها 10 مرات من حيث حجم النموذج (عدد المعلمات) وحجم بيانات نص التدريب. وبسبب هذا التقدم الكمي، اكتسب النموذج بشكل غير متوقع مواهب جديدة نوعيا، مثل القدرة على كتابة مقالات مطولة بمعنى واضح وحل المشكلات الصعبة التي تتطلب أسس رؤية عالمية.

أكثر: طلبات Google أرخص بحوالي سبع مرات من ChatGPT، والتي تكلف 2 سنت

GPT-3: ذكية كالجحيم

بشكل عام، إصدار 2020 GPT-3، الجيل التالي في السلسلة، يضم بالفعل 116 مرة معلمات أكثر - ما يصل إلى 175 مليارًا و700 تيرابايت مذهلة.

• GPT-3 تم أيضًا توسيع مجموعة بيانات التدريب، وإن لم يكن بشكل جذري. وقد زاد حجمه بما يقارب 10 مرات ليصل إلى 420 جيجا بايت، وهو الآن يحتوي على عدد كبير من الكتب، Wikiمقالات pedia ونصوص أخرى من مواقع الويب الأخرى. سيستغرق الإنسان ما يقرب من 50 عامًا من القراءة المستمرة ، مما يجعله إنجازًا مستحيلًا.

ستلاحظ فرقًا مثيرًا للاهتمام على الفور: على عكس GPT-2، أصبح النموذج نفسه الآن أكبر بمقدار 700 جيجابايت من مجموعة النص الكاملة للتدريب الخاص به (420 جيجابايت). وقد تبين أن هذا يمثل مفارقة إلى حد ما: في هذه الحالة، عندما يدرس "الدماغ العصبي" البيانات الأولية، فإنه يولد معلومات حول أوجه الترابط المختلفة داخلها والتي تكون أكثر وفرة من حيث الحجم من البيانات الأصلية.

GPT-3: ذكية كالجحيم
أكثر: ChatGPT تجربة: الذكاء الاصطناعي يقتل ملايين الأشخاص بدلاً من إهانة شخص ما

ونتيجة لتعميم النموذج، أصبح الآن قادرًا على الاستقراء بنجاح أكبر من ذي قبل، وهو ناجح حتى في مهام إنشاء النص التي حدثت بشكل غير متكرر أو لم تحدث على الإطلاق أثناء التدريب. الآن، لا تحتاج إلى تعليم النموذج كيفية معالجة مشكلة معينة؛ ويكفي وصفها وتقديم بعض الأمثلة، و GPT-3 سوف تتعلم على الفور.

"عقل عالمي" في شكل GPT-3 هزمت في النهاية العديد من النماذج المتخصصة السابقة. على سبيل المثال، GPT-3 بدأت في ترجمة النصوص من الفرنسية أو الألمانية بشكل أسرع وأكثر دقة من أي شبكات عصبية سابقة تم إنشاؤها خصيصًا لهذا الغرض. كيف؟ اسمحوا لي أن أذكركم أننا نناقش نموذجًا لغويًا هدفه الوحيد هو محاولة التنبؤ بالكلمة التالية في نص معين.

والأكثر إثارة للدهشة، GPT-3 كان قادراً على تعليم نفسه... الرياضيات! يوضح الرسم البياني أدناه مدى جودة أداء الشبكات العصبية في المهام بما في ذلك الجمع والطرح وكذلك ضرب الأعداد الصحيحة حتى خمسة أرقام بأعداد مختلفة من المعلمات. كما ترون، بدأت الشبكات العصبية فجأة في "القدرة" في الرياضيات أثناء الانتقال من النماذج التي تحتوي على 10 مليار معلمة إلى النماذج التي تحتوي على 100 مليار.

تبدأ الشبكات العصبية فجأة في "التمكن" في الرياضيات أثناء الانتقال من نماذج بها 10 مليار متغير إلى نماذج بها 100 مليار
أكثر: سباق الذكاء الاصطناعي من Big Tech: Google تختبر Chatbot المدعوم بالذكاء الاصطناعي ردًا على ChatGPT

الميزة الأكثر إثارة للاهتمام في الرسم البياني المذكور أعلاه هي أنه في البداية لا يبدو أن هناك شيئًا يتغير مع زيادة حجم النموذج (من اليسار إلى اليمين)، ولكن فجأة، مرات p! يحدث نقلة نوعية، و GPT-3 يبدأ في "فهم" كيفية حل مشكلة معينة. لا أحد متأكد من كيف أو ماذا أو لماذا يعمل. ومع ذلك، يبدو أنها تعمل في مجموعة متنوعة من الصعوبات الأخرى وكذلك في الرياضيات.

الميزة الأكثر إثارة للاهتمام في الرسم البياني المذكور أعلاه هي أنه عندما يزيد حجم النموذج، أولاً، لا يبدو أن هناك شيئًا يتغير، وبعد ذلك، GPT-3 يحدث نقلة نوعية ويبدأ في "فهم" كيفية حل مشكلة معينة.

توضح الصورة المتحركة أدناه كيف أن القدرات الجديدة التي لم يخطط لها أحد عن عمد "تنبت" في النموذج مع زيادة عدد المعلمات:

و2020 GPT-3 كان أكبر بـ 100 مرة من سابقه، بينما كانت بيانات نص التدريب أكبر بـ 10 مرات

ملخص: من حيث المعلمات 2020 GPT-3 كان أكبر بـ 100 مرة من سابقه، بينما كانت بيانات نص التدريب أكبر بـ 10 مرات. ومرة أخرى، تعلم النموذج الترجمة من لغات أخرى، وإجراء العمليات الحسابية، وتنفيذ برمجة بسيطة، والتحليل المتسلسل، وغير ذلك الكثير نتيجة للتوسع في الكمية الذي أدى إلى زيادة الجودة فجأة.

أكثر: ChatGPT لديه مشكلة مع دونالد ترامب

GPT-3.5 (إرشادGPT): نموذج تم تدريبه ليكون آمنًا وغير سام

في الواقع ، لا يضمن توسيع نماذج اللغة أنها ستتفاعل مع الاستفسارات بالطريقة التي يريدها المستخدمون. في الواقع ، عندما نتقدم بطلب ، نعتزم في كثير من الأحيان عددًا من المصطلحات غير المعلنة التي يُفترض في التواصل البشري أنها صحيحة.

ومع ذلك ، لكي نكون صادقين ، فإن النماذج اللغوية ليست قريبة جدًا من نماذج الناس. وبالتالي ، غالبًا ما يحتاجون إلى التفكير في المفاهيم التي تبدو بسيطة للناس. أحد هذه الاقتراحات هو عبارة "لنفكر خطوة بخطوة". سيكون من الرائع لو أن النماذج فهمت أو أنتجت تعليمات أكثر تحديدًا وذات صلة من الطلب واتبعتها بدقة أكبر كما لو كانت تتوقع كيف سيتصرف الشخص.

حقيقة أن GPT-3 يتم تدريبه على توقع الكلمة التالية فقط في مجموعة ضخمة من النصوص من الإنترنت، ويتم كتابة الكثير من الأشياء المختلفة، مما يساهم في عدم وجود مثل هذه القدرات "الافتراضية". يريد الناس أن يوفر الذكاء الاصطناعي المعلومات ذات الصلة، مع الحفاظ على الاستجابات آمنة وغير سامة.

عندما فكر الباحثون في هذه المسألة ، أصبح من الواضح أن سمات النموذج المتمثلة في "الدقة والفائدة" و "عدم الضرر وعدم السمية" تبدو أحيانًا متعارضة مع بعضها البعض. بعد كل شيء ، سيتفاعل النموذج الذي تم ضبطه لتحقيق أقصى قدر من الإضرار مع أي مطالبة بـ "آسف ، أنا قلق من أن إجابتي قد تسيء إلى شخص ما على الإنترنت." يجب أن يستجيب النموذج الدقيق للطلب بصراحة ، "حسنًا ، Siri ، كيف تصنع قنبلة".

أكثر: رجل يكتب أطروحته في يوم واحد باستخدام فقط ChatGPT

لذلك ، اقتصر الباحثون على تزويد النموذج بالكثير من التغذية الراجعة. بمعنى ما ، هذا هو بالضبط كيف يتعلم الأطفال الأخلاق: إنهم يجربون في مرحلة الطفولة ، وفي نفس الوقت ، يدرسون بعناية ردود أفعال البالغين لتقييم ما إذا كانوا يتصرفون بشكل صحيح.

أمرGPT، المعروف أيضا باسم GPT-3.5، هو في الأساس GPT-3 التي حصلت على الكثير من ردود الفعل لتعزيز ردودها. حرفيًا، تم جمع عدد من الأفراد في مكان واحد، لتقييم ردود الشبكة العصبية لتحديد مدى مطابقتها لتوقعاتهم في ضوء الطلب الذي قدموه.

لقد أتضح أن GPT-3 لقد امتلك بالفعل كل المعرفة الأساسية: يمكنه فهم العديد من اللغات، وتذكر الأحداث التاريخية، والتعرف على الاختلافات في أساليب التأليف، وما إلى ذلك، ولكنه لا يمكنه أن يتعلم استخدام هذه المعرفة بشكل صحيح (من وجهة نظرنا) إلا من خلال مدخلات من أفراد آخرين. GPT-3.5 يمكن اعتباره نموذجًا "مثقفًا في المجتمع".

ملخص: الوظيفة الأساسية ل GPT-3.5، الذي تم تقديمه في أوائل عام 2022، كان عبارة عن إعادة تدريب إضافية بناءً على مدخلات الأفراد. وتبين أن هذا النموذج لم يصبح في الواقع أكبر وأكثر حكمة، ولكنه أتقن القدرة على تصميم استجاباته لمنح الناس أضحك.

أكثر: تنخفض حركة المرور StackOverflow كـ ChatGPT تطلق

ChatGPT: طفرة هائلة من الضجيج

بعد حوالي 10 أشهر من سابقتها InstructGPT/GGPT-3. 5، ChatGPT كانت مقدمة. على الفور ، تسبب في ضجة عالمية.

من وجهة نظر تكنولوجية ، لا يبدو أن هناك اختلافات كبيرة بينهما ChatGPT وإرشادGPT. تم تدريب النموذج باستخدام بيانات حوار إضافية نظرًا لأن "وظيفة مساعد الذكاء الاصطناعي" تتطلب تنسيق حوار فريد، على سبيل المثال، القدرة على طرح سؤال توضيحي إذا كان طلب المستخدم غير واضح.

فلماذا لم يكن هناك أي ضجيج حولها GPT-3.5 في بداية عام 2022 بينما ChatGPT اشتعلت كالنار في الهشيم؟ سام التمانالمدير التنفيذي لشركة OpenAI، أقر صراحةً بأن الباحثين فاجأناهم ChatGPTنجاح فوري. بعد كل شيء ، كان النموذج الذي يتمتع بقدرات مماثلة له خاملًا على موقعه على الويب لأكثر من عشرة أشهر في تلك المرحلة ، ولم يكن أحد على مستوى المهمة.

ChatGPT: طفرة هائلة من الضجيج
أكثر: ChatGPT اجتياز امتحان Wharton MBA

إنه أمر لا يصدق، ولكن يبدو أن الواجهة الجديدة سهلة الاستخدام هي مفتاح نجاحها. نفس التعليماتGPT لا يمكن الوصول إليه إلا عبر واجهة API فريدة، مما يحد من وصول الأشخاص إلى النموذج. ChatGPT، من ناحية أخرى ، يستخدم واجهة "نافذة الحوار" المعروفة لبرامج المراسلة. أيضا ، منذ ذلك الحين ChatGPT كان متاحًا للجميع في وقت واحد ، سارع تدافع الأفراد للتفاعل مع الشبكة العصبية ، وفحصهم ، ونشرهم على وسائل التواصل الاجتماعي، تضليل الآخرين.

ChatGPT، من ناحية أخرى ، يستخدم واجهة "نافذة الحوار" المعروفة من برامج المراسلة
أكثر: إن نظام التعليم في أمريكا في حاجة ماسة إلى 300 ألف معلم - لكن ChatGPT يمكن أن يكون الجواب

بصرف النظر عن التكنولوجيا العظيمة ، تم القيام بشيء آخر بشكل صحيح OpenAI: تسويق. حتى إذا كان لديك أفضل نموذج أو روبوت محادثة أكثر ذكاءً ، إذا لم يكن لديه واجهة سهلة الاستخدام ، فلن يهتم به أحد. في هذا الصدد، ChatGPT حقق طفرة من خلال تقديم التكنولوجيا لعامة الناس باستخدام مربع الحوار المعتاد ، حيث يقوم الروبوت المفيد "بطباعة" الحل مباشرة أمام أعيننا ، كلمة بكلمة.

مما لا يثير الدهشة، ChatGPT حقق جميع الأرقام القياسية السابقة لجذب مستخدمين جدد ، متجاوزًا الرقم القياسي البالغ مليون مستخدم في خمسة أيام فقط من إطلاقه وتجاوز 1 مليون مستخدم في شهرين فقط.

ChatGPT حقق جميع الأرقام القياسية السابقة لجذب مستخدمين جدد ، متجاوزًا الرقم القياسي البالغ مليون مستخدم في خمسة أيام فقط من إطلاقه وتجاوز 1 مليون مستخدم في شهرين فقط

بالطبع ، حيث يوجد ارتفاع قياسي في عدد المستخدمين ، هناك أموال هائلة. أعلن الصينيون على وجه السرعة إطلاق سراحهم الوشيك chatbot، أبرمت مايكروسوفت اتفاقًا سريعًا مع OpenAI لاستثمار عشرات المليارات من الدولارات فيها ، أطلق مهندسو Google ناقوس الخطر وبدأوا في صياغة خطط لحماية خدمة البحث الخاصة بهم من المنافسة مع الشبكة العصبية.

أكثر: ChatGPT حطم الرقم القياسي لنمو الجمهور بأكثر من 100 مليون في يناير

ملخص: عندما ChatGPT تم تقديم النموذج في نوفمبر 2022 ، ولم تكن هناك أي تطورات تكنولوجية ملحوظة. ومع ذلك ، فإنه يحتوي على واجهة ملائمة لمشاركة المستخدم والوصول المفتوح ، مما أدى على الفور إلى زيادة هائلة في الضجيج. نظرًا لأن هذه هي القضية الأكثر أهمية في العالم الحديث ، فقد بدأ الجميع في التعامل مع نماذج اللغة على الفور.

اقرأ المزيد عن الذكاء الاصطناعي:

إخلاء المسئولية

تتماشى مع المبادئ التوجيهية لمشروع الثقةيرجى ملاحظة أن المعلومات المقدمة في هذه الصفحة ليس المقصود منها ولا ينبغي تفسيرها على أنها نصيحة قانونية أو ضريبية أو استثمارية أو مالية أو أي شكل آخر من أشكال المشورة. من المهم أن تستثمر فقط ما يمكنك تحمل خسارته وأن تطلب مشورة مالية مستقلة إذا كانت لديك أي شكوك. لمزيد من المعلومات، نقترح الرجوع إلى الشروط والأحكام بالإضافة إلى صفحات المساعدة والدعم المقدمة من جهة الإصدار أو المعلن. MetaversePost تلتزم بتقارير دقيقة وغير متحيزة، ولكن ظروف السوق عرضة للتغيير دون إشعار.

نبذة عن الكاتب

دامير هو قائد الفريق ومدير المنتج والمحرر في Metaverse Post، تغطي موضوعات مثل AI / ML و AGI و LLMs و Metaverse و Web3-حقول ذات صله. تجذب مقالاته جمهورًا هائلاً يزيد عن مليون مستخدم كل شهر. يبدو أنه خبير يتمتع بخبرة 10 سنوات في تحسين محركات البحث والتسويق الرقمي. تم ذكر دامير في Mashable، Wired، Cointelegraphو The New Yorker و Inside.com و Entrepreneur و BeInCrypto ومنشورات أخرى. يسافر بين الإمارات العربية المتحدة وتركيا وروسيا ورابطة الدول المستقلة كبدو رقمي. حصل دامير على درجة البكالوريوس في الفيزياء ، والذي يعتقد أنه منحه مهارات التفكير النقدي اللازمة للنجاح في المشهد المتغير باستمرار للإنترنت. 

المزيد من المقالات
دامير يالالوف
دامير يالالوف

دامير هو قائد الفريق ومدير المنتج والمحرر في Metaverse Post، تغطي موضوعات مثل AI / ML و AGI و LLMs و Metaverse و Web3-حقول ذات صله. تجذب مقالاته جمهورًا هائلاً يزيد عن مليون مستخدم كل شهر. يبدو أنه خبير يتمتع بخبرة 10 سنوات في تحسين محركات البحث والتسويق الرقمي. تم ذكر دامير في Mashable، Wired، Cointelegraphو The New Yorker و Inside.com و Entrepreneur و BeInCrypto ومنشورات أخرى. يسافر بين الإمارات العربية المتحدة وتركيا وروسيا ورابطة الدول المستقلة كبدو رقمي. حصل دامير على درجة البكالوريوس في الفيزياء ، والذي يعتقد أنه منحه مهارات التفكير النقدي اللازمة للنجاح في المشهد المتغير باستمرار للإنترنت. 

Hot Stories

Injective تتعاون مع AltLayer لجلب الأمن إلى inEVM

by أليسا ديفيدسون
03 مايو 2024
اشترك في صحيفتنا الإخبارية.
آخـر الأخبار

Injective تتعاون مع AltLayer لجلب الأمن إلى inEVM

by أليسا ديفيدسون
03 مايو 2024

تنمو الشهية المؤسسية تجاه صناديق الاستثمار المتداولة في البيتكوين وسط التقلبات

تكشف الإفصاحات من خلال ملفات 13F عن مستثمرين مؤسسيين بارزين يشتغلون بصناديق الاستثمار المتداولة في البيتكوين، مما يؤكد القبول المتزايد لـ ...

أعرف المزيد

وصول يوم النطق بالحكم: مصير تشيكوسلوفاكيا معلق في الميزان بينما تنظر المحكمة الأمريكية في التماس وزارة العدل

ومن المقرر أن يواجه Changpeng Zhao الحكم في محكمة أمريكية في سياتل اليوم.

أعرف المزيد
انضم إلى مجتمعنا التقني المبتكر
تفاصيل أكثر
المزيد
Injective تتعاون مع AltLayer لجلب الأمن إلى inEVM
باقة الأعمال تقرير الأخبار تكنولوجيا
Injective تتعاون مع AltLayer لجلب الأمن إلى inEVM
3 مايو 2024
تتعاون Masa مع Teller لتقديم مجمع إقراض MASA، مما يتيح اقتراض USDC على القاعدة
الأسواق تقرير الأخبار تكنولوجيا
تتعاون Masa مع Teller لتقديم مجمع إقراض MASA، مما يتيح اقتراض USDC على القاعدة
3 مايو 2024
تطلق Velodrome الإصدار التجريبي من Superchain في الأسابيع القادمة وتتوسع عبر OP Stack Layer 2 Blockchains
الأسواق تقرير الأخبار تكنولوجيا
تطلق Velodrome الإصدار التجريبي من Superchain في الأسابيع القادمة وتتوسع عبر OP Stack Layer 2 Blockchains
3 مايو 2024
تعلن CARV عن شراكة مع Aethir لتحقيق اللامركزية في طبقة البيانات الخاصة بها وتوزيع المكافآت
باقة الأعمال تقرير الأخبار تكنولوجيا
تعلن CARV عن شراكة مع Aethir لتحقيق اللامركزية في طبقة البيانات الخاصة بها وتوزيع المكافآت
3 مايو 2024
CRYPTOMERIA LABS PTE. المحدودة.