GPT-4 حقایق "توهم آمیز" و خطاهای استدلالی را از قبل به ارث می برد GPT مدل
به طور خلاصه
OpenAI می گوید: GPT-4 دارای محدودیت های مشابه قبلی است GPT مدل.
GPT-4 هنوز حقایق را توهم می کند و خطاهای استدلالی می کند.
با این حال، GPT-4 امتیاز 40 درصد بالاتر از OpenAIجدیدترین GPT-3.5 در ارزیابی های واقعیت خصمانه داخلی شرکت.
OpenAI به کاربران هشدار داده است که آخرین مدل زبان خود، GPT-4، هنوز کاملاً قابل اعتماد نیست و می تواند حقایق را "توهم" کند و خطاهای استدلالی ایجاد کند. این شرکت از کاربران میخواهد هنگام استفاده از خروجیهای مدل زبان، به ویژه در «زمینههای پرمخاطب» احتیاط کنند.
با این حال ، خبر خوب این است که GPT-4 به طور قابل توجهی توهمات را نسبت به مدل های قبلی کاهش می دهد. OpenAI ادعا می کند که GPT-4 امتیاز 40 درصد بالاتر از آخرین GPT-3.5 در مورد ارزیابی واقعیت خصمانه داخلی.
ما در معیارهای خارجی مانند TruthfulQA پیشرفت کردهایم، که توانایی مدل را برای جدا کردن واقعیت از مجموعهای از اظهارات نادرست انتخاب شده توسط مخالفان آزمایش میکند. این پرسشها با پاسخهای نادرست واقعی همراه هستند که از نظر آماری جذاب هستند.» OpenAI در یک نوشت پست های وبلاگ.
علیرغم این پیشرفت، مدل هنوز از رویدادهایی که پس از سپتامبر 2021 رخ داده اند، بی اطلاع است و گاهی اوقات اشتباهات استدلالی ساده ای مانند مدل های قبلی انجام می دهد. بهعلاوه، میتواند در پذیرش اظهارات نادرست آشکار از سوی کاربران بیش از حد ساده لوح باشد و در مشکلات سخت، مانند وارد کردن آسیبپذیریهای امنیتی در کد خود، شکست بخورد. همچنین اطلاعاتی را که ارائه می کند بررسی نمی کند.
مانند پیشینیانش GPT-4 می تواند توصیه های مضر، کد باگ یا اطلاعات نادرست ایجاد کند. با این حال، قابلیت های اضافی مدل منجر به سطوح ریسک جدیدی می شود که باید درک شوند. برای ارزیابی میزان این خطرات، بیش از 50 کارشناس از حوزههای مختلف، از جمله خطرات همسویی هوش مصنوعی، امنیت سایبری، بیوریسک، اعتماد و امنیت، و امنیت بینالمللی، برای آزمایش خصمانه این مدل درگیر شدند. سپس از بازخورد و داده های آنها برای بهبود مدل، مانند جمع آوری داده های اضافی برای بهبود استفاده شد GPT-4توانایی رد درخواست در مورد نحوه سنتز مواد شیمیایی خطرناک.
یکی از راه های اصلی OpenAI کاهش خروجی های مضر با گنجاندن یک سیگنال پاداش ایمنی اضافی در طول آموزش RLHF (یادگیری تقویتی از بازخورد انسانی) است. سیگنال به مدل آموزش میدهد تا درخواستهای محتوای مضر را رد کند defiتوسط دستورالعمل های استفاده از مدل مورد نیاز است. پاداش توسط الف ارائه می شود GPT-4 طبقه بندی کننده صفر شات، که مرزهای ایمنی و سبک تکمیل را بر اساس درخواست های مربوط به ایمنی قضاوت می کند.
OpenAI همچنین گفت که تمایل مدل به پاسخگویی به درخواستهای محتوای غیرمجاز را تا 82 درصد در مقایسه با GPT-3.5 و GPT-4 به درخواست های حساس مانند توصیه های پزشکی و آسیب رساندن به خود مطابق با سیاست های شرکت 29 درصد بیشتر پاسخ می دهد.
در حالی که OpenAIمداخلات، دشواری برانگیختن رفتار بد را افزایش داده است GPT-4، هنوز امکان پذیر است و هنوز جیلبریک هایی وجود دارند که می توانند محتوایی تولید کنند که دستورالعمل های استفاده را نقض می کند.
با رایجتر شدن سیستمهای هوش مصنوعی، دستیابی به درجات بالایی از قابلیت اطمینان در این مداخلات به طور فزایندهای حیاتی میشود. در حال حاضر، تکمیل این محدودیت ها با تکنیک های ایمنی در زمان استقرار مانند نظارت بر سوء استفاده ضروری است.
OpenAI در حال همکاری با محققان خارجی برای درک و ارزیابی بهتر اثرات بالقوه است GPT-4 و مدل های جانشین آن این تیم همچنین در حال توسعه ارزیابی هایی برای قابلیت های خطرناکی است که ممکن است در سیستم های هوش مصنوعی آینده ظاهر شوند. همانطور که آنها به مطالعه بالقوه اجتماعی و اثرات اقتصادی of GPT-4 و سایر سیستم های هوش مصنوعی، OpenAI یافته ها و بینش خود را در زمان مناسب با مردم به اشتراک خواهند گذاشت.
ادامه مطلب:
سلب مسئولیت
در خط با دستورالعمل های پروژه اعتماد، لطفاً توجه داشته باشید که اطلاعات ارائه شده در این صفحه به عنوان مشاوره حقوقی، مالیاتی، سرمایه گذاری، مالی یا هر شکل دیگری در نظر گرفته نشده است و نباید تفسیر شود. مهم است که فقط در موردی سرمایه گذاری کنید که توانایی از دست دادن آن را دارید و در صورت شک و تردید به دنبال مشاوره مالی مستقل باشید. برای کسب اطلاعات بیشتر، پیشنهاد می کنیم به شرایط و ضوابط و همچنین صفحات راهنمایی و پشتیبانی ارائه شده توسط صادرکننده یا تبلیغ کننده مراجعه کنید. MetaversePost متعهد به گزارش دقیق و بی طرفانه است، اما شرایط بازار بدون اطلاع قبلی ممکن است تغییر کند.
درباره نویسنده
سیندی یک روزنامه نگار در Metaverse Post، پوشش موضوعات مرتبط با web3, NFT، متاورس و هوش مصنوعی، با تمرکز بر مصاحبه با Web3 بازیگران صنعت او با بیش از 30 مدیر اجرایی در سطح C صحبت کرده است و بینش ارزشمند آنها را برای خوانندگان به ارمغان آورده است. سیندی که اصالتاً اهل سنگاپور است، اکنون در تفلیس، گرجستان مستقر است. او دارای مدرک لیسانس در مطالعات ارتباطات و رسانه از دانشگاه استرالیای جنوبی است و یک دهه تجربه در روزنامه نگاری و نویسندگی دارد. از طریق با او در تماس باشید [ایمیل محافظت شده] با میزهای مطبوعاتی، اطلاعیه ها و فرصت های مصاحبه.
مقالات بیشترسیندی یک روزنامه نگار در Metaverse Post، پوشش موضوعات مرتبط با web3, NFT، متاورس و هوش مصنوعی، با تمرکز بر مصاحبه با Web3 بازیگران صنعت او با بیش از 30 مدیر اجرایی در سطح C صحبت کرده است و بینش ارزشمند آنها را برای خوانندگان به ارمغان آورده است. سیندی که اصالتاً اهل سنگاپور است، اکنون در تفلیس، گرجستان مستقر است. او دارای مدرک لیسانس در مطالعات ارتباطات و رسانه از دانشگاه استرالیای جنوبی است و یک دهه تجربه در روزنامه نگاری و نویسندگی دارد. از طریق با او در تماس باشید [ایمیل محافظت شده] با میزهای مطبوعاتی، اطلاعیه ها و فرصت های مصاحبه.