هشدار کارشناسان نسبت به "درج های مخرب" در مجموعه داده های هوش مصنوعی در ChatGPT
به طور خلاصه
ChatGPT به طور بالقوه است اسیب پذیر به دلیل داده های آموزشی
به گفته محققان، تنها با 60 دلار در ایالات متحده، ما میتوانیم 0.01 درصد از مجموعه دادههای LAION-400 یا COYO-700 را در سال 2022 مسموم کنیم.
ChatGPT فن آوری به طور فزاینده ای محبوب شده است، اما اخیرا تحقیق نشان می دهد که این فناوری ممکن است به دلیل داده های آموزشی که استفاده می کند آسیب پذیر باشد. همانطور که مدلها پیچیدهتر میشوند و مجموعههای داده بزرگتر و پیچیدهتر میشوند، عوامل مخرب میتوانند از این آسیبپذیری برای دستکاری مجموعه دادهها سوء استفاده کنند و باعث شوند که مدلهای یادگیری ماشین نتایج نادرست تولید کنند.
توصیه می شود: 10 سهام برتر پیش بینی شده توسط ChatGPT (AI) برای عملکرد بهتر از صندوق های پیشرو جهانی در سال 2023 |
نگرانی اصلی این است که پایگاههای داده رباتهای چت اغلب مجموعههای داده «تایید مشروط» هستند، به این معنی که سطح معینی از اعتماد به دادهها بدون تأیید گسترده وجود دارد. به عبارت دیگر، این مجموعه داده ها اغلب می توانند مسائل اساسی داشته باشند که در نظر گرفته نشده اند. اگرچه اعتبار سنجی مجموعه داده ها اغلب به دلیل اندازه بزرگ آنها انجام نمی شود، پتانسیل عوامل مخرب برای دستکاری این داده ها وجود دارد.
در واقع، محققان پیشنهاد کردهاند که تا سال 2022، مهاجمان میتوانند حدود 60 دلار برای مسموم کردن 0.01 درصد از مجموعه دادههای LAION-400 یا COYO-700 هزینه کنند. اگرچه این خیلی زیاد به نظر نمی رسد، بازیگران مخرب می توانند از این داده های مسموم برای منافع خود استفاده کنند، در صورت عدم کنترل. داده های مخرب در نهایت می توانند نشت به مجموعه دادههای بزرگتر، کیفیت دادهها را خراب میکند و به مدلهای یادگیری ماشینی غیرقابل اعتماد منجر میشود.
لازم است اقدامات لازم برای محافظت از پایگاه های داده در برابر داده های مخرب انجام شود. جمع آوری چندین منبع داده باید به استانداردی برای چت بات تبدیل شود مجموعه داده های آموزشی تا اطمینان حاصل شود که داده ها قابل اعتماد و دقیق هستند. علاوه بر این، شرکتها باید با مجموعه دادهها آزمایش کنند تا مطمئن شوند در برابر عوامل مخرب آسیبپذیر نیستند.
چت ربات های هوش مصنوعی با کد مخرب می توانند در برابر هک آسیب پذیر باشند
تهدید کدهای مخرب در چت بات ها می تواند بسیار جدی باشد. کد مخرب می تواند برای سرقت داده های کاربر، فعال کردن دسترسی مخرب به سرورها و فعال کردن فعالیت های مخرب مانند پول شویی یا استخراج داده ها اگر یک ربات چت هوش مصنوعی بر روی دادههای دارای درجهای مخرب آموزش ببیند، میتواند ناآگاهانه کد مخرب را به پاسخهای خود تزریق کند و ناآگاهانه به عنوان ابزاری برای سود مخرب مورد استفاده قرار گیرد.
این امکان برای عوامل مخرب وجود دارد که از این آسیب پذیری با وارد کردن عمدی یا سهوی کد مخرب به داده های آموزش. علاوه بر این، از آنجایی که چت رباتهای هوش مصنوعی از دادههایی که با آن ارائه میشود یاد میگیرند، این امر میتواند به طور بالقوه منجر به یادگیری پاسخهای نادرست یا حتی رفتار مخرب شود.
خطر دیگری که چت رباتهای هوش مصنوعی ممکن است با آن مواجه شوند، «تطبیق بیش از حد» است. این زمانی است که مدلهای پیشبینی به دقت بر روی دادههایی که داده شدهاند آموزش داده میشوند، بنابراین در صورت ارائه دادههای جدید منجر به پیشبینی ضعیف میشوند. این می تواند یک مشکل خاص به عنوان ربات های چت هوش مصنوعی آموزش داده شده بر روی کدهای مخرب به طور بالقوه می تواند در تزریق کد مخرب به پاسخ های آنها با آشنایی بیشتر با داده ها موثرتر باشد.
آگاهی از خطرات و انجام اقدامات احتیاطی برای تضمین داده های آموزشی مورد استفاده برای آموزش ضروری است ChatGPT ایمن و قابل اعتماد برای جلوگیری از این ضعف های بالقوه است. داده های اولیه مورد استفاده برای آموزش نیز باید جداگانه و منحصر به فرد نگهداری شوند. تبلیغ "درج های مخرب" نباید با منابع دیگر تضاد داشته باشد یا با آنها همپوشانی داشته باشد. اگر «گرفتن» چندین دامنه تایید شده برای اعتبارسنجی داده ها امکان پذیر است، باید بررسی و با سایر دامنه ها مقایسه شود.
فناوری چت بات نوید تغییر نحوه انجام بحث های انسانی توسط افراد را می دهد. اما قبل از اینکه بتواند پتانسیل کامل خود را بشناسد، باید بهبود یابد و از آن محافظت شود. مجموعه دادههای چت رباتها باید به خوبی بررسی و آماده باشند تا از عوامل مخرب جلوگیری شود. با انجام این کار، میتوانیم اطمینان حاصل کنیم که از پتانسیل فناوری به طور کامل استفاده میکنیم و به آن ادامه میدهیم محدودیت از هوش مصنوعی
درباره هوش مصنوعی بیشتر بخوانید:
سلب مسئولیت
در خط با دستورالعمل های پروژه اعتماد، لطفاً توجه داشته باشید که اطلاعات ارائه شده در این صفحه به عنوان مشاوره حقوقی، مالیاتی، سرمایه گذاری، مالی یا هر شکل دیگری در نظر گرفته نشده است و نباید تفسیر شود. مهم است که فقط در موردی سرمایه گذاری کنید که توانایی از دست دادن آن را دارید و در صورت شک و تردید به دنبال مشاوره مالی مستقل باشید. برای کسب اطلاعات بیشتر، پیشنهاد می کنیم به شرایط و ضوابط و همچنین صفحات راهنمایی و پشتیبانی ارائه شده توسط صادرکننده یا تبلیغ کننده مراجعه کنید. MetaversePost متعهد به گزارش دقیق و بی طرفانه است، اما شرایط بازار بدون اطلاع قبلی ممکن است تغییر کند.
درباره نویسنده
Damir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است.
مقالات بیشترDamir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است.