شرکت های هوش مصنوعی باید 30 درصد از بودجه خود را صرف تحقیق و توسعه در ایمنی و اخلاق کنند.
آسیب ناشی از تعصب و اطلاعات نادرست از قبل آشکار است. نشانه هایی وجود دارد که خطرات دیگری نیز ممکن است ظاهر شوند. کاهش خطرات فعلی و پیش بینی خطرات در حال ظهور بسیار مهم است.
اگر در حال حاضر در دسترس بودند، نمیدانیم چگونه از ایمن بودن سیستمهای خودکار پیشرفته یا AGI مطمئن شویم یا چگونه آنها را آزمایش کنیم. علاوه بر این، دولت ها فاقد نهادهای لازم برای جلوگیری از سوء استفاده و اعمال شیوه های ایمن هستند، حتی اگر چنین کرده باشند. نویسندگان از توسعه نظارت کارآمد دولتی و هدایت مجدد تلاشهای تحقیق و توسعه به سمت ایمنی و اخلاق حمایت میکنند.
کنترل و صداقت (سیستمهای پیچیدهتر میتوانند با تولید پاسخهای نادرست اما قانعکننده آزمایش را پیشی بگیرند)، استحکام (در شرایط جدید با تغییر توزیع یا ورودیهای متخاصم)، تفسیرپذیری (درک کار)، ارزیابی ریسک (قابلیتهای جدید ظاهر میشوند که پیشبینی آنها دشوار است)، و ظهور چالشهای جدید (حالتهای شکست بیسابقه) از چالشهای تحقیق و توسعه هستند که با توسعه سیستم های هوش مصنوعی قوی تر.
نویسندگان پیشنهاد می کنند که ایمنی و اخلاق باید حداقل یک سوم بودجه تحقیق و توسعه هوش مصنوعی را دریافت کند.
استانداردها باید هم در رابطه با نهادهای ملی و هم در رابطه با حکمرانی جهانی اعمال شوند. هوش مصنوعی فاقد این موارد است، اما صنایع دارویی، مالی و هستهای فاقد آن هستند. اکنون انگیزههایی برای کشورها و کسبوکارها وجود دارد که به بهای امنیت، صرفهجویی کنند. شرکتها میتوانند از پیشرفتهای هوش مصنوعی سود ببرند در حالی که جامعه را متحمل عواقب آن میکنند، درست مانند صنایعی که زبالهها را به رودخانهها میریزند.
دانش فنی قوی و توانایی حرکت سریع از الزامات مؤسسات ملی است. در عرصه جهانی، مشارکت و توافقنامه ضروری است. برای محافظت از تحقیقات دانشگاهی و کاربردهای کم خطر باید از موانع بوروکراتیک برای مدلهای کوچک و قابل پیشبینی اجتناب شود. مدلهای مرزی - گروهی منتخب از قویترین سیستمهایی که بر روی ابررایانههای میلیارد دلاری آموزش دیدهاند - باید بیشترین تمرکز را داشته باشند.
دولت ها باید نسبت به تحولات بازتر باشند تا مقررات مؤثر واقع شوند. رگولاتورها باید ثبت مدل را اجباری کنند، از اطلاعرسان داخلی محافظت کنند، گزارش رویداد را موظف کنند، و توسعه مدلها و استفاده از ابررایانهها را زیر نظر داشته باشند.
تنظیم کننده ها نیز باید قبل از عرضه به این سیستم ها به منظور ارزیابی به این سیستم ها دسترسی داشته باشند بالقوه مضر ویژگی هایی مانند تولید پاتوژن، خود همانند سازی و نفوذ سیستم.
سیستم هایی با پتانسیل خطرناک بودن به روش های کنترلی مختلفی نیاز دارند. مدل مرزی سازندگان همچنین باید از نظر قانونی در قبال هرگونه آسیبی که به سیستمهایشان وارد میشود که میتوانست از آن جلوگیری شود، پاسخگو باشند. این باید سرمایه گذاری امنیتی را تشویق کند. ویژگی های بیشتر، مانند صدور مجوز دولتی، ظرفیت توقف توسعه در پاسخ به به طور بالقوه خطرناک قابلیتها، کنترلهای دسترسی و اقدامات امنیت اطلاعات غیرقابل نفوذ برای هکرهای سطح دولتی، ممکن است برای سیستمهای بسیار توانا مورد نیاز باشد.
اگرچه هیچ قانونی وجود ندارد، کسبوکارها باید به سرعت مسئولیتهای «اگر-آنگاه» خود را با تشریح گامهای دقیقی که در صورت عبور از قابلیتهای مدل خاص از خط قرمز برمیدارند، روشن کنند. این اقدامات نیاز به توضیح کامل و تایید مستقل دارند. بنابراین، آن است. یک جدا مکمل خط مشی خلاصه ای از پایان نامه ها را گردآوری می کند.
- در ماه اکتبر، انجمن مدل مرزی صندوق ایمنی هوش مصنوعی بیش از 10 میلیون دلار معرفی کرده است، با هدف ایجاد پیشرفت در تحقیقات ایمنی هوش مصنوعی. این صندوق، همکاری بین فروم مدل Frontier و شرکای بشردوستانه، از محققان مستقل در سراسر جهان وابسته به موسسات دانشگاهی، سازمانهای تحقیقاتی و استارتآپها حمایت میکند. مشارکت کنندگان اصلی این ابتکار عبارتند از Anthropic، Google، Microsoft، OpenAI، همراه با سازمان های بشردوستانه مانند بنیاد پاتریک جی مک گاورن، بنیاد دیوید و لوسیل پاکارد، اریک اشمیت، و ژان تالین. صندوق ایمنی هوش مصنوعی در درجه اول بر تقویت توسعه تکنیکهای ارزیابی جدید و رویکردهای تیم قرمز برای مدلهای هوش مصنوعی با هدف کشف خطرات احتمالی تمرکز دارد. انجمن در نظر دارد در ماه های آینده یک هیئت مشورتی ایجاد کند و اولین فراخوان خود را برای پیشنهادات و جوایز اعطایی در مدت کوتاهی پس از آن منتشر خواهد کرد.
سلب مسئولیت
در خط با دستورالعمل های پروژه اعتماد، لطفاً توجه داشته باشید که اطلاعات ارائه شده در این صفحه به عنوان مشاوره حقوقی، مالیاتی، سرمایه گذاری، مالی یا هر شکل دیگری در نظر گرفته نشده است و نباید تفسیر شود. مهم است که فقط در موردی سرمایه گذاری کنید که توانایی از دست دادن آن را دارید و در صورت شک و تردید به دنبال مشاوره مالی مستقل باشید. برای کسب اطلاعات بیشتر، پیشنهاد می کنیم به شرایط و ضوابط و همچنین صفحات راهنمایی و پشتیبانی ارائه شده توسط صادرکننده یا تبلیغ کننده مراجعه کنید. MetaversePost متعهد به گزارش دقیق و بی طرفانه است، اما شرایط بازار بدون اطلاع قبلی ممکن است تغییر کند.
درباره نویسنده
Damir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است.
مقالات بیشترDamir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است.