ویتالیک بوترین و مدیر MIRI نیت سورس به بررسی خطرات هوش مصنوعی می پردازند: آیا هوش مصنوعی می تواند باعث انقراض انسان شود؟
به طور خلاصه
ویتالیک بوترین، بنیانگذار اتریوم و ناتی سورس، مدیر موسسه تحقیقاتی هوش ماشینی، امروز در زوزالو درباره خطرات هوش مصنوعی صحبت کردند.
زوزالو یک جامعه شهری پاپ آپ در مونته نگرو است که توسط بوترین و همتایانش در جامعه کریپتو راه اندازی شده است.
در این بحث، Soares دیدگاه خود را در مورد اینکه چرا هوش مصنوعی به احتمال زیاد به تمام حیات روی زمین پایان می دهد، به اشتراک گذاشت.
ویتالیک بوترین بنیانگذار اتریوم و مدیر موسسه تحقیقات هوش ماشینی (MIRI) نیت سوارس خطرات هوش مصنوعی امروز در زوزالو مورد بحث قرار گرفت.
زوزالو یک "جامعه شهر پاپ آپ" در مونته نگرو است که توسط بوترین و همتایانش در جامعه رمزنگاری از 25 مارس تا 25 مه آغاز شده است. این رویداد 200 ساکن اصلی را با تمایل مشترک برای یادگیری، ایجاد، زندگی طولانی تر و سالم تر گرد هم می آورد. زندگی می کند و جوامع خودپایدار را ایجاد می کند. در طول دو ماه، جامعه همچنین میزبان تعدادی رویداد با موضوعات مختلف مانند زیست شناسی مصنوعی، فناوری برای حفظ حریم خصوصی، کالاهای عمومی، طول عمر، حکومت و موارد دیگر است.
La گفتگو با معرفی Soares کار خود در MIRI، یک سازمان غیرانتفاعی مستقر در برکلی که بیش از زمانی که او آن را اداره می کرد، وجود داشته است، افتتاح شد. در 20 سال گذشته، MIRI تلاش کرده است تا زمینه ای را فراهم کند تا اطمینان حاصل شود که توسعه هوش مصنوعی به خوبی پیش می رود. با این بحث، Vitalik امیدوار بود به آنچه که هوش مصنوعی را در مقایسه با سایر فناوریهای منتشر شده در تاریخ بشر خطرناک میکند، رسیدگی کند.
احتمال اینکه هوش مصنوعی باعث انقراض انسان شود
ویتالیک گفت که او برای مدت طولانی به موضوع خطرات هوش مصنوعی علاقه مند بوده است و به یاد آورد که متقاعد شده است که احتمال 0.5٪ -1٪ وجود دارد که اگر هوش مصنوعی به خطا برود تمام حیات روی زمین وجود ندارد - یک خطر وجودی که باعث می شود انقراض نسل بشر یا فروپاشی برگشت ناپذیر تمدن بشری.
از دیدگاه سوآرس، انقراض انسان نتیجه پیش فرض توسعه ناامن فناوری هوش مصنوعی به نظر می رسد. او در مقایسه آن با تکامل، گفت که به نظر می رسد توسعه بشریت سریعتر از تغییرات صرفاً تکاملی اتفاق می افتد. در هر دو فرآیندهای هوش مصنوعی و تکامل انسان، بهینهسازی غالب - فرآیند یافتن بهترین راهحل برای یک مشکل در صورت وجود اهداف متعدد - در حال تغییر بود. انسانها به نقطهای رسیده بودند که میتوانستند به جای اینکه اطلاعات را از طریق انتخاب طبیعی به ژنها متصل کنند، دانش را از طریق دهان به دهان منتقل کنند.
«هوش مصنوعی در نهایت موردی است که میتوانید فرآیند بهینهسازی ماکروسکوپی را دوباره تغییر دهید. من فکر می کنم شما می توانید از نظر بهینه سازی بسیار بهتر از انسان ها انجام دهید. من فکر می کنم در مورد بهینه سازی محیط اطرافمان هنوز خیلی احمق هستیم. با هوش مصنوعی، ما در حال گذراندن یک نوع انتقال فاز هستیم که در آن بهینهسازی خودکار نیرویی است که ویژگیهای ماکروسکوپی جهان را تعیین میکند.» Soares توضیح داد.
او اضافه کرد که آینده به نظر می رسد همان چیزی است که فرآیند بهینه سازی برای آن بهینه سازی می شود و این احتمالاً برای بشریت مفید نخواهد بود زیرا اکثر اهداف بهینه سازی جایی برای انسان ندارند.
خوانده شده: شرکت مشاوره Axon Partners Group گزارش «در آغوش گرفتن هوش مصنوعی در سال 2023» را منتشر کرد |
آیا انسان ها می توانند هوش مصنوعی را برای انجام کارهای خوب تربیت کنند؟
بوترین اشاره کرد که انسان ها هستند که هوش مصنوعی را آموزش می دهند و به آن می گویند که چگونه بهینه سازی کند. در صورت لزوم، آنها می توانند روش بهینه سازی دستگاه را تغییر دهند. سوآرس در این مورد گفت که اصولاً آموزش هوش مصنوعی برای انجام کارهای خوب امکان پذیر است، اما صرفاً آموزش هوش مصنوعی برای دستیابی به یک هدف به این معنا نیست که او می خواهد یا می خواهد این کار را انجام دهد، بلکه در نهایت میل دارد.
بوترین با اشاره به یادگیری تقویتی در مدلهای زبانی بزرگ که حجم زیادی از دادهها را در مورد ترجیحات انسان دریافت میکنند، پرسید که چرا کار نمیکند، زیرا هوش موجود در درک ترجیحات ما بهتر میشود.
"یک شکاف بزرگ بین درک انگیزه های ما و بد دادن وجود دارد."
سوارس پاسخ داد.
ادعای من این نیست که یک مدل زبان بزرگ یا هوش مصنوعی جزئیات ترجیحات انسانی را درک نمی کند. ادعای من این است که درک نکات جزئی ترجیحات انسان با بهینه سازی برای خیر بسیار متفاوت است.
یکی از حضار مقایسه ای بین هوش مصنوعی و انسان انجام داد و گفت که مانند هوش مصنوعی، انسان ها تمایل دارند کاری را که انجام می دهند یا پیش بینی می کنند درک نکنند، که می تواند خطرناک باشد. او سپس از سوارس خواست وانمود کند که یک بیگانه است و توضیح دهد که چرا انسان نباید وجود داشته باشد.
من از دادن قدرت های خداگونه و کنترل آینده به یک انسان منفرد هیجان زده نمی شوم. بهطور جداگانه، من بسیار هیجانزدهتر از دادن قدرت به یک انسان منفرد خواهم بود تا به یک هوش مصنوعی که نقش تصادفی دارد. من قاطعانه نمی گویم که ما نباید هوش مصنوعی داشته باشیم. من می گویم ما باید آن را درست انجام دهیم. ما باید آنها را وادار کنیم که به آینده ای پر از سرگرمی و شادی و تمدن های شکوفا که در آن فراانسان ها با بیگانگان و غیره مبادلات پولی مثبت انجام می دهند اهمیت دهند. "اگر یک فرآیند بهینه سازی قوی ایجاد کنید که به چیزهای مختلف اهمیت می دهد، به طور بالقوه می تواند تمام ارزش های جهان را از بین ببرد."
او اضافه کرد که چیزهایی که انسان ها برایشان ارزش قائل هستند برای همه قانع کننده نیستند و اخلاق چیزی نیست که هر ذهنی که آن را مطالعه کند دنبال کند. در عوض، این نتیجه انگیزههایی است که در انسان ایجاد شده است که در محیط اجدادی باعث شده است که ما در تولید مثل خوب باشیم و مختص انسانها باشد.
در نهایت، Soares معتقد است که ما نباید چیزی بسازیم که به طور مشابه هوشمندانه یا حتی هوشمندتر باشد که با سرگرمی، شادی و آینده شکوفا سازگار نباشد. از سوی دیگر، او همچنین گفت که بشریت نباید در اولین تلاش خود در طول مسابقه تسلیحاتی، یک ابرهوش دوستانه بسازد که آینده ای سرگرم کننده را بهینه کند. در کوتاه مدت، هوش مصنوعی باید برای کمک به بشریت در خرید زمان و مکان اختصاص داده شود تا بفهمد واقعاً چه میخواهد.
ChatGPT کل زیست کره را مصرف نخواهد کرد
از آنجایی که هوش مصنوعی در حال حاضر برای دستیابی به اهداف خاص، از جمله پیش بینی ساخته می شود، بوترین پرسید، اگر هوش مصنوعی هدف محور نبود چه می شد؟ Soares گفت که ساختن هوش مصنوعی ایمن و غیرقابل آسان است و ممکن است به زودی هوش مصنوعی هایی داشته باشیم که توانایی داشته باشند اما چیزهای مختلفی را دنبال کنند. او فکر نمی کند ChatGPT کل زیست کره را مصرف می کند زیرا در آن سطح از توانایی نیست.
Soares خاطرنشان کرد که بیشتر برنامه های کاربردی جالب هوش مصنوعی، مانند خودکارسازی توسعه و تحقیق علمی و فناوری، به نظر می رسد به دنبال کردن اهداف خاصی نیاز دارند.
«این اشتباهی نیست که بتوانید دریافت کنید GPT برای نوشتن یک هایکوی منظم، اما نمی توانید آن را برای نوشتن یک رمان به دست آورید. محدودیتهای سیستمهای فعلی به این موضوع مربوط میشود که حداقل برای من این اهداف عمیقتر را دنبال نمیکنند.»
ادامه مطلب:
سلب مسئولیت
در خط با دستورالعمل های پروژه اعتماد، لطفاً توجه داشته باشید که اطلاعات ارائه شده در این صفحه به عنوان مشاوره حقوقی، مالیاتی، سرمایه گذاری، مالی یا هر شکل دیگری در نظر گرفته نشده است و نباید تفسیر شود. مهم است که فقط در موردی سرمایه گذاری کنید که توانایی از دست دادن آن را دارید و در صورت شک و تردید به دنبال مشاوره مالی مستقل باشید. برای کسب اطلاعات بیشتر، پیشنهاد می کنیم به شرایط و ضوابط و همچنین صفحات راهنمایی و پشتیبانی ارائه شده توسط صادرکننده یا تبلیغ کننده مراجعه کنید. MetaversePost متعهد به گزارش دقیق و بی طرفانه است، اما شرایط بازار بدون اطلاع قبلی ممکن است تغییر کند.
درباره نویسنده
سیندی یک روزنامه نگار در Metaverse Post، پوشش موضوعات مرتبط با web3, NFT، متاورس و هوش مصنوعی، با تمرکز بر مصاحبه با Web3 بازیگران صنعت او با بیش از 30 مدیر اجرایی در سطح C صحبت کرده است و بینش ارزشمند آنها را برای خوانندگان به ارمغان آورده است. سیندی که اصالتاً اهل سنگاپور است، اکنون در تفلیس، گرجستان مستقر است. او دارای مدرک لیسانس در مطالعات ارتباطات و رسانه از دانشگاه استرالیای جنوبی است و یک دهه تجربه در روزنامه نگاری و نویسندگی دارد. از طریق با او در تماس باشید [ایمیل محافظت شده] با میزهای مطبوعاتی، اطلاعیه ها و فرصت های مصاحبه.
مقالات بیشترسیندی یک روزنامه نگار در Metaverse Post، پوشش موضوعات مرتبط با web3, NFT، متاورس و هوش مصنوعی، با تمرکز بر مصاحبه با Web3 بازیگران صنعت او با بیش از 30 مدیر اجرایی در سطح C صحبت کرده است و بینش ارزشمند آنها را برای خوانندگان به ارمغان آورده است. سیندی که اصالتاً اهل سنگاپور است، اکنون در تفلیس، گرجستان مستقر است. او دارای مدرک لیسانس در مطالعات ارتباطات و رسانه از دانشگاه استرالیای جنوبی است و یک دهه تجربه در روزنامه نگاری و نویسندگی دارد. از طریق با او در تماس باشید [ایمیل محافظت شده] با میزهای مطبوعاتی، اطلاعیه ها و فرصت های مصاحبه.