AI Wiki پیشرفته
ممکن است 18، 2023

10 برتر هوش مصنوعی و ChatGPT خطرات و خطرات در سال 2023

با پیشرفت های هوش مصنوعی (AI) و فناوری چت بات، شرکت های بیشتری به دنبال راه حل های خودکار خدمات مشتری به عنوان وسیله ای برای بهبود تجربه مشتری خود و کاهش هزینه های سربار هستند. در حالی که استفاده از مدل‌های هوش مصنوعی و راه‌حل‌های چت بات مزایای زیادی دارد، خطرات و خطرات مختلفی نیز در ارتباط با این فناوری باقی می‌ماند، به‌ویژه زمانی که این فناوری‌ها در دهه آینده فراگیرتر و در زندگی روزمره ما ادغام می‌شوند.

این هفته همه در سنای ایالات متحده به صحبت های سم آلتمن در مورد مقررات و خطرات مدل های هوش مصنوعی گوش دادند. در اینجا یک خلاصه اساسی وجود دارد:

Bioweapons

Bioweapons
@Midjourney

استفاده از هوش مصنوعی (AI) در توسعه تسلیحات زیستی روش خطرناک و روشمند و کارآمدی برای ایجاد سلاح های کشتار جمعی قدرتمند و کشنده ارائه می دهد. ChatGPT رباتها دستیارهای مکالمه مبتنی بر هوش مصنوعی هستند که قادر به برقراری مکالمات واقعی با انسان هستند. نگرانی با ChatGPT ربات ها این است که پتانسیل استفاده برای انتشار اطلاعات نادرست و دستکاری ذهن ها به منظور تأثیرگذاری را دارند افکار عمومی.

من نسبت به سوء استفاده احتمالی از هوش مصنوعی در ساخت سلاح های بیولوژیکی هشدار دادم و بر لزوم تنظیم مقررات برای جلوگیری از چنین سناریوهایی تاکید کردم.

سام آلتمن

مقررات یک جزء کلیدی برای جلوگیری از سوء استفاده از هوش مصنوعی و ChatGPT ربات ها در توسعه و استقرار سلاح های زیستی. دولت ها باید برنامه های اقدام ملی را برای رسیدگی به سوء استفاده احتمالی از فناوری توسعه دهند و شرکت ها باید در قبال هرگونه سوء استفاده احتمالی از آنها پاسخگو باشند. هوش مصنوعی و ChatGPT رباتها. سازمان های بین المللی باید در ابتکاراتی سرمایه گذاری کنند که بر آموزش، نظارت و آموزش هوش مصنوعی و ChatGPT ربات ها

از دست دادن شغل

از دست دادن شغل
@Midjourney

احتمال از دست دادن شغل به دلیل هوش مصنوعی و ChatGPT در سال 2023 سه برابر بیشتر از سال 2020 پیش بینی می شود. هوش مصنوعی و ChatGPT می تواند منجر به افزایش ناامنی در محل کار، ملاحظات اخلاقی و تأثیر روانی بر کارگران شود. هوش مصنوعی و ChatGPT می تواند برای نظارت بر رفتار و فعالیت های کارکنان مورد استفاده قرار گیرد و به کارفرمایان اجازه می دهد تا به سرعت و بدون نیاز به مشارکت پرسنل انسانی تصمیم گیری کنند. علاوه بر این، هوش مصنوعی و ChatGPT می تواند باعث تصمیم گیری های ناعادلانه و مغرضانه شود که ممکن است منجر به ناامنی مالی، اجتماعی و عاطفی در محل کار شود.

من تاکید کردم که توسعه هوش مصنوعی می تواند منجر به از دست دادن شغل قابل توجه و افزایش نابرابری شود.

سام آلتمن

مقررات هوش مصنوعی

مقررات هوش مصنوعی
@Midjourney

این مقاله به بررسی خطرات احتمالی و خطرات پیرامون هوش مصنوعی و ChatGPT مقررات در سال 2023. هوش مصنوعی و ChatGPT تکنیک می تواند برای انجام فعالیت های بالقوه مخرب مانند پروفایل افراد بر اساس رفتارها و فعالیت های آنها استفاده شود. عدم وجود مناسب مقررات هوش مصنوعی می تواند منجر به عواقب ناخواسته مانند نقض داده ها یا تبعیض شود. مقررات هوش مصنوعی می تواند با تنظیم دستورالعمل های دقیق برای اطمینان از آن به کاهش این خطر کمک کند ChatGPT سیستم های به روشی مخرب استفاده نمی شوند. در نهایت، هوش مصنوعی و ChatGPT می تواند به یک عامل کنترل کننده در زندگی ما تبدیل شود و چیزهایی مانند جریان ترافیک و بازارهای مالی را کنترل کند و حتی برای تأثیرگذاری بر زندگی سیاسی و اجتماعی ما مورد استفاده قرار گیرد. برای جلوگیری از این نوع عدم تعادل قدرت، نیاز به اجرای مقررات سختگیرانه وجود دارد.

ما پیشنهاد ایجاد یک آژانس جدید برای مجوز و هوش مصنوعی را تنظیم کنید فعالیت ها در صورتی که توانایی های آنها از یک آستانه خاص فراتر رود.

سام آلتمن

استانداردهای امنیتی

استانداردهای امنیتی
@Midjourney

فناوری‌های هوش مصنوعی و چت‌بات باعث پیشرفت در نحوه مدیریت زندگی روزمره ما می‌شوند. همانطور که این فناوری‌ها پیشرفته‌تر می‌شوند، این پتانسیل را دارند که مستقل شوند و خودشان تصمیم بگیرند. برای جلوگیری از این، استانداردهای امنیتی باید مشخص شود که این مدل‌ها باید قبل از استقرار با یکدیگر ملاقات کنند. یکی از استانداردهای امنیتی اصلی پیشنهاد شده توسط آلتمن در سال 2023، آزمایشی برای خود تکراری است که اطمینان حاصل می کند که مدل هوش مصنوعی قادر به تکرار بدون مجوز نیست. دومین استاندارد امنیتی پیشنهاد شده توسط آلتمن در سال 2023، آزمایشی برای استخراج داده ها است که اطمینان حاصل می کند که مدل های هوش مصنوعی قادر به استخراج داده ها از یک سیستم بدون مجوز نیستند. دولت ها در سرتاسر جهان شروع به اقدام برای محافظت از شهروندان در برابر خطرات احتمالی کرده اند.

ما باید استانداردهای امنیتی را که مدل‌های هوش مصنوعی قبل از استقرار باید رعایت کنند، اجرا کنیم، از جمله آزمایش‌هایی برای خود تکراری و استخراج داده‌ها.

سام آلتمن

حسابرسی های مستقل

حسابرسی های مستقل
@Midjourney

در سال 2023، نیاز به ممیزی مستقل از فناوری های هوش مصنوعی و LLM به طور فزاینده ای مهم می شود. هوش مصنوعی خطرات مختلفی دارد، مانند الگوریتم‌های یادگیری ماشینی بدون نظارت که می‌توانند داده‌ها را به‌طور غیرارادی تغییر داده و حتی حذف کنند، و حملات سایبری به طور فزاینده‌ای هوش مصنوعی و هوش مصنوعی را هدف قرار می‌دهند. ChatGPT. مدل‌های ایجاد شده با هوش مصنوعی دارای سوگیری هستند که می‌تواند منجر به اعمال تبعیض‌آمیز شود. یک حسابرسی مستقل باید شامل بازنگری در این مورد باشد هوش مصنوعی را مدل می کند بر روی طراحی الگوریتم و خروجی مدل آموزش داده شده است تا مطمئن شود کدگذاری یا نتایج مغرضانه نمایش داده نمی شود. علاوه بر این، ممیزی باید شامل بررسی سیاست‌ها و رویه‌های امنیتی مورد استفاده برای حفاظت باشد داده های کاربر و از یک محیط امن اطمینان حاصل کنید.

ممیزی های مستقل برای اطمینان از مطابقت مدل های هوش مصنوعی با استانداردهای امنیتی تعیین شده انجام می شود.

سام آلتمن

بدون حسابرسی مستقل، کسب و کارها و کاربران در معرض آن قرار می گیرند به طور بالقوه خطرناک و خطرات پرهزینه ای که می شد از آنها اجتناب کرد. بسیار مهم است که همه کسب و کارهایی که از این فناوری استفاده می‌کنند، یک ممیزی مستقل قبل از استقرار کامل داشته باشند تا اطمینان حاصل شود که این فناوری ایمن و اخلاقی است.

هوش مصنوعی به عنوان یک ابزار

هوش مصنوعی به عنوان یک ابزار
@Midjourney

هوش مصنوعی به طور تصاعدی توسعه یافته است و پیشرفت هایی مانند GPT-4 منجر به تعاملات واقعی تر و پیچیده تر با رایانه ها شده است. با این حال، آلتمن تاکید کرده است که هوش مصنوعی باید به عنوان ابزار دیده شود، نه موجودات حساس. GPT-4 یک مدل پردازش زبان طبیعی است که می‌تواند محتوایی تولید کند که تقریباً غیرقابل تشخیص از محتوای نوشته‌شده توسط انسان است، بخشی از کار را از نویسندگان می‌گیرد و به کاربران اجازه می‌دهد تا تجربه‌ای شبیه به انسان با فناوری داشته باشند.

هوش مصنوعی به خصوص مدل های پیشرفته مانند GPT-4، باید به عنوان ابزار نگریسته شود نه موجودات ذی شعور.

سام آلتمن

با این حال، سم آلتمن هشدار می دهد که تأکید بیش از حد بر هوش مصنوعی به عنوان چیزی بیش از یک ابزار می تواند منجر به انتظارات غیرواقعی و باورهای نادرست در مورد قابلیت های آن شود. او همچنین خاطرنشان می‌کند که هوش مصنوعی خالی از پیامدهای اخلاقی نیست و حتی اگر سطوح پیشرفته هوش مصنوعی را بتوان به خوبی مورد استفاده قرار داد، باز هم می‌توان از آن برای بد استفاده کرد که منجر به ایجاد پروفایل‌های نژادی خطرناک می‌شود. نقض حریم خصوصیو حتی تهدیدات امنیتی. آلتمن بر اهمیت درک هوش مصنوعی تاکید می کند که فقط یک ابزار است و باید به آن به عنوان ابزاری برای سرعت بخشیدن به پیشرفت انسان نگاه کرد نه جایگزین انسان.

هوش مصنوعی هوشیاری

هوش مصنوعی هوشیاری
@Midjourney

بحث در مورد هوش مصنوعی و اینکه آیا می تواند به آگاهی آگاهانه دست یابد یا نه، در حال افزایش است. بسیاری از محققان استدلال می‌کنند که ماشین‌ها علیرغم معماری پیچیده محاسباتی‌شان، قادر به تجربه حالت‌های احساسی، ذهنی یا هوشیار نیستند. برخی از محققان امکان دستیابی هوش مصنوعی به آگاهی آگاهانه را می پذیرند. استدلال اصلی برای این امکان این است که هوش مصنوعی بر اساس برنامه هایی ساخته شده است که آن را قادر می سازد تکرار فرآیندهای فیزیکی و ذهنی خاصی که در مغز انسان وجود دارد. با این حال، استدلال مخالف اصلی این است که هوش مصنوعی هیچ هوش هیجانی واقعی ندارد.

در حالی که هوش مصنوعی باید به عنوان یک ابزار تلقی شود، من بحث جاری در جامعه علمی در مورد آگاهی بالقوه هوش مصنوعی را تصدیق می کنم.

سام آلتمن

بسیاری از محققان هوش مصنوعی موافقند که هیچ مدرک علمی وجود ندارد که نشان دهد هوش مصنوعی می تواند به همان روشی که یک انسان می تواند به آگاهی آگاهانه دست یابد. Elon مشکیکی از سرسخت ترین طرفداران این دیدگاه، معتقد است که توانایی هوش مصنوعی برای تقلید از اشکال حیات بیولوژیکی بسیار محدود است و باید بر آموزش ارزش های اخلاقی ماشین ها تاکید بیشتری شود.

برنامه های نظامی

برنامه های نظامی
@Midjourney

هوش مصنوعی در زمینه‌های نظامی به سرعت در حال پیشرفت است و این پتانسیل را دارد که روشی را که در آن ارتش‌ها جنگ را انجام می‌دهند، بهبود بخشد. دانشمندان نگران این هستند که هوش مصنوعی در ارتش می تواند طیف وسیعی از مشکلات اخلاقی و مرتبط با خطر را ایجاد کند، مانند غیرقابل پیش بینی بودن، غیرقابل محاسبه بودن و عدم شفافیت.

من پتانسیل استفاده از هوش مصنوعی را در کاربردهای نظامی مانند هواپیماهای بدون سرنشین خودمختار می شناسم و خواستار این کار هستم مقررات برای حاکمیت چنین استفاده ای

سام آلتمن

سیستم‌های هوش مصنوعی در برابر عوامل مخربی آسیب‌پذیر هستند که می‌توانند سیستم‌ها را دوباره برنامه‌ریزی کنند یا به سیستم‌ها نفوذ کنند، که به طور بالقوه منجر به یک نتیجه مخرب می‌شود. برای رسیدگی به اینها نگرانی هاجامعه بین‌المللی اولین گام را در قالب کنوانسیون بین‌المللی خود در مورد برخی سلاح‌های متعارف در سال 1980 برداشته است که استفاده از برخی سلاح‌ها را ممنوع می‌کند. کارشناسان هوش مصنوعی از تشکیل کمیته بین المللی برای نظارت بر فرآیندهایی مانند ارزیابی، آموزش و استقرار هوش مصنوعی در برنامه های نظامی حمایت کرده اند.

AGI

AGI
@Midjourney

فناوری هوش مصنوعی به طور فزاینده ای پیشرفته و فراگیر می شود و درک خطرات احتمالی ناشی از عوامل و سیستم های هوش مصنوعی را مهم می کند. اولین و واضح ترین خطر مرتبط با عوامل هوش مصنوعی، خطر پیشی گرفتن ماشین ها از انسان است. عوامل هوش مصنوعی به راحتی می توانند با در اختیار گرفتن تصمیم گیری، فرآیندهای اتوماسیون و سایر وظایف پیشرفته، از سازندگان خود پیشی بگیرند. علاوه بر این، اتوماسیون مبتنی بر هوش مصنوعی می تواند نابرابری را افزایش دهد، زیرا جایگزین انسان در بازار کار.

هشدار می‌دهم که سیستم‌های هوش مصنوعی قوی‌تر و پیچیده‌تر ممکن است بیش از آن چیزی که بسیاری فکر می‌کنند به واقعیت نزدیک باشند و بر نیاز به آمادگی و اقدامات پیشگیرانه تأکید کردند.

سام آلتمن

الگوریتم‌های هوش مصنوعی و استفاده از آن‌ها در تصمیم‌گیری‌های پیچیده نگرانی‌هایی را برای عدم شفافیت ایجاد می‌کند. سازمان ها می توانند خطرات را کاهش دهد در ارتباط با عوامل هوش مصنوعی با حصول اطمینان از اینکه هوش مصنوعی از نظر اخلاقی توسعه می‌یابد، با استفاده از داده‌هایی که با استانداردهای اخلاقی سازگار است، و الگوریتم‌ها را در معرض آزمایش‌های معمول قرار می‌دهند تا اطمینان حاصل شود که آنها مغرضانه نیستند و در برابر کاربران و داده‌ها مسئولیت دارند.

نتیجه

آلتمن همچنین اظهار داشت که اگرچه ممکن است نتوانیم چین را مدیریت کنیم، باید با آن مذاکره کنیم. معیارهای پیشنهادی برای ارزیابی و تنظیم مدل های هوش مصنوعی شامل توانایی سنتز نمونه های بیولوژیکی، دستکاری باورهای مردم، میزان توان پردازشی صرف شده و غیره.

یک موضوع مهم این است که سام باید "روابط" با دولت داشته باشد. امیدواریم همانطور که قبلا ذکر کردیم از اروپا الگو نگیرند.

پرسش های متداول

خطرات هوش مصنوعی شامل پتانسیل سیستم‌های هوش مصنوعی برای نشان دادن رفتار مغرضانه یا تبعیض‌آمیز، استفاده بدخواهانه یا نامناسب یا عملکرد نادرست به روش‌هایی است که باعث آسیب می‌شود. توسعه و استقرار فناوری‌های هوش مصنوعی می‌تواند خطراتی را برای حریم خصوصی و امنیت داده‌ها و همچنین برای ایمنی و امنیت افراد و سیستم‌ها ایجاد کند.

پنج خطر اصلی مرتبط با هوش مصنوعی عبارتند از: از دست دادن شغل، خطرات امنیتی, تعصبات یا تبعیض, Bioweapons و AGI.

خطرناک ترین جنبه هوش مصنوعی پتانسیل آن برای ایجاد بیکاری گسترده است.

سلب مسئولیت

در خط با دستورالعمل های پروژه اعتماد، لطفاً توجه داشته باشید که اطلاعات ارائه شده در این صفحه به عنوان مشاوره حقوقی، مالیاتی، سرمایه گذاری، مالی یا هر شکل دیگری در نظر گرفته نشده است و نباید تفسیر شود. مهم است که فقط در موردی سرمایه گذاری کنید که توانایی از دست دادن آن را دارید و در صورت شک و تردید به دنبال مشاوره مالی مستقل باشید. برای کسب اطلاعات بیشتر، پیشنهاد می کنیم به شرایط و ضوابط و همچنین صفحات راهنمایی و پشتیبانی ارائه شده توسط صادرکننده یا تبلیغ کننده مراجعه کنید. MetaversePost متعهد به گزارش دقیق و بی طرفانه است، اما شرایط بازار بدون اطلاع قبلی ممکن است تغییر کند.

درباره نویسنده

Damir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است. 

مقالات بیشتر
دامیر یالالوف
دامیر یالالوف

Damir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است. 

Hot Stories
به خبرنامه ما بپیوندید.
آخرین اخبار

در میان نوسانات، اشتهای سازمانی به سمت ETF های بیت کوین رشد می کند

افشاگری از طریق پرونده های 13F نشان می دهد که سرمایه گذاران نهادی قابل توجهی در ETF های بیت کوین مشغول هستند و بر پذیرش فزاینده ...

بیشتر بدانید

روز صدور حکم فرا می رسد: با بررسی دادگاه ایالات متحده به درخواست وزارت دادگستری، سرنوشت CZ در تعادل است

چانگ پنگ ژائو امروز در دادگاهی در سیاتل آمریکا محکوم خواهد شد.

بیشتر بدانید
به انجمن فناوری نوآورانه ما بپیوندید
ادامه مطلب
ادامه مطلب
Bitget Wallet GetDrop را معرفی کرد Airdrop پلتفرم و اولین رویداد Meme Coin را با استخر جایزه 130,000 دلاری راه اندازی کرد
بازارها گزارش خبری پیشرفته
Bitget Wallet GetDrop را معرفی کرد Airdrop پلتفرم و اولین رویداد Meme Coin را با استخر جایزه 130,000 دلاری راه اندازی کرد
ممکن است 7، 2024
از Reflex ساده تا عوامل یادگیری: انواع مختلف عوامل هوش مصنوعی و نقش آنها در برنامه های مدرن را بررسی کنید
شیوه زندگی نرم افزار داستان ها و نقدها پیشرفته
از Reflex ساده تا عوامل یادگیری: انواع مختلف عوامل هوش مصنوعی و نقش آنها در برنامه های مدرن را بررسی کنید
ممکن است 7، 2024
شبکه Meson به ماینرهای کریپتو این امکان را می دهد تا توکن ها را از طریق استخراج به دست آورند. Airdropبرنامه های خرید و فروش در حال آمدن هستند
بازارها گزارش خبری پیشرفته
شبکه Meson به ماینرهای کریپتو این امکان را می دهد تا توکن ها را از طریق استخراج به دست آورند. Airdropبرنامه های خرید و فروش در حال آمدن هستند
ممکن است 7، 2024
پارادایم پیشتاز 225 میلیون دلار مگا فاندینگ برای موناد، یک راه حل بسیار مقیاس پذیر "Solana Killer" L1 با هدف 10,000 TPS است.
کسب و کار بازارها نرم افزار داستان ها و نقدها پیشرفته
پارادایم پیشتاز 225 میلیون دلار مگا فاندینگ برای موناد، یک راه حل بسیار مقیاس پذیر "Solana Killer" L1 با هدف 10,000 TPS است.
ممکن است 7، 2024
CRYPTOMERIA LABS PTE. محدود