10 برتر هوش مصنوعی و ChatGPT خطرات و خطرات در سال 2023
با پیشرفت های هوش مصنوعی (AI) و فناوری چت بات، شرکت های بیشتری به دنبال راه حل های خودکار خدمات مشتری به عنوان وسیله ای برای بهبود تجربه مشتری خود و کاهش هزینه های سربار هستند. در حالی که استفاده از مدلهای هوش مصنوعی و راهحلهای چت بات مزایای زیادی دارد، خطرات و خطرات مختلفی نیز در ارتباط با این فناوری باقی میماند، بهویژه زمانی که این فناوریها در دهه آینده فراگیرتر و در زندگی روزمره ما ادغام میشوند.
این هفته همه در سنای ایالات متحده به صحبت های سم آلتمن در مورد مقررات و خطرات مدل های هوش مصنوعی گوش دادند. در اینجا یک خلاصه اساسی وجود دارد:
Bioweapons
استفاده از هوش مصنوعی (AI) در توسعه تسلیحات زیستی روش خطرناک و روشمند و کارآمدی برای ایجاد سلاح های کشتار جمعی قدرتمند و کشنده ارائه می دهد. ChatGPT رباتها دستیارهای مکالمه مبتنی بر هوش مصنوعی هستند که قادر به برقراری مکالمات واقعی با انسان هستند. نگرانی با ChatGPT ربات ها این است که پتانسیل استفاده برای انتشار اطلاعات نادرست و دستکاری ذهن ها به منظور تأثیرگذاری را دارند افکار عمومی.
مقررات یک جزء کلیدی برای جلوگیری از سوء استفاده از هوش مصنوعی و ChatGPT ربات ها در توسعه و استقرار سلاح های زیستی. دولت ها باید برنامه های اقدام ملی را برای رسیدگی به سوء استفاده احتمالی از فناوری توسعه دهند و شرکت ها باید در قبال هرگونه سوء استفاده احتمالی از آنها پاسخگو باشند. هوش مصنوعی و ChatGPT رباتها. سازمان های بین المللی باید در ابتکاراتی سرمایه گذاری کنند که بر آموزش، نظارت و آموزش هوش مصنوعی و ChatGPT ربات ها
از دست دادن شغل
احتمال از دست دادن شغل به دلیل هوش مصنوعی و ChatGPT در سال 2023 سه برابر بیشتر از سال 2020 پیش بینی می شود. هوش مصنوعی و ChatGPT می تواند منجر به افزایش ناامنی در محل کار، ملاحظات اخلاقی و تأثیر روانی بر کارگران شود. هوش مصنوعی و ChatGPT می تواند برای نظارت بر رفتار و فعالیت های کارکنان مورد استفاده قرار گیرد و به کارفرمایان اجازه می دهد تا به سرعت و بدون نیاز به مشارکت پرسنل انسانی تصمیم گیری کنند. علاوه بر این، هوش مصنوعی و ChatGPT می تواند باعث تصمیم گیری های ناعادلانه و مغرضانه شود که ممکن است منجر به ناامنی مالی، اجتماعی و عاطفی در محل کار شود.
مقررات هوش مصنوعی
این مقاله به بررسی خطرات احتمالی و خطرات پیرامون هوش مصنوعی و ChatGPT مقررات در سال 2023. هوش مصنوعی و ChatGPT تکنیک می تواند برای انجام فعالیت های بالقوه مخرب مانند پروفایل افراد بر اساس رفتارها و فعالیت های آنها استفاده شود. عدم وجود مناسب مقررات هوش مصنوعی می تواند منجر به عواقب ناخواسته مانند نقض داده ها یا تبعیض شود. مقررات هوش مصنوعی می تواند با تنظیم دستورالعمل های دقیق برای اطمینان از آن به کاهش این خطر کمک کند ChatGPT سیستم های به روشی مخرب استفاده نمی شوند. در نهایت، هوش مصنوعی و ChatGPT می تواند به یک عامل کنترل کننده در زندگی ما تبدیل شود و چیزهایی مانند جریان ترافیک و بازارهای مالی را کنترل کند و حتی برای تأثیرگذاری بر زندگی سیاسی و اجتماعی ما مورد استفاده قرار گیرد. برای جلوگیری از این نوع عدم تعادل قدرت، نیاز به اجرای مقررات سختگیرانه وجود دارد.
استانداردهای امنیتی
فناوریهای هوش مصنوعی و چتبات باعث پیشرفت در نحوه مدیریت زندگی روزمره ما میشوند. همانطور که این فناوریها پیشرفتهتر میشوند، این پتانسیل را دارند که مستقل شوند و خودشان تصمیم بگیرند. برای جلوگیری از این، استانداردهای امنیتی باید مشخص شود که این مدلها باید قبل از استقرار با یکدیگر ملاقات کنند. یکی از استانداردهای امنیتی اصلی پیشنهاد شده توسط آلتمن در سال 2023، آزمایشی برای خود تکراری است که اطمینان حاصل می کند که مدل هوش مصنوعی قادر به تکرار بدون مجوز نیست. دومین استاندارد امنیتی پیشنهاد شده توسط آلتمن در سال 2023، آزمایشی برای استخراج داده ها است که اطمینان حاصل می کند که مدل های هوش مصنوعی قادر به استخراج داده ها از یک سیستم بدون مجوز نیستند. دولت ها در سرتاسر جهان شروع به اقدام برای محافظت از شهروندان در برابر خطرات احتمالی کرده اند.
حسابرسی های مستقل
در سال 2023، نیاز به ممیزی مستقل از فناوری های هوش مصنوعی و LLM به طور فزاینده ای مهم می شود. هوش مصنوعی خطرات مختلفی دارد، مانند الگوریتمهای یادگیری ماشینی بدون نظارت که میتوانند دادهها را بهطور غیرارادی تغییر داده و حتی حذف کنند، و حملات سایبری به طور فزایندهای هوش مصنوعی و هوش مصنوعی را هدف قرار میدهند. ChatGPT. مدلهای ایجاد شده با هوش مصنوعی دارای سوگیری هستند که میتواند منجر به اعمال تبعیضآمیز شود. یک حسابرسی مستقل باید شامل بازنگری در این مورد باشد هوش مصنوعی را مدل می کند بر روی طراحی الگوریتم و خروجی مدل آموزش داده شده است تا مطمئن شود کدگذاری یا نتایج مغرضانه نمایش داده نمی شود. علاوه بر این، ممیزی باید شامل بررسی سیاستها و رویههای امنیتی مورد استفاده برای حفاظت باشد داده های کاربر و از یک محیط امن اطمینان حاصل کنید.
بدون حسابرسی مستقل، کسب و کارها و کاربران در معرض آن قرار می گیرند به طور بالقوه خطرناک و خطرات پرهزینه ای که می شد از آنها اجتناب کرد. بسیار مهم است که همه کسب و کارهایی که از این فناوری استفاده میکنند، یک ممیزی مستقل قبل از استقرار کامل داشته باشند تا اطمینان حاصل شود که این فناوری ایمن و اخلاقی است.
هوش مصنوعی به عنوان یک ابزار
هوش مصنوعی به طور تصاعدی توسعه یافته است و پیشرفت هایی مانند GPT-4 منجر به تعاملات واقعی تر و پیچیده تر با رایانه ها شده است. با این حال، آلتمن تاکید کرده است که هوش مصنوعی باید به عنوان ابزار دیده شود، نه موجودات حساس. GPT-4 یک مدل پردازش زبان طبیعی است که میتواند محتوایی تولید کند که تقریباً غیرقابل تشخیص از محتوای نوشتهشده توسط انسان است، بخشی از کار را از نویسندگان میگیرد و به کاربران اجازه میدهد تا تجربهای شبیه به انسان با فناوری داشته باشند.
با این حال، سم آلتمن هشدار می دهد که تأکید بیش از حد بر هوش مصنوعی به عنوان چیزی بیش از یک ابزار می تواند منجر به انتظارات غیرواقعی و باورهای نادرست در مورد قابلیت های آن شود. او همچنین خاطرنشان میکند که هوش مصنوعی خالی از پیامدهای اخلاقی نیست و حتی اگر سطوح پیشرفته هوش مصنوعی را بتوان به خوبی مورد استفاده قرار داد، باز هم میتوان از آن برای بد استفاده کرد که منجر به ایجاد پروفایلهای نژادی خطرناک میشود. نقض حریم خصوصیو حتی تهدیدات امنیتی. آلتمن بر اهمیت درک هوش مصنوعی تاکید می کند که فقط یک ابزار است و باید به آن به عنوان ابزاری برای سرعت بخشیدن به پیشرفت انسان نگاه کرد نه جایگزین انسان.
هوش مصنوعی هوشیاری
بحث در مورد هوش مصنوعی و اینکه آیا می تواند به آگاهی آگاهانه دست یابد یا نه، در حال افزایش است. بسیاری از محققان استدلال میکنند که ماشینها علیرغم معماری پیچیده محاسباتیشان، قادر به تجربه حالتهای احساسی، ذهنی یا هوشیار نیستند. برخی از محققان امکان دستیابی هوش مصنوعی به آگاهی آگاهانه را می پذیرند. استدلال اصلی برای این امکان این است که هوش مصنوعی بر اساس برنامه هایی ساخته شده است که آن را قادر می سازد تکرار فرآیندهای فیزیکی و ذهنی خاصی که در مغز انسان وجود دارد. با این حال، استدلال مخالف اصلی این است که هوش مصنوعی هیچ هوش هیجانی واقعی ندارد.
بسیاری از محققان هوش مصنوعی موافقند که هیچ مدرک علمی وجود ندارد که نشان دهد هوش مصنوعی می تواند به همان روشی که یک انسان می تواند به آگاهی آگاهانه دست یابد. Elon مشکیکی از سرسخت ترین طرفداران این دیدگاه، معتقد است که توانایی هوش مصنوعی برای تقلید از اشکال حیات بیولوژیکی بسیار محدود است و باید بر آموزش ارزش های اخلاقی ماشین ها تاکید بیشتری شود.
برنامه های نظامی
هوش مصنوعی در زمینههای نظامی به سرعت در حال پیشرفت است و این پتانسیل را دارد که روشی را که در آن ارتشها جنگ را انجام میدهند، بهبود بخشد. دانشمندان نگران این هستند که هوش مصنوعی در ارتش می تواند طیف وسیعی از مشکلات اخلاقی و مرتبط با خطر را ایجاد کند، مانند غیرقابل پیش بینی بودن، غیرقابل محاسبه بودن و عدم شفافیت.
سیستمهای هوش مصنوعی در برابر عوامل مخربی آسیبپذیر هستند که میتوانند سیستمها را دوباره برنامهریزی کنند یا به سیستمها نفوذ کنند، که به طور بالقوه منجر به یک نتیجه مخرب میشود. برای رسیدگی به اینها نگرانی هاجامعه بینالمللی اولین گام را در قالب کنوانسیون بینالمللی خود در مورد برخی سلاحهای متعارف در سال 1980 برداشته است که استفاده از برخی سلاحها را ممنوع میکند. کارشناسان هوش مصنوعی از تشکیل کمیته بین المللی برای نظارت بر فرآیندهایی مانند ارزیابی، آموزش و استقرار هوش مصنوعی در برنامه های نظامی حمایت کرده اند.
AGI
فناوری هوش مصنوعی به طور فزاینده ای پیشرفته و فراگیر می شود و درک خطرات احتمالی ناشی از عوامل و سیستم های هوش مصنوعی را مهم می کند. اولین و واضح ترین خطر مرتبط با عوامل هوش مصنوعی، خطر پیشی گرفتن ماشین ها از انسان است. عوامل هوش مصنوعی به راحتی می توانند با در اختیار گرفتن تصمیم گیری، فرآیندهای اتوماسیون و سایر وظایف پیشرفته، از سازندگان خود پیشی بگیرند. علاوه بر این، اتوماسیون مبتنی بر هوش مصنوعی می تواند نابرابری را افزایش دهد، زیرا جایگزین انسان در بازار کار.
الگوریتمهای هوش مصنوعی و استفاده از آنها در تصمیمگیریهای پیچیده نگرانیهایی را برای عدم شفافیت ایجاد میکند. سازمان ها می توانند خطرات را کاهش دهد در ارتباط با عوامل هوش مصنوعی با حصول اطمینان از اینکه هوش مصنوعی از نظر اخلاقی توسعه مییابد، با استفاده از دادههایی که با استانداردهای اخلاقی سازگار است، و الگوریتمها را در معرض آزمایشهای معمول قرار میدهند تا اطمینان حاصل شود که آنها مغرضانه نیستند و در برابر کاربران و دادهها مسئولیت دارند.
نتیجه
آلتمن همچنین اظهار داشت که اگرچه ممکن است نتوانیم چین را مدیریت کنیم، باید با آن مذاکره کنیم. معیارهای پیشنهادی برای ارزیابی و تنظیم مدل های هوش مصنوعی شامل توانایی سنتز نمونه های بیولوژیکی، دستکاری باورهای مردم، میزان توان پردازشی صرف شده و غیره.
یک موضوع مهم این است که سام باید "روابط" با دولت داشته باشد. امیدواریم همانطور که قبلا ذکر کردیم از اروپا الگو نگیرند.
پرسش های متداول
خطرات هوش مصنوعی شامل پتانسیل سیستمهای هوش مصنوعی برای نشان دادن رفتار مغرضانه یا تبعیضآمیز، استفاده بدخواهانه یا نامناسب یا عملکرد نادرست به روشهایی است که باعث آسیب میشود. توسعه و استقرار فناوریهای هوش مصنوعی میتواند خطراتی را برای حریم خصوصی و امنیت دادهها و همچنین برای ایمنی و امنیت افراد و سیستمها ایجاد کند.
پنج خطر اصلی مرتبط با هوش مصنوعی عبارتند از: از دست دادن شغل، خطرات امنیتی, تعصبات یا تبعیض, Bioweapons و AGI.
خطرناک ترین جنبه هوش مصنوعی پتانسیل آن برای ایجاد بیکاری گسترده است.
سلب مسئولیت
در خط با دستورالعمل های پروژه اعتماد، لطفاً توجه داشته باشید که اطلاعات ارائه شده در این صفحه به عنوان مشاوره حقوقی، مالیاتی، سرمایه گذاری، مالی یا هر شکل دیگری در نظر گرفته نشده است و نباید تفسیر شود. مهم است که فقط در موردی سرمایه گذاری کنید که توانایی از دست دادن آن را دارید و در صورت شک و تردید به دنبال مشاوره مالی مستقل باشید. برای کسب اطلاعات بیشتر، پیشنهاد می کنیم به شرایط و ضوابط و همچنین صفحات راهنمایی و پشتیبانی ارائه شده توسط صادرکننده یا تبلیغ کننده مراجعه کنید. MetaversePost متعهد به گزارش دقیق و بی طرفانه است، اما شرایط بازار بدون اطلاع قبلی ممکن است تغییر کند.
درباره نویسنده
Damir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است.
مقالات بیشترDamir رهبر تیم، مدیر محصول و سردبیر در است Metaverse Post، موضوعاتی مانند AI/ML، AGI، LLMs، Metaverse و Web3- زمینه های مرتبط مقالات او هر ماه مخاطبان زیادی از بیش از یک میلیون کاربر را جذب می کند. به نظر می رسد او یک متخصص با 10 سال تجربه در سئو و بازاریابی دیجیتال است. دمیر در Mashable, Wired, ذکر شده است. Cointelegraph، نیویورکر، Inside.com، Entrepreneur، BeInCrypto، و انتشارات دیگر. او بین امارات متحده عربی، ترکیه، روسیه و کشورهای مستقل مشترک المنافع به عنوان یک عشایر دیجیتال سفر می کند. دمیر مدرک لیسانس خود را در فیزیک گرفت که به اعتقاد او مهارت های تفکر انتقادی لازم برای موفقیت در چشم انداز دائماً در حال تغییر اینترنت را به او داده است.