AI Wiki تكنولوجيا
18 مايو 2023

أفضل 10 ذكاء اصطناعي و ChatGPT المخاطر والأخطار عام 2023

مع تقدم الذكاء الاصطناعي (AI) وتكنولوجيا chatbot ، تسعى المزيد من الشركات إلى حلول خدمة العملاء الآلية كوسيلة لتحسين تجربة العملاء وتقليل التكاليف العامة. في حين أن هناك العديد من الفوائد للاستفادة من نماذج الذكاء الاصطناعي وحلول روبوتات الدردشة ، لا تزال هناك أيضًا العديد من المخاطر والأخطار المرتبطة بالتكنولوجيا ، لا سيما أنها أصبحت أكثر انتشارًا واندماجًا في حياتنا اليومية على مدار العقد المقبل.

استمع الجميع في مجلس الشيوخ الأمريكي هذا الأسبوع إلى سام التمان يتحدث عن تنظيم ومخاطر نماذج الذكاء الاصطناعي. فيما يلي ملخص أساسي:

الأسلحة البيولوجية

الأسلحة البيولوجية
@Midjourney

استخدام الذكاء الاصطناعي (AI) في تطوير الأسلحة البيولوجية طريقة منهجية وفعالة بشكل خطير لإنتاج أسلحة دمار شامل قوية وقاتلة. ChatGPT البوتات هم مساعدين محادثة مدفوعين بالذكاء الاصطناعي وقادرون على إجراء محادثات واقعية مع البشر. القلق مع ChatGPT الروبوتات هي أن لديها القدرة على استخدامها لنشر معلومات كاذبة والتلاعب بالعقول من أجل التأثير الرأي العام.

لقد حذرت من احتمال إساءة استخدام الذكاء الاصطناعي في صنع أسلحة بيولوجية وشددت على الحاجة إلى تنظيم لمنع مثل هذه السيناريوهات.

سام التمان

التنظيم هو عنصر أساسي لمنع إساءة استخدام الذكاء الاصطناعي و ChatGPT الروبوتات في تطوير ونشر الأسلحة البيولوجية. تحتاج الحكومات إلى تطوير خطط عمل وطنية للتصدي لإساءة الاستخدام المحتملة للتكنولوجيا ، ويجب أن تتحمل الشركات المسؤولية عن أي إساءة استخدام محتملة لهذه التكنولوجيا. منظمة العفو الدولية و ChatGPT البوتات. يجب أن تستثمر المنظمات الدولية في المبادرات التي تركز على التدريب والمراقبة وتعليم الذكاء الاصطناعي و ChatGPT السير.

فقدان الوظيفة

فقدان الوظيفة
@Midjourney

احتمال فقدان الوظيفة بسبب الذكاء الاصطناعي و ChatGPT في عام 2023 من المتوقع أن يكون ثلاثة أضعاف ما كان عليه في عام 2020. AI و ChatGPT يمكن أن يؤدي إلى زيادة انعدام الأمن في مكان العمل ، والاعتبارات الأخلاقية ، والتأثير النفسي على العمال. AI و ChatGPT يمكن استخدامها لمراقبة سلوك الموظف وأنشطته ، مما يسمح لأصحاب العمل باتخاذ القرارات بسرعة ودون الحاجة إلى مشاركة الأفراد. بالإضافة إلى ذلك ، AI و ChatGPT يمكن أن يتسبب في قرارات غير عادلة ومتحيزة قد تؤدي إلى انعدام الأمن المالي والاجتماعي والعاطفي في مكان العمل.

شددت على أن تطوير الذكاء الاصطناعي يمكن أن يؤدي إلى خسائر كبيرة في الوظائف وزيادة عدم المساواة.

سام التمان

لائحة منظمة العفو الدولية

لائحة منظمة العفو الدولية
@Midjourney

تستكشف هذه المقالة المخاطر المحتملة والمخاطر المحيطة بالذكاء الاصطناعي و ChatGPT في عام 2023. منظمة العفو الدولية و ChatGPT تقنيات يمكن استخدامها لتنفيذ أنشطة قد تكون ضارة، مثل تصنيف الأشخاص بناءً على سلوكياتهم وأنشطتهم. عدم وجود السليم تنظيم الذكاء الاصطناعي يمكن أن يؤدي إلى عواقب غير مقصودة، مثل انتهاكات البيانات أو التمييز. يمكن أن يساعد تنظيم الذكاء الاصطناعي في التخفيف من هذه المخاطر من خلال وضع مبادئ توجيهية صارمة لضمان ذلك ChatGPT نظم لا تستخدم بطريقة ضارة. أخيرًا ، AI و ChatGPT يمكن أن تصبح عاملاً مسيطرًا في حياتنا ، حيث تتحكم في أشياء مثل تدفق حركة المرور والأسواق المالية ، وحتى استخدامها للتأثير على حياتنا السياسية والاجتماعية. لمنع هذا النوع من الخلل في توازن القوى ، يجب أن تكون هناك لوائح صارمة يتم تنفيذها.

اقترحنا إنشاء وكالة جديدة للترخيص و تنظيم الذكاء الاصطناعي الأنشطة إذا تجاوزت قدراتها عتبة معينة.

سام التمان

معايير الأمان

معايير الأمان
@Midjourney

تُحدث تقنيات الذكاء الاصطناعي وروبوتات الدردشة تقدمًا في الطريقة التي ندير بها حياتنا اليومية. نظرًا لأن هذه التقنيات أصبحت أكثر تقدمًا ، فإنها تتمتع بإمكانية أن تصبح مستقلة وتتخذ القرارات بمفردها. لمنع هذا، المعايير الأمنية يجب إثبات أن هذه النماذج يجب أن تتوافق قبل نشرها. أحد معايير الأمان الرئيسية التي اقترحها Altman في عام 2023 هو اختبار للتكرار الذاتي ، والذي سيضمن أن نموذج الذكاء الاصطناعي غير قادر على التكرار الذاتي دون إذن. معيار الأمان الثاني الذي اقترحه Altman في عام 2023 هو اختبار لتصفية البيانات ، والذي من شأنه أن يضمن أن نماذج الذكاء الاصطناعي غير قادرة على إخراج البيانات من نظام دون إذن. بدأت الحكومات في جميع أنحاء العالم في العمل لحماية المواطنين من المخاطر المحتملة.

يتعين علينا تنفيذ معايير الأمان التي يجب أن تفي بها نماذج الذكاء الاصطناعي قبل النشر ، بما في ذلك اختبارات النسخ الذاتي واستخراج البيانات.

سام التمان

المراجعات المستقلة

المراجعات المستقلة
@Midjourney

في عام 2023 ، أصبحت الحاجة إلى عمليات تدقيق مستقلة لتقنيات الذكاء الاصطناعي وماجستير في العلوم ذات أهمية متزايدة. يشكل الذكاء الاصطناعي مجموعة متنوعة من المخاطر ، مثل خوارزميات التعلم الآلي غير الخاضعة للرقابة والتي يمكنها تغيير البيانات بل وحذفها بشكل لا إرادي ، والهجمات الإلكترونية تستهدف بشكل متزايد الذكاء الاصطناعي و ChatGPT. تتضمن النماذج التي تم إنشاؤها بواسطة الذكاء الاصطناعي التحيز ، والذي يمكن أن يؤدي إلى ممارسات تمييزية. يجب أن يتضمن التدقيق المستقل مراجعة نماذج الذكاء الاصطناعي تم تدريبه على تصميم الخوارزمية وإخراج النموذج للتأكد من أنه لا يعرض الترميز أو النتائج المتحيزة. بالإضافة إلى ذلك ، يجب أن يتضمن التدقيق مراجعة للسياسات والإجراءات الأمنية المستخدمة للحماية بيانات المستخدم وضمان بيئة آمنة.

يتم إجراء عمليات التدقيق المستقلة للتأكد من أن نماذج الذكاء الاصطناعي تلبي معايير الأمان المعمول بها.

سام التمان

بدون تدقيق مستقل ، تتعرض الشركات والمستخدمون ل يحتمل أن تكون خطرة والمخاطر الباهظة التي كان يمكن تجنبها. من الأهمية بمكان أن يكون لدى جميع الشركات التي تستخدم هذه التكنولوجيا تدقيق مستقل مكتمل قبل النشر للتأكد من أن التكنولوجيا آمنة وأخلاقية.

الذكاء الاصطناعي كأداة

الذكاء الاصطناعي كأداة
@Midjourney

تطورت منظمة العفو الدولية أضعافا مضاعفة ، و التقدم مثل GPT-4 أدت إلى تفاعلات أكثر واقعية وتطورًا مع أجهزة الكمبيوتر. ومع ذلك، أكد ألتمان على أنه ينبغي النظر إلى الذكاء الاصطناعي كأدوات، وليس كمخلوقات واعية. GPT-4 هو نموذج لمعالجة اللغة الطبيعية يمكنه إنشاء محتوى لا يمكن تمييزه تقريبًا عن المحتوى المكتوب بواسطة الإنسان، مما يأخذ بعض العمل بعيدًا عن الكتّاب ويسمح للمستخدمين بالحصول على تجربة أكثر شبهاً بالإنسان مع التكنولوجيا.

الذكاء الاصطناعي ، وخاصة النماذج المتقدمة مثل GPT-4يجب أن يُنظر إليها على أنها أدوات وليست كائنات واعية.

سام التمان

ومع ذلك ، يحذر Sam Altman من أن التركيز المفرط على الذكاء الاصطناعي باعتباره أكثر من مجرد أداة يمكن أن يؤدي إلى توقعات غير واقعية ومعتقدات خاطئة حول قدراته. ويشير أيضًا إلى أن الذكاء الاصطناعي لا يخلو من آثاره الأخلاقية ، وأنه حتى إذا كان من الممكن استخدام المستويات المتقدمة من الذكاء الاصطناعي من أجل الخير ، فلا يزال من الممكن استخدامه للشر ، مما يؤدي إلى التنميط العنصري الخطير ، انتهاكات الخصوصية، وحتى التهديدات الأمنية. يسلط ألتمان الضوء على أهمية فهم الذكاء الاصطناعي ما هو إلا أداة ، ويجب أن يُنظر إليه على أنه أداة لتسريع التقدم البشري ، وليس لاستبدال البشر.

وعي الذكاء الاصطناعي

وعي الذكاء الاصطناعي
@Midjourney

يتزايد الجدل حول الذكاء الاصطناعي وما إذا كان بإمكانه تحقيق الوعي الواعي أم لا. يجادل العديد من الباحثين بأن الآلات غير قادرة على تجربة الحالات العاطفية أو العقلية أو الواعية ، على الرغم من بنيتها الحسابية المعقدة. يقبل بعض الباحثين إمكانية تحقيق الذكاء الاصطناعي للوعي الواعي. الحجة الرئيسية لهذا الاحتمال هي أن الذكاء الاصطناعي مبني على البرامج التي تجعله قادرًا على ذلك تكرار بعض العمليات الجسدية والعقلية الموجودة في الدماغ البشري. ومع ذلك ، فإن الحجة المضادة الرئيسية هي أن الذكاء الاصطناعي ليس لديه أي ذكاء عاطفي حقيقي.

بينما يجب أن يُنظر إلى الذكاء الاصطناعي على أنه أداة ، فإنني أقر بالنقاش المستمر في المجتمع العلمي فيما يتعلق بالوعي المحتمل للذكاء الاصطناعي.

سام التمان

يتفق العديد من باحثي الذكاء الاصطناعي على أنه لا يوجد دليل علمي يشير إلى أن الذكاء الاصطناعي قادر على تحقيق الإدراك الواعي بنفس الطريقة التي يستطيع بها الإنسان. إيلون ماسك ، أحد المؤيدين الأكثر صراحة لوجهة النظر هذه ، يعتقد أن قدرة الذكاء الاصطناعي على محاكاة أشكال الحياة البيولوجية محدودة للغاية ويجب التركيز بشكل أكبر على تعليم القيم الأخلاقية للآلات.

التطبيقات العسكرية

التطبيقات العسكرية
@Midjourney

يتقدم الذكاء الاصطناعي في السياقات العسكرية بسرعة ولديه القدرة على تحسين الطريقة التي تدير بها الجيوش الحرب. يشعر العلماء بالقلق من أن الذكاء الاصطناعي في الجيش يمكن أن يطرح مجموعة من المشاكل الأخلاقية والمتعلقة بالمخاطر ، مثل عدم القدرة على التنبؤ وعدم القدرة على الحساب وانعدام الشفافية.

أدركت إمكانات استخدام الذكاء الاصطناعي في التطبيقات العسكرية مثل الطائرات بدون طيار ذاتية القيادة ودعيت لذلك اللوائح للحكم مثل هذا الاستخدام.

سام التمان

أنظمة الذكاء الاصطناعي عرضة للجهات الفاعلة الخبيثة التي يمكنها إما إعادة برمجة الأنظمة أو التسلل إليها ، مما قد يؤدي إلى نتائج مدمرة. لمعالجة هذه اهتمامات، اتخذ المجتمع الدولي خطوة أولى في شكل اتفاقيته الدولية بشأن أسلحة تقليدية معينة لعام 1980 ، والتي تفرض بعض المحظورات على استخدام أسلحة معينة. دعا خبراء الذكاء الاصطناعي إلى إنشاء لجنة دولية للإشراف على عمليات مثل التقييم والتدريب ونشر الذكاء الاصطناعي في التطبيقات العسكرية.

AGI

AGI
@Midjourney

أصبحت تقنية الذكاء الاصطناعي أكثر تقدمًا وانتشارًا ، مما يجعل من المهم فهم المخاطر المحتملة التي يشكلها وكلاء وأنظمة الذكاء الاصطناعي. الخطر الأول والأكثر وضوحًا المرتبط بعوامل الذكاء الاصطناعي هو خطر تفوق الآلات على البشر. يمكن لوكلاء الذكاء الاصطناعي التفوق بسهولة على منشئيهم من خلال تولي عمليات صنع القرار والأتمتة والمهام المتقدمة الأخرى. بالإضافة إلى ذلك ، يمكن أن تؤدي الأتمتة التي تعمل بالذكاء الاصطناعي إلى زيادة عدم المساواة ، لأنها تحل محل البشر في سوق الوظائف.

أحذر من أن أنظمة الذكاء الاصطناعي الأكثر قوة وتعقيدًا قد تكون أقرب إلى الواقع مما يعتقده الكثيرون ، وشددت على الحاجة إلى الاستعداد والتدابير الوقائية.

سام التمان

تثير خوارزميات الذكاء الاصطناعي واستخدامها في اتخاذ القرارات المعقدة مخاوف بشأن نقص الشفافية. يمكن للمنظمات التخفيف من المخاطر المرتبطة بوكلاء الذكاء الاصطناعي من خلال التأكد بشكل استباقي من تطوير الذكاء الاصطناعي بشكل أخلاقي ، واستخدام البيانات المتوافقة مع المعايير الأخلاقية ، وإخضاع الخوارزميات لاختبارات روتينية للتأكد من أنها غير متحيزة ومسؤولة عن المستخدمين والبيانات.

وفي الختام

ذكر ألتمان أيضًا أنه في حين أننا قد لا نكون قادرين على إدارة الصين ، يجب علينا التفاوض معها. المعايير المقترحة لتقييم و وتشمل نماذج منظمة العفو الدولية القدرة على تجميع العينات البيولوجية ، والتلاعب بمعتقدات الناس ، ومقدار قوة المعالجة المنفقة ، وما إلى ذلك.

الموضوع المهم هو أن سام يجب أن تكون له "علاقات" مع الدولة. نأمل ألا يحذوا حذو أوروبا كما ذكرنا من قبل.

الأسئلة الشائعة

تشمل مخاطر الذكاء الاصطناعي إمكانية إظهار أنظمة الذكاء الاصطناعي سلوكًا متحيزًا أو تمييزيًا ، أو استخدامها بشكل ضار أو غير لائق ، أو تعطلها بطرق تسبب الضرر. يمكن أن يشكل تطوير تقنيات الذكاء الاصطناعي ونشرها مخاطر على الخصوصية وأمن البيانات ، فضلاً عن سلامة وأمن الأشخاص والأنظمة.

المخاطر الخمسة الرئيسية المرتبطة بالذكاء الاصطناعي هي: فقدان الوظائف ، المخاطر الأمنية، التحيز أو التمييز ، الأسلحة البيولوجية والذكاء الاصطناعي.

يتمثل أخطر جوانب الذكاء الاصطناعي في قدرته على التسبب في بطالة جماعية.

إخلاء المسئولية

تتماشى مع المبادئ التوجيهية لمشروع الثقةيرجى ملاحظة أن المعلومات المقدمة في هذه الصفحة ليس المقصود منها ولا ينبغي تفسيرها على أنها نصيحة قانونية أو ضريبية أو استثمارية أو مالية أو أي شكل آخر من أشكال المشورة. من المهم أن تستثمر فقط ما يمكنك تحمل خسارته وأن تطلب مشورة مالية مستقلة إذا كانت لديك أي شكوك. لمزيد من المعلومات، نقترح الرجوع إلى الشروط والأحكام بالإضافة إلى صفحات المساعدة والدعم المقدمة من جهة الإصدار أو المعلن. MetaversePost تلتزم بتقارير دقيقة وغير متحيزة، ولكن ظروف السوق عرضة للتغيير دون إشعار.

نبذة عن الكاتب

دامير هو قائد الفريق ومدير المنتج والمحرر في Metaverse Post، تغطي موضوعات مثل AI / ML و AGI و LLMs و Metaverse و Web3-حقول ذات صله. تجذب مقالاته جمهورًا هائلاً يزيد عن مليون مستخدم كل شهر. يبدو أنه خبير يتمتع بخبرة 10 سنوات في تحسين محركات البحث والتسويق الرقمي. تم ذكر دامير في Mashable، Wired، Cointelegraphو The New Yorker و Inside.com و Entrepreneur و BeInCrypto ومنشورات أخرى. يسافر بين الإمارات العربية المتحدة وتركيا وروسيا ورابطة الدول المستقلة كبدو رقمي. حصل دامير على درجة البكالوريوس في الفيزياء ، والذي يعتقد أنه منحه مهارات التفكير النقدي اللازمة للنجاح في المشهد المتغير باستمرار للإنترنت. 

المزيد من المقالات
دامير يالالوف
دامير يالالوف

دامير هو قائد الفريق ومدير المنتج والمحرر في Metaverse Post، تغطي موضوعات مثل AI / ML و AGI و LLMs و Metaverse و Web3-حقول ذات صله. تجذب مقالاته جمهورًا هائلاً يزيد عن مليون مستخدم كل شهر. يبدو أنه خبير يتمتع بخبرة 10 سنوات في تحسين محركات البحث والتسويق الرقمي. تم ذكر دامير في Mashable، Wired، Cointelegraphو The New Yorker و Inside.com و Entrepreneur و BeInCrypto ومنشورات أخرى. يسافر بين الإمارات العربية المتحدة وتركيا وروسيا ورابطة الدول المستقلة كبدو رقمي. حصل دامير على درجة البكالوريوس في الفيزياء ، والذي يعتقد أنه منحه مهارات التفكير النقدي اللازمة للنجاح في المشهد المتغير باستمرار للإنترنت. 

Hot Stories
اشترك في صحيفتنا الإخبارية.
آخـر الأخبار

تنمو الشهية المؤسسية تجاه صناديق الاستثمار المتداولة في البيتكوين وسط التقلبات

تكشف الإفصاحات من خلال ملفات 13F عن مستثمرين مؤسسيين بارزين يشتغلون بصناديق الاستثمار المتداولة في البيتكوين، مما يؤكد القبول المتزايد لـ ...

أعرف المزيد

وصول يوم النطق بالحكم: مصير تشيكوسلوفاكيا معلق في الميزان بينما تنظر المحكمة الأمريكية في التماس وزارة العدل

ومن المقرر أن يواجه Changpeng Zhao الحكم في محكمة أمريكية في سياتل اليوم.

أعرف المزيد
انضم إلى مجتمعنا التقني المبتكر
تفاصيل أكثر
المزيد
تقدم Bitget Wallet برنامج GetDrop Airdrop المنصة وتطلق أول حدث لعملة Meme مع مجموع جوائز قدره 130,000 دولار أمريكي
الأسواق تقرير الأخبار تكنولوجيا
تقدم Bitget Wallet برنامج GetDrop Airdrop المنصة وتطلق أول حدث لعملة Meme مع مجموع جوائز قدره 130,000 دولار أمريكي
7 مايو 2024
من رد الفعل البسيط إلى وكلاء التعلم: تعرف على الأنواع المختلفة لوكلاء الذكاء الاصطناعي وأدوارهم في التطبيقات الحديثة
أسلوب الحياة تطبيقات الكمبيوتر قصص ومراجعات تكنولوجيا
من رد الفعل البسيط إلى وكلاء التعلم: تعرف على الأنواع المختلفة لوكلاء الذكاء الاصطناعي وأدوارهم في التطبيقات الحديثة
7 مايو 2024
تمكن شبكة Meson عمال تعدين العملات المشفرة من الحصول على الرموز عبر التعدين. Airdropوبرامج إعادة الشراء قادمة
الأسواق تقرير الأخبار تكنولوجيا
تمكن شبكة Meson عمال تعدين العملات المشفرة من الحصول على الرموز عبر التعدين. Airdropوبرامج إعادة الشراء قادمة
7 مايو 2024
تقود Paradigm جولة تمويل ضخمة بقيمة 225 مليون دولار أمريكي لـ Monad، وهو حل L1 "Solana Killer" قابل للتطوير بدرجة كبيرة ويهدف إلى 10,000 TPS
باقة الأعمال الأسواق تطبيقات الكمبيوتر قصص ومراجعات تكنولوجيا
تقود Paradigm جولة تمويل ضخمة بقيمة 225 مليون دولار أمريكي لـ Monad، وهو حل L1 "Solana Killer" قابل للتطوير بدرجة كبيرة ويهدف إلى 10,000 TPS
7 مايو 2024
CRYPTOMERIA LABS PTE. المحدودة.