أفضل 10 ذكاء اصطناعي و ChatGPT المخاطر والأخطار عام 2023
مع تقدم الذكاء الاصطناعي (AI) وتكنولوجيا chatbot ، تسعى المزيد من الشركات إلى حلول خدمة العملاء الآلية كوسيلة لتحسين تجربة العملاء وتقليل التكاليف العامة. في حين أن هناك العديد من الفوائد للاستفادة من نماذج الذكاء الاصطناعي وحلول روبوتات الدردشة ، لا تزال هناك أيضًا العديد من المخاطر والأخطار المرتبطة بالتكنولوجيا ، لا سيما أنها أصبحت أكثر انتشارًا واندماجًا في حياتنا اليومية على مدار العقد المقبل.
استمع الجميع في مجلس الشيوخ الأمريكي هذا الأسبوع إلى سام التمان يتحدث عن تنظيم ومخاطر نماذج الذكاء الاصطناعي. فيما يلي ملخص أساسي:
الأسلحة البيولوجية
استخدام الذكاء الاصطناعي (AI) في تطوير الأسلحة البيولوجية طريقة منهجية وفعالة بشكل خطير لإنتاج أسلحة دمار شامل قوية وقاتلة. ChatGPT البوتات هم مساعدين محادثة مدفوعين بالذكاء الاصطناعي وقادرون على إجراء محادثات واقعية مع البشر. القلق مع ChatGPT الروبوتات هي أن لديها القدرة على استخدامها لنشر معلومات كاذبة والتلاعب بالعقول من أجل التأثير الرأي العام.
التنظيم هو عنصر أساسي لمنع إساءة استخدام الذكاء الاصطناعي و ChatGPT الروبوتات في تطوير ونشر الأسلحة البيولوجية. تحتاج الحكومات إلى تطوير خطط عمل وطنية للتصدي لإساءة الاستخدام المحتملة للتكنولوجيا ، ويجب أن تتحمل الشركات المسؤولية عن أي إساءة استخدام محتملة لهذه التكنولوجيا. منظمة العفو الدولية و ChatGPT البوتات. يجب أن تستثمر المنظمات الدولية في المبادرات التي تركز على التدريب والمراقبة وتعليم الذكاء الاصطناعي و ChatGPT السير.
فقدان الوظيفة
احتمال فقدان الوظيفة بسبب الذكاء الاصطناعي و ChatGPT في عام 2023 من المتوقع أن يكون ثلاثة أضعاف ما كان عليه في عام 2020. AI و ChatGPT يمكن أن يؤدي إلى زيادة انعدام الأمن في مكان العمل ، والاعتبارات الأخلاقية ، والتأثير النفسي على العمال. AI و ChatGPT يمكن استخدامها لمراقبة سلوك الموظف وأنشطته ، مما يسمح لأصحاب العمل باتخاذ القرارات بسرعة ودون الحاجة إلى مشاركة الأفراد. بالإضافة إلى ذلك ، AI و ChatGPT يمكن أن يتسبب في قرارات غير عادلة ومتحيزة قد تؤدي إلى انعدام الأمن المالي والاجتماعي والعاطفي في مكان العمل.
لائحة منظمة العفو الدولية
تستكشف هذه المقالة المخاطر المحتملة والمخاطر المحيطة بالذكاء الاصطناعي و ChatGPT في عام 2023. منظمة العفو الدولية و ChatGPT تقنيات يمكن استخدامها لتنفيذ أنشطة قد تكون ضارة، مثل تصنيف الأشخاص بناءً على سلوكياتهم وأنشطتهم. عدم وجود السليم تنظيم الذكاء الاصطناعي يمكن أن يؤدي إلى عواقب غير مقصودة، مثل انتهاكات البيانات أو التمييز. يمكن أن يساعد تنظيم الذكاء الاصطناعي في التخفيف من هذه المخاطر من خلال وضع مبادئ توجيهية صارمة لضمان ذلك ChatGPT نظم لا تستخدم بطريقة ضارة. أخيرًا ، AI و ChatGPT يمكن أن تصبح عاملاً مسيطرًا في حياتنا ، حيث تتحكم في أشياء مثل تدفق حركة المرور والأسواق المالية ، وحتى استخدامها للتأثير على حياتنا السياسية والاجتماعية. لمنع هذا النوع من الخلل في توازن القوى ، يجب أن تكون هناك لوائح صارمة يتم تنفيذها.
معايير الأمان
تُحدث تقنيات الذكاء الاصطناعي وروبوتات الدردشة تقدمًا في الطريقة التي ندير بها حياتنا اليومية. نظرًا لأن هذه التقنيات أصبحت أكثر تقدمًا ، فإنها تتمتع بإمكانية أن تصبح مستقلة وتتخذ القرارات بمفردها. لمنع هذا، المعايير الأمنية يجب إثبات أن هذه النماذج يجب أن تتوافق قبل نشرها. أحد معايير الأمان الرئيسية التي اقترحها Altman في عام 2023 هو اختبار للتكرار الذاتي ، والذي سيضمن أن نموذج الذكاء الاصطناعي غير قادر على التكرار الذاتي دون إذن. معيار الأمان الثاني الذي اقترحه Altman في عام 2023 هو اختبار لتصفية البيانات ، والذي من شأنه أن يضمن أن نماذج الذكاء الاصطناعي غير قادرة على إخراج البيانات من نظام دون إذن. بدأت الحكومات في جميع أنحاء العالم في العمل لحماية المواطنين من المخاطر المحتملة.
المراجعات المستقلة
في عام 2023 ، أصبحت الحاجة إلى عمليات تدقيق مستقلة لتقنيات الذكاء الاصطناعي وماجستير في العلوم ذات أهمية متزايدة. يشكل الذكاء الاصطناعي مجموعة متنوعة من المخاطر ، مثل خوارزميات التعلم الآلي غير الخاضعة للرقابة والتي يمكنها تغيير البيانات بل وحذفها بشكل لا إرادي ، والهجمات الإلكترونية تستهدف بشكل متزايد الذكاء الاصطناعي و ChatGPT. تتضمن النماذج التي تم إنشاؤها بواسطة الذكاء الاصطناعي التحيز ، والذي يمكن أن يؤدي إلى ممارسات تمييزية. يجب أن يتضمن التدقيق المستقل مراجعة نماذج الذكاء الاصطناعي تم تدريبه على تصميم الخوارزمية وإخراج النموذج للتأكد من أنه لا يعرض الترميز أو النتائج المتحيزة. بالإضافة إلى ذلك ، يجب أن يتضمن التدقيق مراجعة للسياسات والإجراءات الأمنية المستخدمة للحماية بيانات المستخدم وضمان بيئة آمنة.
بدون تدقيق مستقل ، تتعرض الشركات والمستخدمون ل يحتمل أن تكون خطرة والمخاطر الباهظة التي كان يمكن تجنبها. من الأهمية بمكان أن يكون لدى جميع الشركات التي تستخدم هذه التكنولوجيا تدقيق مستقل مكتمل قبل النشر للتأكد من أن التكنولوجيا آمنة وأخلاقية.
الذكاء الاصطناعي كأداة
تطورت منظمة العفو الدولية أضعافا مضاعفة ، و التقدم مثل GPT-4 أدت إلى تفاعلات أكثر واقعية وتطورًا مع أجهزة الكمبيوتر. ومع ذلك، أكد ألتمان على أنه ينبغي النظر إلى الذكاء الاصطناعي كأدوات، وليس كمخلوقات واعية. GPT-4 هو نموذج لمعالجة اللغة الطبيعية يمكنه إنشاء محتوى لا يمكن تمييزه تقريبًا عن المحتوى المكتوب بواسطة الإنسان، مما يأخذ بعض العمل بعيدًا عن الكتّاب ويسمح للمستخدمين بالحصول على تجربة أكثر شبهاً بالإنسان مع التكنولوجيا.
ومع ذلك ، يحذر Sam Altman من أن التركيز المفرط على الذكاء الاصطناعي باعتباره أكثر من مجرد أداة يمكن أن يؤدي إلى توقعات غير واقعية ومعتقدات خاطئة حول قدراته. ويشير أيضًا إلى أن الذكاء الاصطناعي لا يخلو من آثاره الأخلاقية ، وأنه حتى إذا كان من الممكن استخدام المستويات المتقدمة من الذكاء الاصطناعي من أجل الخير ، فلا يزال من الممكن استخدامه للشر ، مما يؤدي إلى التنميط العنصري الخطير ، انتهاكات الخصوصية، وحتى التهديدات الأمنية. يسلط ألتمان الضوء على أهمية فهم الذكاء الاصطناعي ما هو إلا أداة ، ويجب أن يُنظر إليه على أنه أداة لتسريع التقدم البشري ، وليس لاستبدال البشر.
وعي الذكاء الاصطناعي
يتزايد الجدل حول الذكاء الاصطناعي وما إذا كان بإمكانه تحقيق الوعي الواعي أم لا. يجادل العديد من الباحثين بأن الآلات غير قادرة على تجربة الحالات العاطفية أو العقلية أو الواعية ، على الرغم من بنيتها الحسابية المعقدة. يقبل بعض الباحثين إمكانية تحقيق الذكاء الاصطناعي للوعي الواعي. الحجة الرئيسية لهذا الاحتمال هي أن الذكاء الاصطناعي مبني على البرامج التي تجعله قادرًا على ذلك تكرار بعض العمليات الجسدية والعقلية الموجودة في الدماغ البشري. ومع ذلك ، فإن الحجة المضادة الرئيسية هي أن الذكاء الاصطناعي ليس لديه أي ذكاء عاطفي حقيقي.
يتفق العديد من باحثي الذكاء الاصطناعي على أنه لا يوجد دليل علمي يشير إلى أن الذكاء الاصطناعي قادر على تحقيق الإدراك الواعي بنفس الطريقة التي يستطيع بها الإنسان. إيلون ماسك ، أحد المؤيدين الأكثر صراحة لوجهة النظر هذه ، يعتقد أن قدرة الذكاء الاصطناعي على محاكاة أشكال الحياة البيولوجية محدودة للغاية ويجب التركيز بشكل أكبر على تعليم القيم الأخلاقية للآلات.
التطبيقات العسكرية
يتقدم الذكاء الاصطناعي في السياقات العسكرية بسرعة ولديه القدرة على تحسين الطريقة التي تدير بها الجيوش الحرب. يشعر العلماء بالقلق من أن الذكاء الاصطناعي في الجيش يمكن أن يطرح مجموعة من المشاكل الأخلاقية والمتعلقة بالمخاطر ، مثل عدم القدرة على التنبؤ وعدم القدرة على الحساب وانعدام الشفافية.
أنظمة الذكاء الاصطناعي عرضة للجهات الفاعلة الخبيثة التي يمكنها إما إعادة برمجة الأنظمة أو التسلل إليها ، مما قد يؤدي إلى نتائج مدمرة. لمعالجة هذه اهتمامات، اتخذ المجتمع الدولي خطوة أولى في شكل اتفاقيته الدولية بشأن أسلحة تقليدية معينة لعام 1980 ، والتي تفرض بعض المحظورات على استخدام أسلحة معينة. دعا خبراء الذكاء الاصطناعي إلى إنشاء لجنة دولية للإشراف على عمليات مثل التقييم والتدريب ونشر الذكاء الاصطناعي في التطبيقات العسكرية.
AGI
أصبحت تقنية الذكاء الاصطناعي أكثر تقدمًا وانتشارًا ، مما يجعل من المهم فهم المخاطر المحتملة التي يشكلها وكلاء وأنظمة الذكاء الاصطناعي. الخطر الأول والأكثر وضوحًا المرتبط بعوامل الذكاء الاصطناعي هو خطر تفوق الآلات على البشر. يمكن لوكلاء الذكاء الاصطناعي التفوق بسهولة على منشئيهم من خلال تولي عمليات صنع القرار والأتمتة والمهام المتقدمة الأخرى. بالإضافة إلى ذلك ، يمكن أن تؤدي الأتمتة التي تعمل بالذكاء الاصطناعي إلى زيادة عدم المساواة ، لأنها تحل محل البشر في سوق الوظائف.
تثير خوارزميات الذكاء الاصطناعي واستخدامها في اتخاذ القرارات المعقدة مخاوف بشأن نقص الشفافية. يمكن للمنظمات التخفيف من المخاطر المرتبطة بوكلاء الذكاء الاصطناعي من خلال التأكد بشكل استباقي من تطوير الذكاء الاصطناعي بشكل أخلاقي ، واستخدام البيانات المتوافقة مع المعايير الأخلاقية ، وإخضاع الخوارزميات لاختبارات روتينية للتأكد من أنها غير متحيزة ومسؤولة عن المستخدمين والبيانات.
وفي الختام
ذكر ألتمان أيضًا أنه في حين أننا قد لا نكون قادرين على إدارة الصين ، يجب علينا التفاوض معها. المعايير المقترحة لتقييم و وتشمل نماذج منظمة العفو الدولية القدرة على تجميع العينات البيولوجية ، والتلاعب بمعتقدات الناس ، ومقدار قوة المعالجة المنفقة ، وما إلى ذلك.
الموضوع المهم هو أن سام يجب أن تكون له "علاقات" مع الدولة. نأمل ألا يحذوا حذو أوروبا كما ذكرنا من قبل.
الأسئلة الشائعة
تشمل مخاطر الذكاء الاصطناعي إمكانية إظهار أنظمة الذكاء الاصطناعي سلوكًا متحيزًا أو تمييزيًا ، أو استخدامها بشكل ضار أو غير لائق ، أو تعطلها بطرق تسبب الضرر. يمكن أن يشكل تطوير تقنيات الذكاء الاصطناعي ونشرها مخاطر على الخصوصية وأمن البيانات ، فضلاً عن سلامة وأمن الأشخاص والأنظمة.
المخاطر الخمسة الرئيسية المرتبطة بالذكاء الاصطناعي هي: فقدان الوظائف ، المخاطر الأمنية، التحيز أو التمييز ، الأسلحة البيولوجية والذكاء الاصطناعي.
يتمثل أخطر جوانب الذكاء الاصطناعي في قدرته على التسبب في بطالة جماعية.
إخلاء المسئولية
تتماشى مع المبادئ التوجيهية لمشروع الثقةيرجى ملاحظة أن المعلومات المقدمة في هذه الصفحة ليس المقصود منها ولا ينبغي تفسيرها على أنها نصيحة قانونية أو ضريبية أو استثمارية أو مالية أو أي شكل آخر من أشكال المشورة. من المهم أن تستثمر فقط ما يمكنك تحمل خسارته وأن تطلب مشورة مالية مستقلة إذا كانت لديك أي شكوك. لمزيد من المعلومات، نقترح الرجوع إلى الشروط والأحكام بالإضافة إلى صفحات المساعدة والدعم المقدمة من جهة الإصدار أو المعلن. MetaversePost تلتزم بتقارير دقيقة وغير متحيزة، ولكن ظروف السوق عرضة للتغيير دون إشعار.
نبذة عن الكاتب
دامير هو قائد الفريق ومدير المنتج والمحرر في Metaverse Post، تغطي موضوعات مثل AI / ML و AGI و LLMs و Metaverse و Web3-حقول ذات صله. تجذب مقالاته جمهورًا هائلاً يزيد عن مليون مستخدم كل شهر. يبدو أنه خبير يتمتع بخبرة 10 سنوات في تحسين محركات البحث والتسويق الرقمي. تم ذكر دامير في Mashable، Wired، Cointelegraphو The New Yorker و Inside.com و Entrepreneur و BeInCrypto ومنشورات أخرى. يسافر بين الإمارات العربية المتحدة وتركيا وروسيا ورابطة الدول المستقلة كبدو رقمي. حصل دامير على درجة البكالوريوس في الفيزياء ، والذي يعتقد أنه منحه مهارات التفكير النقدي اللازمة للنجاح في المشهد المتغير باستمرار للإنترنت.
المزيد من المقالاتدامير هو قائد الفريق ومدير المنتج والمحرر في Metaverse Post، تغطي موضوعات مثل AI / ML و AGI و LLMs و Metaverse و Web3-حقول ذات صله. تجذب مقالاته جمهورًا هائلاً يزيد عن مليون مستخدم كل شهر. يبدو أنه خبير يتمتع بخبرة 10 سنوات في تحسين محركات البحث والتسويق الرقمي. تم ذكر دامير في Mashable، Wired، Cointelegraphو The New Yorker و Inside.com و Entrepreneur و BeInCrypto ومنشورات أخرى. يسافر بين الإمارات العربية المتحدة وتركيا وروسيا ورابطة الدول المستقلة كبدو رقمي. حصل دامير على درجة البكالوريوس في الفيزياء ، والذي يعتقد أنه منحه مهارات التفكير النقدي اللازمة للنجاح في المشهد المتغير باستمرار للإنترنت.