10 AI ו ChatGPT סיכונים וסכנות בשנת 2023
עם ההתקדמות של בינה מלאכותית (AI) וטכנולוגיית צ'טבוט, חברות נוספות רודפות אחר פתרונות שירות לקוחות אוטומטיים כאמצעי לשיפור חווית הלקוח והפחתת עלויות התקורה. אמנם ישנם יתרונות רבים למינוף מודלים של AI ופתרונות צ'טבוט, אך נותרו גם סיכונים וסכנות שונים הקשורים לטכנולוגיה, במיוחד כשהם הופכים נפוצים יותר ומשתלבים בחיי היומיום שלנו במהלך העשור הקרוב.
השבוע כולם בסנאט האמריקאי הקשיבו לסם אלטמן מדבר על הרגולציה והסיכונים של מודלים של AI. להלן סקירה בסיסית:
כלי נשק ביולוגיים
השימוש בבינה מלאכותית (AI) בפיתוח נשק ביולוגי מציג דרך שיטתית ויעילה בצורה מסוכנת ליצור נשק חזק וקטלני להשמדה המונית. ChatGPT בוטים הם עוזרי שיחה מונעי בינה מלאכותית שמסוגלים לנהל שיחות כמו חיות עם בני אדם. הדאגה עם ChatGPT בוטים היא שיש להם פוטנציאל לשמש להפצת מידע שקרי ולתמרן מוחות כדי להשפיע דעת קהל.
רגולציה היא מרכיב מפתח למניעת שימוש לרעה ב-AI ו ChatGPT בוטים בפיתוח ופריסה של נשק ביולוגי. ממשלות צריכות לפתח תוכניות פעולה לאומיות כדי לטפל בשימוש לרעה הפוטנציאלי בטכנולוגיה, וחברות צריכות לשאת באחריות לכל שימוש לרעה פוטנציאלי שלהן. AI ו- ChatGPT בוטים. ארגונים בינלאומיים צריכים להשקיע ביוזמות המתמקדות בהדרכה, ניטור וחינוך AI ו ChatGPT בוטים.
אובדן עבודה
הפוטנציאל לאובדן עבודה עקב AI ו ChatGPT בשנת 2023 צפוי להיות פי שלושה ממה שהיה בשנת 2020. AI ו ChatGPT יכול להוביל לחוסר ביטחון מוגבר במקום העבודה, לשיקולים אתיים ולהשפעה פסיכולוגית על העובדים. AI ו ChatGPT יכול לשמש לניטור התנהגות עובדים ופעילויות, מה שמאפשר למעסיקים לקבל החלטות במהירות וללא צורך בעובדים אנושיים. בנוסף, AI ו ChatGPT יכול לגרום להחלטות לא הוגנות ומשוחדות שעלולות להוביל לחוסר ביטחון כלכלי, חברתי ורגשי במקום העבודה.
תקנת AI
מאמר זה בוחן את סיכונים אפשריים וסכנות סביב AI ו ChatGPT רגולציה בשנת 2023. AI ו ChatGPT טכניקות יכול לשמש לביצוע פעילויות שעלולות להיות זדוניות, כגון יצירת פרופיל של אנשים על סמך התנהגויותיהם ופעילויותיהם. חוסר ראוי תקנת AI עלול להוביל לתוצאות לא מכוונות, כגון הפרות נתונים או אפליה. רגולציית AI יכולה לסייע בהפחתת הסיכון הזה על ידי קביעת הנחיות קפדניות כדי להבטיח זאת ChatGPT מערכות אינם משמשים בצורה זדונית. לבסוף, AI ו ChatGPT יכול להפוך לגורם שולט בחיינו, השולט בדברים כמו זרימת תעבורה ושווקים פיננסיים, ואפילו משמש כדי להשפיע על חיינו הפוליטיים והחברתיים. כדי למנוע סוג זה של חוסר איזון כוח, צריך ליישם תקנות קפדניות.
תקני אבטחה
טכנולוגיות בינה מלאכותית וצ'טבוט גורמות להתקדמות בדרך שבה אנו מנהלים את חיי היומיום שלנו. ככל שהטכנולוגיות הללו נעשות מתקדמות יותר, יש להן פוטנציאל להפוך לאוטונומיים ולקבל החלטות בעצמן. כדי למנוע זאת, תקני ביטחון יש לקבוע שמודלים אלה חייבים להיפגש לפני שניתן יהיה לפרוס אותם. אחד מתקני האבטחה העיקריים שהציע אלטמן בשנת 2023 הוא מבחן לשכפול עצמי, שיבטיח שמודל הבינה המלאכותית אינו מסוגל לשכפל את עצמו ללא אישור. תקן האבטחה השני שהציע אלטמן בשנת 2023 הוא מבחן לחילוץ נתונים, שיבטיח שמודלים של AI לא יוכלו להוציא נתונים ממערכת ללא אישור. ממשלות ברחבי העולם החלו לפעול כדי להגן על האזרחים מפני הסיכונים הפוטנציאליים.
ביקורת עצמאית
בשנת 2023, הצורך בביקורות עצמאיות של טכנולוגיות AI ו-LLM הופך חשוב יותר ויותר. בינה מלאכותית מציבה מגוון סיכונים, כמו אלגוריתמים ללא פיקוח של Machine Learning שיכולים לשנות ואף למחוק נתונים באופן לא רצוני, והתקפות סייבר מכוונות יותר ויותר לבינה מלאכותית ChatGPT. מודלים שנוצרו בינה מלאכותית משלבים הטיה, מה שעלול להוביל לפרקטיקות מפלות. ביקורת בלתי תלויה צריכה לכלול סקירה של מדגמן את ה-AI מאומן על עיצוב האלגוריתם והפלט של המודל כדי לוודא שהוא לא מציג קידוד או תוצאות מוטות. בנוסף, הביקורת צריכה לכלול סקירה של מדיניות האבטחה והנהלים המשמשים להגנה מידע משתמש ולהבטיח סביבה בטוחה.
ללא ביקורת בלתי תלויה, עסקים ומשתמשים נחשפים סכנה אפשרית וסיכונים יקרים שניתן היה להימנע מהם. זה קריטי שלכל העסקים המשתמשים בטכנולוגיה זו יש לבצע ביקורת עצמאית לפני הפריסה כדי להבטיח שהטכנולוגיה בטוחה ואתית.
AI ככלי
AI התפתח באופן אקספוננציאלי, ו התקדמות כמו GPT-4 הובילו לאינטראקציות מציאותיות ומתוחכמות יותר עם מחשבים. עם זאת, אלטמן הדגיש שיש לראות ב-AI ככלים, לא יצורים חיים. GPT-4 הוא מודל טבעי של עיבוד שפה שיכול ליצור תוכן שכמעט ואינו ניתן להבחין בו מתוכן שנכתב על ידי אדם, לוקח חלק מהעבודה מהכותבים ומאפשר למשתמשים לחוות חוויה אנושית יותר עם טכנולוגיה.
עם זאת, סם אלטמן מזהיר שדגש רב מדי על AI כיותר מאשר כלי יכול להוביל לציפיות לא מציאותיות ולאמונות שווא לגבי יכולותיו. הוא גם מציין שבינה מלאכותית אינה חפה מההשלכות האתיות שלה, ושגם אם ניתן להשתמש ברמות מתקדמות של בינה מלאכותית לטוב היא עדיין יכולה לשמש לרעה, מה שיוביל לפרופיל גזעי מסוכן, הפרות פרטיותואפילו איומי אבטחה. אלטמן מדגישה את החשיבות של הבנת הבינה המלאכותית היא רק כלי, ושיש לראות בה כלי להאצת ההתקדמות האנושית, לא כדי להחליף בני אדם.
תודעת AI
הוויכוח בנוגע לבינה מלאכותית והאם היא יכולה להשיג מודעות מודעת או לא גדל. חוקרים רבים טוענים שמכונות אינן מסוגלות לחוות מצבים רגשיים, נפשיים או מודעים, למרות הארכיטקטורה החישובית המורכבת שלהן. חלק מהחוקרים מקבלים את האפשרות של AI להשיג מודעות מודעת. הטיעון העיקרי לאפשרות זו הוא שבינה מלאכותית בנויה על תוכניות שמאפשרות לה משכפל תהליכים פיזיים ונפשיים מסוימים המצויים במוח האנושי. עם זאת, הטיעון הנגדי העיקרי הוא של-AI אין אינטליגנציה רגשית אמיתית.
חוקרי בינה מלאכותית רבים מסכימים שאין הוכחות מדעיות המצביעות על כך שבינה מלאכותית מסוגלת להגיע למודעות מודעת באותה דרך שבה אדם יכול. אלון מאסק, אחד התומכים הקולניים ביותר של נקודת מבט זו, מאמין שהיכולת של AI לחקות צורות חיים ביולוגיות מוגבלת ביותר ויש לשים דגש רב יותר על ללמד מכונות ערכים אתיים.
יישומים צבאיים
ה-AI בהקשרים צבאיים מתקדם במהירות ויש לו פוטנציאל לשפר את האופן שבו צבאות מנהלים לוחמה. מדענים חוששים שבינה מלאכותית בצבא יכולה להציג מגוון של בעיות אתיות וקשורות לסיכון, כמו חוסר חיזוי, אי חישוב וחוסר שקיפות.
מערכות AI פגיעות לגורמים זדוניים שעלולים לתכנת מחדש את המערכות או לחדור למערכות, מה שעלול להוביל לתוצאה הרסנית. להתייחס לאלה חששות, הקהילה הבינלאומית עשתה צעד ראשון בדמות האמנה הבינלאומית שלה לגבי נשק קונבנציונלי מסויים משנת 1980, המציבה איסורים מסוימים על שימוש בכלי נשק מסוימים. מומחי בינה מלאכותית דגלו בוועדה בינלאומית שתפקח על תהליכים כמו הערכה, הכשרה ופריסה של בינה מלאכותית ביישומים צבאיים.
AGI
טכנולוגיית בינה מלאכותית הופכת מתקדמת ורווחת יותר ויותר, מה שהופך את זה חשוב להבין את הסיכונים הפוטנציאליים הנשקפים על ידי סוכני ומערכות בינה מלאכותית. הסיכון הראשון והברור ביותר הקשור לסוכני AI הוא הסכנה של מכונות להערים על בני אדם. סוכני בינה מלאכותית יכולים להתעלות בקלות על יוצריהם על ידי השתלטות על קבלת החלטות, תהליכי אוטומציה ומשימות מתקדמות אחרות. בנוסף, אוטומציה מונעת בינה מלאכותית עשויה להגביר את אי השוויון, מכיוון שהיא מחליפה את בני האדם שוק העבודה.
אלגוריתמי AI והשימוש בהם בקבלת החלטות מורכבת מעלים חשש לחוסר שקיפות. ארגונים יכולים להפחית את הסיכונים הקשורים לסוכני AI על ידי הבטחה יזומה של AI מפותח בצורה אתית, תוך שימוש בנתונים התואמים את הסטנדרטים האתיים, וכפיפת אלגוריתמים לבדיקות שגרתיות כדי לוודא שהם אינם מוטים והם אחראים למשתמשים ולנתונים.
סיכום
אלטמן גם הצהיר שעל אף שלא נוכל לנהל את סין, עלינו לנהל איתה משא ומתן. הקריטריונים המוצעים להערכת ו ויסות מודלים של AI כוללים היכולת לסנתז דגימות ביולוגיות, מניפולציה של אמונות של אנשים, כמות כוח העיבוד המושקע וכו'.
נושא משמעותי הוא שלסאם צריך להיות "יחסים" עם המדינה. אנו מקווים שהם לא הולכים בעקבות הדוגמה של אירופה, כפי שהזכרנו קודם.
שאלות נפוצות
סיכוני בינה מלאכותית כוללים את הפוטנציאל של מערכות בינה מלאכותיות להפגין התנהגות מוטה או מפלה, לשימוש בזדון או לא הולם, או לתקלה בדרכים הגורמות לנזק. הפיתוח והפריסה של טכנולוגיות בינה מלאכותית עלולים להוות סיכונים לפרטיות ואבטחת נתונים, כמו גם לבטיחות ולביטחון של אנשים ומערכות.
חמשת הסיכונים העיקריים הקשורים לבינה מלאכותית הם: אובדן עבודה, סיכוני אבטחה, הטיות או אפליה, נשק ביולוגי ו-AGI.
ההיבט המסוכן ביותר של AI הוא הפוטנציאל שלו לגרום לאבטלה המונית.
כתב ויתור
בקנה אחד עם הנחיות פרויקט אמון, אנא שים לב שהמידע המסופק בדף זה אינו מיועד ואין לפרש אותו כייעוץ משפטי, מס, השקעות, פיננסי או כל צורה אחרת של ייעוץ. חשוב להשקיע רק את מה שאתה יכול להרשות לעצמך להפסיד ולפנות לייעוץ פיננסי עצמאי אם יש לך ספק. למידע נוסף, אנו מציעים להתייחס לתנאים ולהגבלות וכן לדפי העזרה והתמיכה שסופקו על ידי המנפיק או המפרסם. MetaversePost מחויבת לדיווח מדויק וחסר פניות, אך תנאי השוק עשויים להשתנות ללא הודעה מוקדמת.
על המחבר
דמיר הוא ראש הצוות, מנהל המוצר והעורך ב Metaverse Post, המכסה נושאים כגון AI/ML, AGI, LLMs, Metaverse ו Web3-בתחומים משיקים. המאמרים שלו מושכים קהל עצום של למעלה ממיליון משתמשים מדי חודש. נראה שהוא מומחה עם ניסיון של 10 שנים בקידום אתרים ושיווק דיגיטלי. דמיר הוזכר ב-Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ופרסומים אחרים. הוא נודד בין איחוד האמירויות, טורקיה, רוסיה וחבר העמים כנווד דיגיטלי. דמיר סיים תואר ראשון בפיזיקה, שלדעתו נתן לו את כישורי החשיבה הביקורתית הדרושים כדי להצליח בנוף המשתנה ללא הרף של האינטרנט.
מאמרים נוספיםדמיר הוא ראש הצוות, מנהל המוצר והעורך ב Metaverse Post, המכסה נושאים כגון AI/ML, AGI, LLMs, Metaverse ו Web3-בתחומים משיקים. המאמרים שלו מושכים קהל עצום של למעלה ממיליון משתמשים מדי חודש. נראה שהוא מומחה עם ניסיון של 10 שנים בקידום אתרים ושיווק דיגיטלי. דמיר הוזכר ב-Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ופרסומים אחרים. הוא נודד בין איחוד האמירויות, טורקיה, רוסיה וחבר העמים כנווד דיגיטלי. דמיר סיים תואר ראשון בפיזיקה, שלדעתו נתן לו את כישורי החשיבה הביקורתית הדרושים כדי להצליח בנוף המשתנה ללא הרף של האינטרנט.