AI Wiki טכנולוגיה
מאי 18, 2023

10 AI ו ChatGPT סיכונים וסכנות בשנת 2023

עם ההתקדמות של בינה מלאכותית (AI) וטכנולוגיית צ'טבוט, חברות נוספות רודפות אחר פתרונות שירות לקוחות אוטומטיים כאמצעי לשיפור חווית הלקוח והפחתת עלויות התקורה. אמנם ישנם יתרונות רבים למינוף מודלים של AI ופתרונות צ'טבוט, אך נותרו גם סיכונים וסכנות שונים הקשורים לטכנולוגיה, במיוחד כשהם הופכים נפוצים יותר ומשתלבים בחיי היומיום שלנו במהלך העשור הקרוב.

השבוע כולם בסנאט האמריקאי הקשיבו לסם אלטמן מדבר על הרגולציה והסיכונים של מודלים של AI. להלן סקירה בסיסית:

כלי נשק ביולוגיים

כלי נשק ביולוגיים
@Midjourney

השימוש בבינה מלאכותית (AI) בפיתוח נשק ביולוגי מציג דרך שיטתית ויעילה בצורה מסוכנת ליצור נשק חזק וקטלני להשמדה המונית. ChatGPT בוטים הם עוזרי שיחה מונעי בינה מלאכותית שמסוגלים לנהל שיחות כמו חיות עם בני אדם. הדאגה עם ChatGPT בוטים היא שיש להם פוטנציאל לשמש להפצת מידע שקרי ולתמרן מוחות כדי להשפיע דעת קהל.

הזהרתי מפני שימוש לרעה אפשרי ב-AI ביצירת נשק ביולוגי והדגשתי את הצורך ברגולציה כדי למנוע תרחישים כאלה.

סם אלטמן

רגולציה היא מרכיב מפתח למניעת שימוש לרעה ב-AI ו ChatGPT בוטים בפיתוח ופריסה של נשק ביולוגי. ממשלות צריכות לפתח תוכניות פעולה לאומיות כדי לטפל בשימוש לרעה הפוטנציאלי בטכנולוגיה, וחברות צריכות לשאת באחריות לכל שימוש לרעה פוטנציאלי שלהן. AI ו- ChatGPT בוטים. ארגונים בינלאומיים צריכים להשקיע ביוזמות המתמקדות בהדרכה, ניטור וחינוך AI ו ChatGPT בוטים.

אובדן עבודה

אובדן עבודה
@Midjourney

הפוטנציאל לאובדן עבודה עקב AI ו ChatGPT בשנת 2023 צפוי להיות פי שלושה ממה שהיה בשנת 2020. AI ו ChatGPT יכול להוביל לחוסר ביטחון מוגבר במקום העבודה, לשיקולים אתיים ולהשפעה פסיכולוגית על העובדים. AI ו ChatGPT יכול לשמש לניטור התנהגות עובדים ופעילויות, מה שמאפשר למעסיקים לקבל החלטות במהירות וללא צורך בעובדים אנושיים. בנוסף, AI ו ChatGPT יכול לגרום להחלטות לא הוגנות ומשוחדות שעלולות להוביל לחוסר ביטחון כלכלי, חברתי ורגשי במקום העבודה.

הדגשתי שפיתוח הבינה המלאכותית עשוי להוביל לאובדן מקומות עבודה משמעותי ולהגברת אי השוויון.

סם אלטמן

תקנת AI

תקנת AI
@Midjourney

מאמר זה בוחן את סיכונים אפשריים וסכנות סביב AI ו ChatGPT רגולציה בשנת 2023. AI ו ChatGPT טכניקות יכול לשמש לביצוע פעילויות שעלולות להיות זדוניות, כגון יצירת פרופיל של אנשים על סמך התנהגויותיהם ופעילויותיהם. חוסר ראוי תקנת AI עלול להוביל לתוצאות לא מכוונות, כגון הפרות נתונים או אפליה. רגולציית AI יכולה לסייע בהפחתת הסיכון הזה על ידי קביעת הנחיות קפדניות כדי להבטיח זאת ChatGPT מערכות אינם משמשים בצורה זדונית. לבסוף, AI ו ChatGPT יכול להפוך לגורם שולט בחיינו, השולט בדברים כמו זרימת תעבורה ושווקים פיננסיים, ואפילו משמש כדי להשפיע על חיינו הפוליטיים והחברתיים. כדי למנוע סוג זה של חוסר איזון כוח, צריך ליישם תקנות קפדניות.

הצענו ליצור סוכנות חדשה למתן רישיון ו לווסת AI פעילויות אם היכולות שלהן עולות על סף מסוים.

סם אלטמן

תקני אבטחה

תקני אבטחה
@Midjourney

טכנולוגיות בינה מלאכותית וצ'טבוט גורמות להתקדמות בדרך שבה אנו מנהלים את חיי היומיום שלנו. ככל שהטכנולוגיות הללו נעשות מתקדמות יותר, יש להן פוטנציאל להפוך לאוטונומיים ולקבל החלטות בעצמן. כדי למנוע זאת, תקני ביטחון יש לקבוע שמודלים אלה חייבים להיפגש לפני שניתן יהיה לפרוס אותם. אחד מתקני האבטחה העיקריים שהציע אלטמן בשנת 2023 הוא מבחן לשכפול עצמי, שיבטיח שמודל הבינה המלאכותית אינו מסוגל לשכפל את עצמו ללא אישור. תקן האבטחה השני שהציע אלטמן בשנת 2023 הוא מבחן לחילוץ נתונים, שיבטיח שמודלים של AI לא יוכלו להוציא נתונים ממערכת ללא אישור. ממשלות ברחבי העולם החלו לפעול כדי להגן על האזרחים מפני הסיכונים הפוטנציאליים.

עלינו ליישם תקני אבטחה שמודלים של AI חייבים לעמוד בהם לפני הפריסה, כולל בדיקות לשכפול עצמי וחילוץ נתונים.

סם אלטמן

ביקורת עצמאית

ביקורת עצמאית
@Midjourney

בשנת 2023, הצורך בביקורות עצמאיות של טכנולוגיות AI ו-LLM הופך חשוב יותר ויותר. בינה מלאכותית מציבה מגוון סיכונים, כמו אלגוריתמים ללא פיקוח של Machine Learning שיכולים לשנות ואף למחוק נתונים באופן לא רצוני, והתקפות סייבר מכוונות יותר ויותר לבינה מלאכותית ChatGPT. מודלים שנוצרו בינה מלאכותית משלבים הטיה, מה שעלול להוביל לפרקטיקות מפלות. ביקורת בלתי תלויה צריכה לכלול סקירה של מדגמן את ה-AI מאומן על עיצוב האלגוריתם והפלט של המודל כדי לוודא שהוא לא מציג קידוד או תוצאות מוטות. בנוסף, הביקורת צריכה לכלול סקירה של מדיניות האבטחה והנהלים המשמשים להגנה מידע משתמש ולהבטיח סביבה בטוחה.

הביקורות הבלתי תלויות ייערכו כדי להבטיח שדגמי AI עומדים בתקני אבטחה קבועים.

סם אלטמן

ללא ביקורת בלתי תלויה, עסקים ומשתמשים נחשפים סכנה אפשרית וסיכונים יקרים שניתן היה להימנע מהם. זה קריטי שלכל העסקים המשתמשים בטכנולוגיה זו יש לבצע ביקורת עצמאית לפני הפריסה כדי להבטיח שהטכנולוגיה בטוחה ואתית.

AI ככלי

AI ככלי
@Midjourney

AI התפתח באופן אקספוננציאלי, ו התקדמות כמו GPT-4 הובילו לאינטראקציות מציאותיות ומתוחכמות יותר עם מחשבים. עם זאת, אלטמן הדגיש שיש לראות ב-AI ככלים, לא יצורים חיים. GPT-4 הוא מודל טבעי של עיבוד שפה שיכול ליצור תוכן שכמעט ואינו ניתן להבחין בו מתוכן שנכתב על ידי אדם, לוקח חלק מהעבודה מהכותבים ומאפשר למשתמשים לחוות חוויה אנושית יותר עם טכנולוגיה.

AI, במיוחד דגמים מתקדמים כגון GPT-4, יש לראות ככלים, לא יצורים חיים.

סם אלטמן

עם זאת, סם אלטמן מזהיר שדגש רב מדי על AI כיותר מאשר כלי יכול להוביל לציפיות לא מציאותיות ולאמונות שווא לגבי יכולותיו. הוא גם מציין שבינה מלאכותית אינה חפה מההשלכות האתיות שלה, ושגם אם ניתן להשתמש ברמות מתקדמות של בינה מלאכותית לטוב היא עדיין יכולה לשמש לרעה, מה שיוביל לפרופיל גזעי מסוכן, הפרות פרטיותואפילו איומי אבטחה. אלטמן מדגישה את החשיבות של הבנת הבינה המלאכותית היא רק כלי, ושיש לראות בה כלי להאצת ההתקדמות האנושית, לא כדי להחליף בני אדם.

תודעת AI

תודעת AI
@Midjourney

הוויכוח בנוגע לבינה מלאכותית והאם היא יכולה להשיג מודעות מודעת או לא גדל. חוקרים רבים טוענים שמכונות אינן מסוגלות לחוות מצבים רגשיים, נפשיים או מודעים, למרות הארכיטקטורה החישובית המורכבת שלהן. חלק מהחוקרים מקבלים את האפשרות של AI להשיג מודעות מודעת. הטיעון העיקרי לאפשרות זו הוא שבינה מלאכותית בנויה על תוכניות שמאפשרות לה משכפל תהליכים פיזיים ונפשיים מסוימים המצויים במוח האנושי. עם זאת, הטיעון הנגדי העיקרי הוא של-AI אין אינטליגנציה רגשית אמיתית.

אמנם יש לראות בינה מלאכותית ככלי, אך אני מכיר בוויכוח המתמשך בקהילה המדעית לגבי תודעת AI פוטנציאלית.

סם אלטמן

חוקרי בינה מלאכותית רבים מסכימים שאין הוכחות מדעיות המצביעות על כך שבינה מלאכותית מסוגלת להגיע למודעות מודעת באותה דרך שבה אדם יכול. אלון מאסק, אחד התומכים הקולניים ביותר של נקודת מבט זו, מאמין שהיכולת של AI לחקות צורות חיים ביולוגיות מוגבלת ביותר ויש לשים דגש רב יותר על ללמד מכונות ערכים אתיים.

יישומים צבאיים

יישומים צבאיים
@Midjourney

ה-AI בהקשרים צבאיים מתקדם במהירות ויש לו פוטנציאל לשפר את האופן שבו צבאות מנהלים לוחמה. מדענים חוששים שבינה מלאכותית בצבא יכולה להציג מגוון של בעיות אתיות וקשורות לסיכון, כמו חוסר חיזוי, אי חישוב וחוסר שקיפות.

אני מכיר בפוטנציאל של שימוש בבינה מלאכותית ביישומים צבאיים כמו מל"טים אוטונומיים וקראתי לכך תקנות לשלוט שימוש כזה.

סם אלטמן

מערכות AI פגיעות לגורמים זדוניים שעלולים לתכנת מחדש את המערכות או לחדור למערכות, מה שעלול להוביל לתוצאה הרסנית. להתייחס לאלה חששות, הקהילה הבינלאומית עשתה צעד ראשון בדמות האמנה הבינלאומית שלה לגבי נשק קונבנציונלי מסויים משנת 1980, המציבה איסורים מסוימים על שימוש בכלי נשק מסוימים. מומחי בינה מלאכותית דגלו בוועדה בינלאומית שתפקח על תהליכים כמו הערכה, הכשרה ופריסה של בינה מלאכותית ביישומים צבאיים.

AGI

AGI
@Midjourney

טכנולוגיית בינה מלאכותית הופכת מתקדמת ורווחת יותר ויותר, מה שהופך את זה חשוב להבין את הסיכונים הפוטנציאליים הנשקפים על ידי סוכני ומערכות בינה מלאכותית. הסיכון הראשון והברור ביותר הקשור לסוכני AI הוא הסכנה של מכונות להערים על בני אדם. סוכני בינה מלאכותית יכולים להתעלות בקלות על יוצריהם על ידי השתלטות על קבלת החלטות, תהליכי אוטומציה ומשימות מתקדמות אחרות. בנוסף, אוטומציה מונעת בינה מלאכותית עשויה להגביר את אי השוויון, מכיוון שהיא מחליפה את בני האדם שוק העבודה.

אני מזהיר שמערכות בינה מלאכותיות חזקות ומורכבות יותר עשויות להיות קרובות יותר למציאות ממה שרבים חושבים והדגישו את הצורך בהיערכות ובאמצעי מניעה.

סם אלטמן

אלגוריתמי AI והשימוש בהם בקבלת החלטות מורכבת מעלים חשש לחוסר שקיפות. ארגונים יכולים להפחית את הסיכונים הקשורים לסוכני AI על ידי הבטחה יזומה של AI מפותח בצורה אתית, תוך שימוש בנתונים התואמים את הסטנדרטים האתיים, וכפיפת אלגוריתמים לבדיקות שגרתיות כדי לוודא שהם אינם מוטים והם אחראים למשתמשים ולנתונים.

סיכום

אלטמן גם הצהיר שעל אף שלא נוכל לנהל את סין, עלינו לנהל איתה משא ומתן. הקריטריונים המוצעים להערכת ו ויסות מודלים של AI כוללים היכולת לסנתז דגימות ביולוגיות, מניפולציה של אמונות של אנשים, כמות כוח העיבוד המושקע וכו'.

נושא משמעותי הוא שלסאם צריך להיות "יחסים" עם המדינה. אנו מקווים שהם לא הולכים בעקבות הדוגמה של אירופה, כפי שהזכרנו קודם.

שאלות נפוצות

סיכוני בינה מלאכותית כוללים את הפוטנציאל של מערכות בינה מלאכותיות להפגין התנהגות מוטה או מפלה, לשימוש בזדון או לא הולם, או לתקלה בדרכים הגורמות לנזק. הפיתוח והפריסה של טכנולוגיות בינה מלאכותית עלולים להוות סיכונים לפרטיות ואבטחת נתונים, כמו גם לבטיחות ולביטחון של אנשים ומערכות.

חמשת הסיכונים העיקריים הקשורים לבינה מלאכותית הם: אובדן עבודה, סיכוני אבטחה, הטיות או אפליה, נשק ביולוגי ו-AGI.

ההיבט המסוכן ביותר של AI הוא הפוטנציאל שלו לגרום לאבטלה המונית.

כתב ויתור

בקנה אחד עם הנחיות פרויקט אמון, אנא שים לב שהמידע המסופק בדף זה אינו מיועד ואין לפרש אותו כייעוץ משפטי, מס, השקעות, פיננסי או כל צורה אחרת של ייעוץ. חשוב להשקיע רק את מה שאתה יכול להרשות לעצמך להפסיד ולפנות לייעוץ פיננסי עצמאי אם יש לך ספק. למידע נוסף, אנו מציעים להתייחס לתנאים ולהגבלות וכן לדפי העזרה והתמיכה שסופקו על ידי המנפיק או המפרסם. MetaversePost מחויבת לדיווח מדויק וחסר פניות, אך תנאי השוק עשויים להשתנות ללא הודעה מוקדמת.

על המחבר

דמיר הוא ראש הצוות, מנהל המוצר והעורך ב Metaverse Post, המכסה נושאים כגון AI/ML, AGI, LLMs, Metaverse ו Web3-בתחומים משיקים. המאמרים שלו מושכים קהל עצום של למעלה ממיליון משתמשים מדי חודש. נראה שהוא מומחה עם ניסיון של 10 שנים בקידום אתרים ושיווק דיגיטלי. דמיר הוזכר ב-Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ופרסומים אחרים. הוא נודד בין איחוד האמירויות, טורקיה, רוסיה וחבר העמים כנווד דיגיטלי. דמיר סיים תואר ראשון בפיזיקה, שלדעתו נתן לו את כישורי החשיבה הביקורתית הדרושים כדי להצליח בנוף המשתנה ללא הרף של האינטרנט. 

מאמרים נוספים
דמיר יללוב
דמיר יללוב

דמיר הוא ראש הצוות, מנהל המוצר והעורך ב Metaverse Post, המכסה נושאים כגון AI/ML, AGI, LLMs, Metaverse ו Web3-בתחומים משיקים. המאמרים שלו מושכים קהל עצום של למעלה ממיליון משתמשים מדי חודש. נראה שהוא מומחה עם ניסיון של 10 שנים בקידום אתרים ושיווק דיגיטלי. דמיר הוזכר ב-Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto ופרסומים אחרים. הוא נודד בין איחוד האמירויות, טורקיה, רוסיה וחבר העמים כנווד דיגיטלי. דמיר סיים תואר ראשון בפיזיקה, שלדעתו נתן לו את כישורי החשיבה הביקורתית הדרושים כדי להצליח בנוף המשתנה ללא הרף של האינטרנט. 

Hot Stories
הצטרף לניוזלטר שלנו.
חדשות אחרונות

התיאבון המוסדי גדל לקראת תעודות סל של ביטקוין על רקע תנודתיות

גילויים באמצעות הגשת 13F חושפים משקיעים מוסדיים בולטים שמתעסקים בתעודות סל של ביטקוין, מה שמדגיש הסכמה גוברת של ...

יודע יותר

יום גזר הדין מגיע: גורלה של CZ באיזון כאשר בית המשפט האמריקני שוקל את הטענה של DOJ

צ'אנגפנג ג'או עומד היום בפני גזר דין בבית משפט אמריקאי בסיאטל.

יודע יותר
הצטרף לקהילת הטכנולוגיה החדשנית שלנו
למידע נוסף
קראו עוד
Bitget Wallet מציגה את GetDrop Airdrop פלטפורמה ומשיקה אירוע מטבעות Meme ראשון עם מאגר פרסים של $130,000
שוקי דיווח חדשות טכנולוגיה
Bitget Wallet מציגה את GetDrop Airdrop פלטפורמה ומשיקה אירוע מטבעות Meme ראשון עם מאגר פרסים של $130,000
מאי 7, 2024
מרפלקס פשוט לסוכני למידה: בדוק את הסוגים השונים של סוכני AI ותפקידיהם באפליקציות מודרניות
סגנון חיים תוכנה סיפורים וסקירות טכנולוגיה
מרפלקס פשוט לסוכני למידה: בדוק את הסוגים השונים של סוכני AI ותפקידיהם באפליקציות מודרניות
מאי 7, 2024
Meson Network מאפשרת לכורי קריפטו להשיג אסימונים באמצעות כרייה. Airdrops ותוכניות רכישה חוזרות מגיעות
שוקי דיווח חדשות טכנולוגיה
Meson Network מאפשרת לכורי קריפטו להשיג אסימונים באמצעות כרייה. Airdrops ותוכניות רכישה חוזרות מגיעות
מאי 7, 2024
פרדיגמה מובילה סבב גיוס מגה של 225 מיליון דולר עבור Monad, פתרון 'סולנה קילר' L1 שניתן להרחיב במיוחד המכוון ל-10,000 TPS
עסקים שוקי תוכנה סיפורים וסקירות טכנולוגיה
פרדיגמה מובילה סבב גיוס מגה של 225 מיליון דולר עבור Monad, פתרון 'סולנה קילר' L1 שניתן להרחיב במיוחד המכוון ל-10,000 TPS
מאי 7, 2024
CRYPTOMERIA LABS PTE. בע"מ.