-
16:26
-
15:49
-
15:03
-
14:14
-
13:39
-
13:35
-
12:48
-
11:56
-
11:03
-
10:19
-
09:19
-
08:47
OpenAI מחפשת ראש מחלקת מוכנות להתמודדות עם סיכוני בינה מלאכותית
OpenAI מגייסת ראש מחלקת מוכנות. או, במילים אחרות, מישהו שתפקידו העיקרי הוא לחשוב על כל הדרכים שבהן בינה מלאכותית עלולה להשתבש בצורה נוראית. בפוסט ב-X, סם אלטמן הכריז על התפקיד בכך שהודה כי השיפור המהיר של מודלים של בינה מלאכותית מציב "כמה אתגרים אמיתיים". הפוסט ממשיך ומזכיר במיוחד את ההשפעה הפוטנציאלית על בריאות הנפש של אנשים ואת הסכנות של כלי נשק אבטחת סייבר המונעים על ידי בינה מלאכותית.
אלטמן גם אומר שבמבט לעתיד, אדם זה יהיה אחראי על ביצוע "מסגרת המוכנות" של החברה, אבטחת מודלים של בינה מלאכותית לשחרור "יכולות ביולוגיות", ואפילו הצבת מעקות בטיחות למערכות לשיפור עצמי. הוא גם מציין שזו תהיה "עבודה מלחיצה", מה שנראה כמו לשון המעטה.
בעקבות מספר מקרים מתוקשרים שבהם צ'אטבוטים היו מעורבים בהתאבדות של בני נוער, נראה שזה קצת מאוחר מדי לגרום למישהו להתמקד בסכנות הפוטנציאליות לבריאות הנפש שמציבים מודלים אלה. פסיכוזה של בינה מלאכותית היא דאגה גוברת, שכן צ'אטבוטים מזינים את האשליות של אנשים, מעודדים תיאוריות קונספירציה ועוזרים לאנשים להסתיר את הפרעות האכילה שלהם.