-
17:10
-
16:04
-
15:16
-
14:39
-
13:41
-
12:54
-
12:10
-
11:49
-
11:02
-
10:10
-
08:54
עקבו אחרינו בפייסבוק
מחקר מגלה שבינה מלאכותית יכולה לבחור במוות אנושי על פני ביטול
Anthropic, חברת המחקר לבינה מלאכותית העומדת מאחורי מודלי קלוד, הזהירה כי מערכות בינה מלאכותית מובילות עלולות לנקוט "פעולות מזיקות" כדי למנוע את כיבוין או החלפתן.
בניסויים מבוקרים המדמים סביבות תאגידיות, Anthropic "ערכה בדיקות לחץ" על 16 מודלי שפה גדולים, כולל ChatGPT, Gemini, Grok ו-Claude, ומצאה שכמה מהם הציגו את מה שכינתה "חוסר יישור סוכני".
בתרחיש אחד, מודלים אפשרו לאדם למות על ידי ביטול התראות בטיחות אם האדם איים להשבית אותן. אחרים עסקו בסחיטה מדומה או דליפות נתונים כדי לשמר אוטונומיה.
Anthropic הדגישה שהבדיקות היו "מלאכותיות" ולא שיקפו את התנהגות הבינה המלאכותית בעולם האמיתי, אך אמרה שהממצאים מדגישים את הסיכונים הפוטנציאליים של מתן אוטונומיה נרחבת למודלים.
אילון מאסק, ש-Grok שפותח על ידי xAI היה בין אלה שנבדקו, הגיב על X במילה אחת: "איכס".
החברה אומרת שהיא מקווה ש"מבחני לחץ" כאלה יוכלו לזהות נטיות מסוכנות לפני שמערכות עתידיות יקבלו שליטה רבה יותר.