OpenAI מחזקת את אבטחת ChatGPT עם תכונת מניעת פגיעה עצמית
OpenAI הכריזה על השקת תכונת אבטחה חדשה בשם "איש קשר מהימן", שנועדה לשפר את הטיפול במצבים רגישים הקשורים לסיכוני פגיעה עצמית בעת שימוש ב-ChatGPT.
אפשרות חדשה זו מאפשרת למשתמשים בוגרים להקצות אדם מהימן - בן משפחה או חבר קרוב - אשר יוכל לקבל התראה אם המערכת מזהה סימנים מדאיגים במהלך שיחה. המטרה המוצהרת היא לחזק את המניעה תוך שמירה על פרטיות המשתמש.
לדברי החברה, כאשר שיחה מראה סימנים של פגיעה עצמית פוטנציאלית, המשתמש מתבקש תחילה ליצור קשר עם אדם מהימן זה בעצמו. אם המצב נחשב קריטי לאחר ניתוח, ניתן לשלוח הודעה אוטומטית כדי לבקש מאדם זה לבדוק את מצבו של המשתמש.
המערכת מסתמכת על שילוב של כלים אוטומטיים ובדיקה אנושית. שיחות המזוהות כרגישות נבדקות על ידי צוותים מיוחדים המסוגלים להעריך את רמת הסיכון לפני הפעלת כל התראה. OpenAI מצהירה כי היא שואפת לעבד דוחות אלה במהירות רבה כדי להבטיח תגובה מהירה למצבים שעלולים להיות חמורים.
החברה מציינת גם כי ההתראות הנשלחות מוגבלות במכוון ואינן מכילות פרטים על השיחות, על מנת להגן על פרטיות המשתמשים.
השקת תכונה זו מגיעה על רקע לחץ גובר סביב אחריותן של פלטפורמות בינה מלאכותית. OpenAI עומדת כעת בפני מספר תביעות משפטיות שהוגשו על ידי משפחות המאשימות צ'אטבוטים מסוימים בהחמרת מצבים פסיכולוגיים שבריריים.
צעד חדש זה עולה בקנה אחד עם מדיניות האבטחה שכבר יישמה החברה, כולל תכונות בקרת הורים והתראות אוטומטיות המעודדות משתמשים לפנות לעזרה מקצועית כאשר מזוהות שיחות רגישות.
OpenAI מדגישה כי הפעלת "איש קשר מהימן" נותרה אופציונלית לחלוטין. החברה מציינת כי היא מבקשת איזון בין מניעת סיכונים, הגנה על מידע אישי ושיפור מתמיד של כלי האבטחה שלה הקשורים לבינה מלאכותית.