משתמשי עוזרי בינה מלאכותית יכולים לפתח להם 'קשר רגשי', מזהירה גוגל

Virtual personal assistants powered by artificial intelligence are becoming ubiquitous across technology platforms, with every major tech firm adding AI to their services and dozens of specialized services tumbling onto the market. While immensely useful, researchers from Google say humans could become too emotionally attached to them, leading to a host of negative social consequences.

A new research paper from Google’s DeepMind AI research laboratory highlights the potential benefits of advanced, personalized AI assistants to transform various aspects of society, saying they “could radically alter the nature of work, education, and creative pursuits as well as how we communicate, coordinate, and negotiate with one another, ultimately influencing who we want to be and to become.”

ההשפעה הגדולה הזו, כמובן, יכולה להיות חרב פיפיות אם פיתוח הבינה המלאכותית ימשיך להאיץ קדימה ללא תכנון מתחשב.

סיכון מרכזי אחד? היווצרות של קשרים קרובים בצורה בלתי הולמת - שעלולה להחריף אם יוצגו לעוזרת ייצוג או פנים דמויי אדם. "הסוכנים המלאכותיים האלה עשויים אפילו להצהיר על חיבתם האפלטונית או הרומנטית לכאורה למשתמש, מה שמניחים את הבסיס למשתמשים ליצור התקשרויות רגשיות ארוכות שנים לבינה מלאכותית", נכתב בעיתון.

אם לא מסומנת, התקשרות כזו עלולה להוביל לאובדן אוטונומיה עבור המשתמש ולאובדן קשרים חברתיים מכיוון שה-AI יכול להחליף אינטראקציה אנושית.

This risk is not purely theoretical. Even when AI was in a somewhat primitive state, an AI chatbot was influential enough to convince an user to commit suicide after a long chat back in 2023. Eight years ago, an AI-powered email assistant named “Amy Ingram” was realistic enough to prompt some users to send love notes and even attempt to visit her at work.

אייסון גבריאל, מדען מחקר בצוות מחקר האתיקה של DeepMind ומחבר שותף של המאמר, לא הגיב פענוח בקשה לתגובה.

עם זאת, בציוץ הזהיר גרבריאל כי "צורות עוזרות יותר ויותר אישיות ודמויות אנושיות מציגות שאלות חדשות סביב אנתרופומורפיזם, פרטיות, אמון ויחסים מתאימים עם AI".

מכיוון ש"מיליוני עוזרי בינה מלאכותית יכולים להיפרס ברמה חברתית שבה הם יתקשרו זה עם זה ועם לא-משתמשים", אמר גבריאל שהוא מאמין בצורך בהגנה נוספת ובגישה הוליסטית יותר לתופעה החברתית החדשה הזו.

מאמר המחקר דן גם בחשיבות של יישור ערכים, בטיחות ושימוש לרעה בפיתוח עוזרי בינה מלאכותית. למרות שעוזרי AI יכולים לעזור למשתמשים לשפר את רווחתם, לשפר את היצירתיות שלהם ולמטב את זמנם, הכותבים הזהירו מפני סיכונים נוספים כמו חוסר התאמה לאינטרסים של המשתמש והחברה, הטלת ערכים על אחרים, שימוש למטרות זדוניות ופגיעות להתקפות יריבות.

כדי להתמודד עם סיכונים אלו, צוות DeepMind ממליץ לפתח הערכות מקיפות עבור עוזרי בינה מלאכותית ולהאיץ את הפיתוח של עוזרי AI בעלי תועלת חברתית.

"אנו עומדים כיום בתחילת עידן זה של שינויים טכנולוגיים וחברתיים. לכן יש לנו חלון הזדמנויות לפעול כעת - כמפתחים, חוקרים, קובעי מדיניות ובעלי עניין ציבוריים - כדי לעצב את סוג עוזרי הבינה המלאכותית שאנו רוצים לראות בעולם".

AI misalignment can be mitigated through Reinforcement Learning Through Human Feedback (RLHF), which is used to train AI models. Experts like Paul Christiano, who ran the language model alignment team at OpenAI and now leads the non-profit Alignment Research Center, warn that improper management of AI training methods could end in catastrophe.

“I think maybe there’s something like a 10-20% chance of AI takeover, [with] many [or] most humans dead, ” Paul Christiano said on the Bankless podcast last year. “I take it quite seriously.”

נערך על ידי ריאן אוזאווה.

הישאר מעודכן בחדשות הקריפטו, קבל עדכונים יומיים בתיבת הדואר הנכנס שלך.

Source: https://decrypt.co/227754/ai-assistant-users-could-develop-an-emotional-attachment-to-them-google-warns