הנה איך OpenAI מתכננת לנקות את ChatGPT ממידע שקרי

OpenAI הודיעה ב-31 במאי, על מאמציה לשפר את יכולות פתרון הבעיות המתמטיות של ChatGPT, במטרה להפחית מקרים של הזיות בינה מלאכותית (AI). OpenAI הדגישה הפחתת הזיות כצעד מכריע לקראת פיתוח AGI מיושר.

במרץ, הצגת הגרסה העדכנית ביותר של ChatGPT, GPT-4, הניעה עוד יותר את הבינה המלאכותית למיינסטרים. עם זאת, צ'אטבוטים של AI גנרטיביים התמודדו זמן רב עם דיוק עובדתי, ויצרו מדי פעם מידע שקרי, המכונה בדרך כלל "הזיות". המאמצים לצמצם את הזיות הבינה המלאכותית הללו הוכרזו באמצעות פוסט באתר האינטרנט שלהם.

הזיות בינה מלאכותית מתייחסות למקרים שבהם מערכות בינה מלאכותית מייצרות פלטים שגויים עובדתית, מטעות או לא נתמכות בנתונים מהעולם האמיתי. הזיות אלו יכולות להתבטא בצורות שונות, כגון יצירת מידע כוזב, המצאת אירועים או אנשים שאינם קיימים או מתן פרטים לא מדויקים על נושאים מסוימים.

OpenAI ערכה מחקר כדי לבחון את היעילות של שני סוגי משוב - "פיקוח על תוצאות" ו"פיקוח תהליכים". פיקוח תוצאות כולל משוב המבוסס על התוצאה הסופית, בעוד שפיקוח תהליך מספק קלט לכל שלב בשרשרת המחשבה. OpenAI העריכה את המודלים הללו באמצעות בעיות מתמטיות, יצרה מספר פתרונות ובחירת הפתרון בעל הדירוג הגבוה ביותר בהתאם לכל מודל משוב.

לאחר ניתוח יסודי, צוות המחקר מצא שפיקוח על התהליך הניב ביצועים מעולים שכן הוא מעודד את המודל לדבוק בתהליך שאושר על ידי אדם. לעומת זאת, פיקוח על התוצאות התברר כמאתגר יותר לבדיקה עקבית.

OpenAI זיהתה שההשלכות של פיקוח תהליכים מתרחבות מעבר למתמטיקה, ויש צורך בחקירה נוספת כדי להבין את השפעותיו בתחומים שונים. הוא הביע את האפשרות שאם התוצאות הנצפות מתקיימות בהקשרים רחבים יותר, פיקוח תהליכים יכול להציע שילוב חיובי של ביצועים והתאמה בהשוואה לפיקוח על תוצאות. כדי להקל על המחקר, החברה פרסמה בפומבי את מערך הנתונים המלא של פיקוח תהליכים, והזמינה חקירה ומחקר בתחום זה.

מידע נוסף: דרישת הבינה המלאכותית מזניקה את Nvidia למועדון של 1T דולר

למרות ש-OpenAI לא סיפקו מקרים מפורשים שגרמו לחקירתם על הזיות, שני התרחשויות אחרונות הדגימו את הבעיה בתרחישים מהחיים האמיתיים.

בתקרית לאחרונה, עורך הדין סטיבן א. שוורץ בתיק Mata v. Avianca Airlines הודה בהסתמכות על הצ'טבוט כמשאב מחקר. עם זאת, התברר שהמידע שסיפק ChatGPT היה מפוברק לחלוטין, והדגיש את הנושא שעל הפרק.

ChatGPT של OpenAI אינו הדוגמה היחידה למערכות בינה מלאכותית שנתקלות בהזיות. בינה מלאכותית של מיקרוסופט, במהלך הדגמה של טכנולוגיית הצ'טבוט שלה במרץ, בחנה דוחות רווחים ויצרה נתונים לא מדויקים עבור חברות כמו Gap ו- Lululemon.

מגזין: 25 סוחרים הימרו על בחירות המניות של ChatGPT, AI מבאס בזריקות קוביות ועוד

מקור: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information