האם חשיפה ורישום של אותם AI ChatGPT השגויות והזויות עושה משהו, שואלת אתיקה של AI וחוק AI

יש לך סוד.

כן, משהו מתרחש בחשאי מאחורי הקלעים לגבי החידושים האחרונים בתחום הבינה המלאכותית, שאולי תרצו לדעת עליו.

בטור של היום, אני אבחן את הדחף האחרון לאיסוף שגיאות לכאורה ומחלות אחרות הקשורות למאמרים המופקים מאפליקציית AI הידועה בשם ChatGPT. האפליקציה הספציפית הזו משתמשת בסוג של AI שנקרא AI Generative. בטח שמעתם או ראיתם כותרות מושכות עין על AI ו-ChatGPT מבוססי-גנרטיבי. החדשות קשות על אפליקציית הבינה המלאכותית הספציפית הזו ועל היכולות המדהימות לכאורה הנוגעות לסוג זה של בינה מלאכותית.

כפי שאספר בעוד רגע, יש המאמינים בתוקף שעלינו ליצור רשימה של סוגי הטעויות או השגיאות שאפליקציית הבינה המלאכותית יכולה לייצר כשהיא מייצרת עבורך חיבור. אחרים טוענים שלמרות שהרעיון של רשימה כזו ראוי להערצה, זה תרגיל בחוסר התוחלת ויישא פרי מעט מאוד.

אנחנו נבחן את שני הצדדים של הדיון הנורא הזה.

ראשית, בואו נוודא שכולנו נמצאים באותו עמוד לגבי מה מורכב AI Generative וגם על מה זה ChatGPT.

ChatGPT היא מערכת בינה מלאכותית אינטראקטיבית מוכוונת שיחה, בעצם צ'אט בוט כללי תמים לכאורה, עם זאת, היא נמצאת בשימוש פעיל ונלהב על ידי אנשים בדרכים שתופסות רבים לחלוטין. כל מה שאתה צריך לעשות כדי להשתמש בסוג זה של בינה מלאכותית הוא להזין הנחיה ואפליקציית הבינה המלאכותית תייצר עבורך חיבור שינסה להגיב להנחיה שלך.

למרבה הצער, זה יכול לשמש בדרכים קצת לא אתיות או ערמומיות. בעיה מעצבנת במיוחד היא שסטודנטים יכולים להשתמש באפליקציית AI מבוססת-גנרטיבית כדי להפיק עבורם את החיבורים שהוקצו להם, לעשות זאת על ידי הזנת משפט או שניים כדי להביא את האפליקציה לכיוון הנכון. יש המקוננים שמשמעות הדבר היא שתלמידים יבחרו לרמות בעת כתיבת חיבורים מחוץ לכיתה. מורים מנסים להבין מה לעשות, ראה את הניתוח וההמלצות שלי בכתובת הקישור כאן.

למרות ההמולה המתמדת של שבחים ראויים לשבח ל-ChatGPT, יש דאגה פחות מוכרת שהובעה בעיקר על ידי מקורבים לבינה מלאכותית שיש כמה בעיות ובעיות בולטים שאנשים צריכים לדאוג לגביהם. חיסרון מכריע אחד הוא שבחיבורים המופקים על ידי אפליקציית בינה מלאכותית זו יכולים להיות מוטמעים שקרים שונים, כולל עובדות לא נכונות בעליל, עובדות שמתוארות בצורה מטעה ועובדות לכאורה שהן מפוברקות לחלוטין. היבטים מפוברקים אלה מכונים לעתים קרובות כצורה של הזיות בינה מלאכותית, משפט קצף שאני לא אוהב אבל נראה לי שבכל זאת זוכה לרווחה פופולרית בכל מקרה (להסבר המפורט שלי למה זה טרמינולוגיה עלובה ולא מתאימה, ראה את הסיקור שלי ב- הקישור כאן).

אני רוצה להבהיר היבט חשוב אחד לפני שניכנס לעובי הקורה בנושא זה.

היו כמה טענות מטורפות במדיה החברתית בנושא AI Generative בטענה שהגרסה האחרונה של AI היא למעשה AI חיוני (לא, הם טועים!). העוסקים באתיקה של בינה מלאכותית ובחוק בינה מלאכותית מודאגים במיוחד מהמגמה המתפתחת הזו של טענות מורחבות. אפשר לומר בנימוס שחלק מהאנשים מגזימים במה שה-AI של היום באמת יכול לעשות. הם מניחים של-AI יש יכולות שעדיין לא הצלחנו להשיג. זה מצער. גרוע מכך, הם יכולים להרשות לעצמם ולאחרים להגיע למצבים קשים בגלל ההנחה שה-AI יהיה חיוני או דומה לאדם ביכולת לנקוט בפעולה.

אל תעשה אנתרופומורפיזציה של AI.

פעולה זו תילכד אותך במלכודת הסתמכות דביקה ועמומה של ציפייה שה-AI יעשה דברים שהוא לא מסוגל לבצע. עם זאת, הגרסה האחרונה בתחום הבינה המלאכותית הגנרטיבית מרשימה יחסית למה שהיא יכולה לעשות. עם זאת, שים לב שישנן מגבלות משמעותיות שעליך לזכור ללא הרף בעת שימוש באפליקציית AI גנרטיבית.

אם אתה מעוניין במהומה המתרחבת במהירות על ChatGPT ו- Generative AI, עשיתי סדרה ממוקדת בטור שלי שאולי תמצא לך אינפורמציה. הנה הצצה למקרה שאחד מהנושאים האלה יתחבב עליך:

  • 1) תחזיות של התקדמות AI גנרטיבית. אם אתה רוצה לדעת מה צפוי להתפתח לגבי AI במהלך 2023 ואילך, כולל ההתקדמות הקרובה בבינה מלאכותית ו-ChatGPT, תרצה לקרוא את הרשימה המקיפה שלי של תחזיות 2023 בכתובת הקישור כאן.
  • 2) ייעוץ בינה מלאכותית ונפשית. בחרתי לסקור כיצד נעשה שימוש בבינה מלאכותית וב-ChatGPT לייעוץ לבריאות הנפש, מגמה מטרידה, לפי הניתוח הממוקד שלי ב- הקישור כאן.
  • 3) הקשר ושימוש בינה מלאכותית. עשיתי גם בדיקת לשון בלחי בטעם עונתי על הקשר הקשור לסנטה הכולל ChatGPT ובינה מלאכותית יצירתית הקישור כאן.
  • 4) רמאים המשתמשים בבינה מלאכותית גנרטיבית. בנימה מבשרת רעות, כמה רמאים הבינו כיצד להשתמש בבינה מלאכותית וב-ChatGPT כדי לעשות עוולות, כולל הפקת הודעות דוא"ל הונאה ואפילו הפקת קוד תכנות עבור תוכנות זדוניות, ראה את הניתוח שלי בכתובת הקישור כאן.
  • 5) טעויות טירונים בשימוש בינה מלאכותית. אנשים רבים גם מחליפים וגם מפתיעים את מה ש-AI גנראטיבי ו-ChatGPT יכולים לעשות, אז הסתכלתי במיוחד על ה-undershooting שטירוני בינה מלאכותית נוטים לעשות, ראה את הדיון בכתובת הקישור כאן.
  • 6) התמודדות עם הנחיות בינה מלאכותית והזיות בינה מלאכותית. אני מתאר גישה מובילה לשימוש בתוספות בינה מלאכותית כדי להתמודד עם הבעיות השונות הקשורות בניסיון להזין הנחיות מתאימות לבינה מלאכותית, ובנוסף ישנן תוספות בינה מלאכותית נוספות לזיהוי פלטים והזיות שווא של בינה מלאכותית, כמו מכוסה ב הקישור כאן.
  • 7) ביטול טענות Bonehead על זיהוי מאמרים שיוצרו בינה מלאכותית. ישנה הבהלה מוטעית לזהב של אפליקציות בינה מלאכותיות שמכריזות כי הן מסוגלות לברר אם כל חיבור נתון נוצר מאדם לעומת AI. בסך הכל, זה מטעה ובמקרים מסוימים, טענה עצומה ובלתי נסבלת, ראה את הסיקור שלי ב- הקישור כאן.
  • 8) משחק תפקידים באמצעות בינה מלאכותית גנרטיבית עשויה להוות חסרונות בבריאות הנפש. חלקם משתמשים בבינה מלאכותית כמו ChatGPT כדי לעשות משחק תפקידים, לפיו אפליקציית הבינה המלאכותית מגיבה לאדם כאילו קיים בעולם פנטזיה או סביבה מורכבת אחרת. זה עלול להיות בעל השלכות על בריאות הנפש, תראה הקישור כאן.

בוא נדון עכשיו במהות של AI ו-ChatGPT גנרטיבי כדי שתדע את היסודות המעורבים. לאחר מכן נהיה מוכנים לקפוץ לניתוח בוחן של השקר שאפליקציות בינה מלאכותיות אלו עלולות ליצור. אני אכלול מספר דוגמאות לשימוש ב-ChatGPT, שיעזרו לך להבין באופן מוחשי את מהות מה שסוג זה של AI מחולל מייצר.

פתיחת פחית התולעים ב-AI גנרטיבי

אנחנו מוכנים לצלול לכמה פרטים על AI.

אם אתה כבר בקיא מאוד בנושא AI גנראטיבי ו-ChatGPT, אולי תבחר לדפדף בקצרה בנקודות שלי ולהמשיך עם הקטע הבא של הדיון הזה. עבור כל השאר, אני מאמין שההסבר הזה עשוי לעזור לך.

בקצרה, AI גנרטיבי הוא סוג מסוים של AI שמרכיב טקסט כאילו הטקסט נכתב על ידי היד והמוח האנושיים. כל מה שאתה צריך לעשות הוא להזין הנחיה, כגון משפט כמו "ספר לי על אברהם לינקולן" ובינה מלאכותית גנרטיבית תספק לך חיבור על לינקולן. זה מסווג בדרך כלל כ-AI גנרטיבי שמתפקד טקסט לטקסט או שיש המעדיפים לקרוא לזה טקסט למאמר תְפוּקָה. אולי שמעתם על מצבים אחרים של AI גנרטיבי, כמו טקסט לאמנות וטקסט לווידאו.

המחשבה הראשונה שלך עשויה להיות שזה לא נראה כמו עניין כל כך גדול מבחינת הפקת מאמרים. אתה יכול בקלות לבצע חיפוש מקוון באינטרנט ולמצוא בקלות המון המון חיבורים על הנשיא לינקולן. העיקר במקרה של AI גנראטיבי הוא שהחיבור שנוצר הוא ייחודי יחסית ומספק קומפוזיציה מקורית ולא העתקה. אם הייתם מנסים למצוא את החיבור שהופק בינה מלאכותית במקום כלשהו באינטרנט, לא סביר שתגלו אותו.

AI גנרטיבי מאומן מראש ועושה שימוש בניסוח מתמטי וחישוב מורכב שהוקם על ידי בחינת דפוסים במילים כתובות ובסיפורים ברחבי הרשת. כתוצאה מבדיקת אלפי ומיליוני קטעים כתובים, הבינה המלאכותית יכולה לפלוט חיבורים וסיפורים חדשים שהם תערובת של מה שנמצא. על ידי הוספת פונקציונליות הסתברותית שונות, הטקסט המתקבל הוא די ייחודי בהשוואה למה שהיה בשימוש בערכת האימונים.

זו הסיבה שהתעוררה מהומה על כך שתלמידים מסוגלים לרמות בעת כתיבת חיבורים מחוץ לכיתה. מורה לא יכול רק לקחת את החיבור שתלמידים רמאים טוענים שהוא הכתיבה שלהם ולחפש אם הוא הועתק ממקור מקוון אחר. בסך הכל, לא יהיה שום חיבור סופי מקוון שמתאים לחיבור שנוצר בינה מלאכותית. בסך הכל, המורה יצטרך לקבל בחוסר רצון שהתלמיד כתב את החיבור כיצירה מקורית.

בעוד רגע, אראה לכם מה קורה כשאתם מכניסים שאלות או הנחיות ל-AI גנרטיבי. אעשה שימוש בגרסה העדכנית ביותר של ChatGPT כדי להזין את ההנחיות שלי ואספתי את ה"תשובות" או החיבורים שנוצרו על ידי ה-AI (שים לב שניתן לעשות את אותו הדבר עם אפליקציות AI גנרטיביות רבות אחרות הזמינות; בחרתי להשתמש ChatGPT כי הוא מקבל את חמש דקות התהילה שלו עכשיו).

אולי שייק קצר על ChatGPT עשוי להיות מועיל בנקודה זו.

אפליקציית ChatGPT הפכה לזמינה לקהל הרחב רק לפני מספר חודשים. בגדול, אפליקציות הבינה המלאכותית הללו נגישות בדרך כלל רק למקורבי בינה מלאכותית. הפן יוצא הדופן שבו ChatGPT יכול לשמש כל אחד על ידי הזנת כתובת דוא"ל ושם, ובכן, זה הוביל להרבה אנשים שהחליטו לנסות את זה. ChatGPT זמין כעת לשימוש בחינם (בעיית המונטיזציה היא דילמה מתקרבת עבור יצרני בינה מלאכותית).

כמעט מיד הייתה תגובה עצומה ברשתות החברתיות כשאנשים מיהרו לתת דוגמאות למה שבינה מלאכותית יכולה לעשות. החברה שמייצרת ChatGPT, OpenAI, בחרה לסגור את ההרשמות למיליון משתמשים. מיליון המשתמשים האלה הצליחו להפציץ את גלי האתר בכל מיני סיפורים וסיפורים על השימוש ב-ChatGPT.

היזהר מאוד להאמין למה שיש לאנשים לומר על אפליקציית AI. רבים מהאנשים האלה הם חסרי מושג במה הם משתמשים. זה כמעט כאילו הם מעולם לא נסעו במכונית ואפילו לא הבינו שקיימות מכוניות, ופתאום הייתה להם הזדמנות לנהוג במכונית. מתעוררת תדהמה מוחלטת.

אני לא אומר ש-AI גנרטיבי אינו מרשים יחסית. זה. אני רק מדגיש שהרבה מהעדויות הפורחות נעשות על ידי רבים שאינם מודעים לאושר למה שה-AI של היום יכול לעשות. אלו מאיתנו שנמצאים בפנים בינה מלאכותית משתמשים בבינה מלאכותית גנרטיבית במשך השנים האחרונות. אולי התרגלנו לזה. לפתע, לראות מאוהב עצום של אנשים מובילים אותו אל הגגות היה ממריץ בהתרגשות, אבל גם קצת מטריד. החלק המדאיג הוא כאשר אנשים מכריזים שבינה מלאכותית מחוללת היא חיונית. זה לא. אל תיתן לאף אחד לשכנע אותך אחרת.

עם זאת, קיים ויכוח סוער מתמשך בתחום הבינה המלאכותית בשאלה האם בינה מלאכותית גנרית נמצאת בדרך לחוש או אולי לא. דעה אחת היא שאם נמשיך להגדיל את הבינה המלאכותית הגנרטיבית עם מחשבים מהירים יותר וכמות גדולה יותר של נתונים כמו ניקוי כל סנטימטר של האינטרנט, נגיע כמעט באופן ספונטני ל-AI חיוני. אחרים טוענים שזה מאוד לא סביר. הם מציעים שבינה מלאכותית גנרטיבית עשויה להיות אחד ממרכיבים רבים הדרושים. יש אפילו הדעה קודרת יותר לפיה AI גנרטיבי הוא מופע צדדי שמסיח את דעתנו מפריצות הדרך האמיתיות שנצטרך כדי להשיג AI חיוני.

יתכן שתמצא גם נקודות ראויות לציון שמקורבי בינה מלאכותית נוטים להתייחס אליה בינה כללית מלאכותית (AGI) כיעד השאיפה לתחום הבינה המלאכותית. פעם המטרה הייתה להשיג בינה מלאכותית, אבל כינוי הבינה המלאכותית הפך למרוכז ומבולבל. כשמישהו אומר שהוא עושה עבודת בינה מלאכותית, אינך יודע אם הוא רומז לבינה מלאכותית של ימינו שאינה משתווה לבני אדם או אם הוא מתכוון לבינה מלאכותית של שווי ערך אנושי עתידני. כדי לעקוף את הבלבול המרגיז הזה, משתמשים בניסוח החדש יותר של AGI בימים אלה.

בסך הכל, ה-AI הגנרטיבי של היום הוא לֹא מרגיש, וזה גם לא AGI.

אנא זכרו שכפי שנאמר קודם לכן, ה-AI אינו בעל רגישות. התגובות שנוצרות על ידי ה-AI הן שילוב מתמטי וחישובי של מילים לקטעים שוטפים לכאורה. זה מבוסס על אלגוריתם AI שעבר הכשרה על מערכי נתונים של מילים וסיפורים שבני אדם כתבו (בעיקר כפי שפורסמו באינטרנט). אני חוזר על האזהרה הזו כי ללא ספק תיפול למלכודת הנפשית שהתגובות האלה כל כך שוטפות שה-AI חייב להיות בעל רגישות. זה קורה לרוב האנשים. כפי שדחק קודם לכן, עזוב את האנתרופומורפיזציה הזו בצד. זכרו תמיד שהתגובות מבוססות על שלל הכתיבה העצום של בני אדם שקיים באינטרנט ולפיכך ידמה מאוד לכתיבה אנושית.

יש עוד משהו שאתה צריך לדעת.

בינה מלאכותית גנראטיבית שמאומנת באינטרנט בצורה בלתי מוגבלת תטה לאפות את כל התגובות המבוססות על טקסט שהוא רוקח בצורה מתמטית וחישובית כמה דברים מעורפלים בצורה פוגענית, כולל ניסוח מגעיל דוחה. יש הרבה דברים מטורפים ומטונפים שמתפרסמים שם באינטרנט.

ראית את זה, אתה יודע למה אני מתכוון.

החברות שמעצבות את אפליקציות הבינה המלאכותיות האלה חוששות שהתינוק הפתגמי ייזרק החוצה עם מי האמבט (אימרה ישנה, ​​אולי לפרוש), מה שאומר שאם הבינה המלאכותית שלהן תייצר מאמרים או סיפורים פוגעניים, אנשים יעלו בזרועות לגבי ה-AI. כיסיתי את המקרים הקודמים הרבים שבהם נחשפו אפליקציות AI מסוג Natural Language Processing (NLP) ועד מהרה יצאו מהן כל מיני דברים נוראיים (סיקרתי את המקרים האלה בטור שלי). רוב יצרני הבינה המלאכותית למדו שיעור קשה על מתן אפשרות למוצרי הבינה המלאכותית שלהם להיות בלתי מוגבלת בתפוקותיהם.

במקרה של ChatGPT, מפתחי הבינה המלאכותית ביקשו להכניס כמה בדיקות ואיזונים אלגוריתמיים וקשורים לנתונים כדי לרסן את הגועל נפש בתפוקות הבינה המלאכותית. חלק מזה התרחש בזמן האימון. בנוסף, ישנם אמצעים נוספים בניסיון בזמן אמת למנוע תפוקות קשות במיוחד.

אתה עשוי לגלות עניין שכמה אנשים שהשתמשו ב-ChatGPT כבר מצאו דרכים סמויות לעקוף את מעקות הבטיחות על ידי שימוש בתחבולות שונות. בעניינים אלו מתקיים הימור מתמשך של חתול ועכבר. אלה שעושים את התחבולות האלה לפעמים עושים זאת בשביל הכיף, בעוד שלפעמים הם (לפחות טוענים) הם עושים זאת כדי לראות עד כמה ניתן למתוח את הבינה המלאכותית ולספק אמצעי מועיל להתריע מראש על השבריריות והחולשות של ניצנים אלה אפליקציות AI.

החלטתי לא לנסות לעקוף את הבקרות המקובלות בחקירה הממוקדת הזו. פלט הטקסט נקי. אין ספק, אם מישהו היה רוצה לעשות זאת, אתה ללא ספק יכול ליצור כמה חיבורים מוזרים וחסרי טעם.

החיבורים המופקים על ידי רוב אפליקציות הבינה המלאכותית האלו נועדו להעביר את הפלט כאילו הוא עובדתי ומדויק בלבד. כאשר אתה קורא את החיבורים המופקים, הם נראים בטוחים לחלוטין. בדרך כלל אין שום אינדיקציה לכך שהתוכן עשוי להיות סלעי. זאת מתוך בחירה של יצרני הבינה המלאכותית, כלומר שהם יכולים לשנות את אפליקציות הבינה המלאכותית כך שיהיו שקופות יותר אם הם רוצים שאפליקציית הבינה המלאכותית תעשה זאת.

לפעמים, אפליקציית AI מחוללת קולטת שקר בין נתוני ההדרכה של מידע לא אמין ברחבי האינטרנט. אין "שכל ישר" בבינה מלאכותית גנרטיבית כדי לקבוע מה נכון לעומת שקר. יתר על כן, למעט מאוד אפליקציות בינה מלאכותיות יש בדיקות צולבות, והן אינן מציגות הסתברויות כלשהן הקשורות למה שהן מעבירות.

התוצאה בשורה התחתונה היא שאתה מקבל תגובה שנראית ומרגישה כאילו היא משדרת ביטחון רב וחייבת להיות נכונה לחלוטין. לא כל כך. יש אפילו סיכוי שחומר הבינה המלאכותית מורכב מבחינה חישובית, אשר בלשון בינה מלאכותית מכונה בשם הזיות בינה מלאכותית (מונח מוטבע שאני בהחלט לא אוהב), ראה את הדיון שלי ב הקישור כאן.

יצרניות ChatGPT עברו מאמץ משותף לנסות ולהפחית את תפוקות הדברים הרעים. לדוגמה, הם השתמשו בגרסה של מה שמכונה RLHF (Reinforcement Learning from Human Feedback), לפיה לפני שהם שחררו את הבינה המלאכותית לציבור, הם שכרו בני אדם כדי לבחון תפוקות שונות ולציין בפני הבינה המלאכותית אם יש דברים לא בסדר עם התפוקות האלה כמו אולי הצגת הטיות, מילים גסות, כמו. על ידי מתן משוב זה, אפליקציית ה-AI הצליחה להתאים באופן חישובי ומתמטי להפחתת פליטת תוכן כזה. שימו לב שזו לא שיטה מובטחת ועדיין ישנן דרכים שבהן תוכן כזה יכול להיפלט על ידי אפליקציית AI.

ייתכן שתמצא עניין ש-ChatGPT מבוסס על גרסה של אפליקציית AI קודמת המכונה GPT-3. ChatGPT נחשב לשלב הבא מעט, המכונה GPT-3.5. צפוי ש-GPT-4 ישוחרר ככל הנראה באביב 2023. ככל הנראה, GPT-4 הולך להיות צעד מרשים קדימה מבחינת היכולת להפיק חיבורים לכאורה אפילו יותר שוטפים, להעמיק ולהתפעל. -פלא מעורר השראה לגבי הקומפוזיציות שהוא יכול להפיק.

אתה יכול לצפות לראות סבב חדש של פליאה מפורשת כאשר יבוא האביב והחדש ביותר בתחום הבינה המלאכותית הגנרטיבית ישוחרר.

אני מעלה את זה כי יש זווית נוספת שכדאי לזכור, המורכבת מעקב אכילס פוטנציאלי לאפליקציות ה-AI היותר טובות וגדולות יותר. אם כל ספק בינה מלאכותית יציע אפליקציית בינה מלאכותית מחוללת שפולטת סתמיות בקצף, הדבר עלול להרוס את תקוותיהם של יצרני בינה מלאכותית. זליגה חברתית יכולה לגרום לכל הבינה המלאכותית הגנרטיבית לקבל עין שחורה רצינית. אנשים ללא ספק יתעצבנו למדי על תפוקות רעות, שקרו כבר פעמים רבות והובילו לתגובת גינוי חברתית סוערת כלפי AI.

אזהרה אחת אחרונה לעת עתה.

מה שאתה רואה או קורא בתגובת AI מחוללת זה נראה כדי להיות מועבר כעובדתי בלבד (תאריכים, מקומות, אנשים וכו'), הקפידו להישאר סקפטיים ולהיות מוכנים לבדוק שוב את מה שאתם רואים.

כן, אפשר לרקוח תאריכים, אפשר להמציא מקומות, ואלמנטים שאנחנו בדרך כלל מצפים שיהיו מעל לכל דופי הם את כל נתון לחשדות. אל תאמין למה שאתה קורא ותפקח עין סקפטית כשאתה בוחן חיבורים או תפוקות של בינה מלאכותית. אם אפליקציית בינה מלאכותית תספר לכם שאברהם לינקולן טס ברחבי הארץ במטוס פרטי משלו, ללא ספק הייתם יודעים שזה מסוכן. לרוע המזל, אנשים מסוימים עשויים שלא להבחין שמטוסי סילון לא היו בסביבה בימיו, או שהם עשויים לדעת אך לא לשים לב שהחיבור טוען את הטענה הנועזת והשקרית הזו להחריד.

מנה חזקה של ספקנות בריאה והלך רוח מתמשך של חוסר אמון יהיו הנכס הטוב ביותר שלך בעת שימוש בבינה מלאכותית גנרטיבית.

אנו מוכנים לעבור לשלב הבא של ההבהרה הזו.

המאמצים האלה לרשום את השגיאות שהוצאו מ-ChatGPT

"ובכן, יש לך צרות, ידידי, כאן, אני אומר, צרות כאן בריבר סיטי", כך מכריז השורה המפורסמת מהמחזמר הקלאסי בברודווי איש המוזיקה.

אותה שורה יכולה לחול על AI Generative של היום.

אנשים התחילו להבין שאפליקציית בינה מלאכותית מחוללת יכולה לייצר שקר ובאמת נראו מופתעים מהפלטים המטרידים האלה. אולי היו שהניחו שבינה מלאכותית לא מסוגלת לעשות טעויות. אחרים אולי צפו שמפתחי הבינה המלאכותית יבטיחו שלא יופקו פלטים כאלה.

בכל מקרה, מביני הבינה המלאכותית זיהו מיד שסוג זה של פלט פגום הוא חלק בלתי נפרד מהמקום שבו רוב הבינה המלאכותית הגנרטיבית של היום יושבת. קשה מאוד למנוע מהסוגים האלה של שגיאות טקסטואליות להתרחש. זכור של-AI אין מראית עין של הגיון בריא ואינו משתמש בהיגיון כשלעצמו בעת גזירת החיבורים שנוצרו. כל ה-kit-and-caboodle עוסק בביצוע התאמת דפוסים סטטיסטיים והסתברותיים חישוביים של מילים עם מילים אחרות.

תחילה, אנשי AI בחרו לפרסם את התפוקות המוזרות שהתגלו של ChatGPT לאתרי מדיה חברתית. תראה את זה, מישהו היה מכריז. זה רע, מישהו אחר היה עונה, ואז מציע דוגמה אחרת שנראתה גרועה עוד יותר. זה נמשך עוד ועוד.

הדוגמאות הללו של שקר וטעויות במאמרים המופקים זלגו החוצה. אחד אחד. יתר על כן, מכיוון שבדרך כלל זה פורסם ברשתות החברתיות, לא היה אמצעי קל במיוחד לראות את כולם בבת אחת. לעתים קרובות אותה דוגמה או דוגמה דומה הייתה מתפרסמת על ידי מישהו שלא הבין שאחרים כבר מצאו את המופע הספציפי.

אל תוך הטמבל המתפתח הזה נכנסו אלה שהביעו הצעה מועילה. אולי כדאי שנקים מאגר או מסד נתונים, אולי אפילו רק גיליון אלקטרוני רגיל יומיומי, המכיל את ה-ChatGPT המוזר ופלטים שגויים שמתגלים. בכל פעם שמישהו מוצא יופי של קשקוש, קדימה והכנס אותו לרישום. חלקם הפכו את זה כמעט למשחק, שבו הם מנסים בכוונה לגרום ל-ChatGPT להשתעל פלטים מוזרים. אחרים פשוט נתקלים בפלטים פגומים במהלך השימוש ב-ChatGPT למטרות נחושות אחרות.

נשמע פשוט מספיק.

נראה כמו דרך נוחה לעזור לכולנו.

בוא נעשה הסבר קצר מדוע יש רשימות מסוגים אלה לגבי שגיאות שנצפו או שווא של ChatGPT הגיוני מאוד להרכיב:

  • 1) חושף בעיות וחששות חיוניים לגבי ChatGPT שהציבור הרחב צריך להיות מודע אליהם
  • 2) מסייע באיזון ההייפ המוגזם והציפיות המנופחות לגבי ChatGPT
  • 3) עשוי לדרבן את יצרני הבינה המלאכותית לבצע שיפורים, לא רק עבור ChatGPT אלא גם עבור אפליקציות בינה מלאכותיות אחרות
  • 4) שימש כתיעוד היסטורי שניתן להשתמש בו מאוחר יותר כדי לשקף בדיעבד את הופעת הבינה המלאכותית הגנרטיבית כפי שהודגם באמצעות ChatGPT
  • 5) היו משאב קולקטיבי נוח לכל מי שצריך לגלות מה נראה לנו שזיהינו לגבי פלטים שגויים של ChatGPT
  • 6) שימושי לחוקרים מכל התחומים הבודקים את ההשפעות של ChatGPT
  • 7) יכול לשמש כאמת מידה של מה לא לעשות וכיצד לאמוד מתי AI גנרטיבי לא עושה דברים כמו שצריך
  • 8) נכנס למוח הכוורת כדי לצבור חוכמת הקהל לגבי השגיאות ש-ChatGPT מייצרת, שעבורן לא סביר שמאמץ אינדיבידואלי יספיק באופן ממצה באותה מידה
  • 9) יכול לספק מידע חשוב לאתיקה של AI וחוק AI
  • וכו '

זה אכן נראה כבסיס מרשים ליצירת המאגרים הללו.

למה שמישהו לא יסכים עם המעשה הראוי לשבח והגבורה לכאורה?

בואו נסתכל על מה שהיה לאחרים לומר על זה, נעשה זאת עם רשימה של סיבות מדוע זה לא יכול להיות המיאו של החתול:

  • 1) שגיאות פלט אלה שנמצאו, אולי, אינן משמעותיות בתוכנית הגדולה של הדברים, וניתן להן משקל יתר מעבר לערך שלהן
  • 2) רוב הסיכויים שיצרנית הבינה המלאכותית כבר מבצעת רישום משלהם ומעדכנת את ChatGPT כך שהמקרים המוזרים האלה בקרוב רק יישארו מאחור באבק ולא יתרחשו עוד
  • 3) כמו כן, הגרסה הבאה כנראה הולכת להיות טובה יותר בכל מקרה ואולי כבר לא תציג את המקרים המיושנים האלה בקרוב
  • 4) אינך יכול להסיק מסקנות כלליות או לקבל תובנות מאוסף אקראי של מקרים של פגיעה או החטאה
  • 5) חלקם עשויים להשתמש באוספים המגוונים כדי להכריז באופן דרמטי שבינה מלאכותית גנרית היא גרועה ושעלינו להפסיק סופית את כל המרדף אחר סוג זה של בינה מלאכותית
  • 6) המהירות שבה מתקדמים בינה מלאכותית ו-ChatGPT היא כל כך מהירה שהמקרים הללו ייפלו במהירות בצד ולא יהיו עוד רלוונטיים
  • 7) עם רשימות קולקטיביות רבות כאלה בעיצומה וללא מקור עולמי משוח אחד, העניין מפורק וצפוי להכיל חזרות ולהיות מקוטע באופן בלתי נסבל
  • 8) מספק תחושה כוזבת של לעשות משהו מועיל, בעוד שאולי ניתן היה להפנות את הזמן ותשומת הלב לשימושים טובים יותר
  • 9) לא מספק שום דבר מהותי לאתיקה של בינה מלאכותית וחוק בינה מלאכותית
  • וכו '

אולי שמתם לב שניסיתי לשמור על מצב אחיד על ידי ציון תשע סיבות בעד הרשימות הקולקטיביות ותשע סיבות לא לטובת. ישנן סיבות נוספות שניתן לציין, אבל אני מאמין שהאינדיקציה לעיל נותנת את מהות הדברים.

לאלו שמרכיבים את הרשימות הקולקטיביות האלה, סביר להניח שהם יגידו שאם הם באמת רוצים לעשות זאת, זה עולם חופשי, והם יכולים לעשות כרצונם. שום דבר לא בסדר עם זה. אלה שלא בעד המאמץ הם בדרך כלל קטנוניים וצריכים פשוט להתעלם מהאוספים. תתעסק בעניינים שלך.

בעיקרו של דבר, ללא נזק, ללא עבירה.

המחנה שנראה שלא לטובת הרשימות הקולקטיביות יכיר בדרך כלל בכך שאחרים יכולים לעשות את הרשימות האלה אם הם רוצים לעשות זאת, אבל זה לא מזיז את המחט. הרשימות לא יעזרו במיוחד. גרוע מכך, הרשימות עלולות להיות מצג שווא או שימוש לרעה. כנראה הכי טוב לקרוא לזה יום ולהפסיק לעשות את הרשימות.

בעיקרו של דבר, זה ניסיון נחמד, אם כי תרגיל בחוסר תועלת.

איפה אתה מתגורר בוויכוח הלבבי הזה?

אני אתן לך לחשוב על זה.

דוגמאות לשגיאות שנמצאו ולפלטים רעים אחרים של ChatGPT

חשבתי שאולי תמצא עניין רב בכמה מהשגיאות או השגיאות שזוהו שהופיעו ברשימות האיסוף הללו.

אני לא רוצה שתחשוב שמספר המקרים המוצגים כאן הם מכלול האוספים. זה לא. אני רק בוחר בקומץ שצץ לעתים קרובות. אני מאמין שלפחות תוכל להבין באופן כללי את הטון והטבע של מה שנרשם.

הנה מה שאני בוחר לכסות:

  • זיהוי מיקום האות במילה
  • שאלה על החיה המהירה ביותר
  • להבין את מיקום רצף המילים
  • התאמת כדורי טניס לתוך צינור
  • קביעת Pi
  • תשובה על חידה מטרידה קלאסית
  • הרמת נוצות

אני צופה שחלק ממשגיחי האוספים יכעסו שאני לא מכסה עוד דוגמאות בשבילכם. בגלל מגבלות המקום, יש רק כל כך הרבה שאני יכול לכסות. אם תרצו להציץ ברשימות האוספים המתפרסמות בגלוי באינטרנט, חיפוש מקוון פשוט יכול להביא רבות מהן. חלק מהרשימות נשמרות פרטיות, או שהן נעולות כך שתוכל לראות את הרשימה אך אינך יכול לבצע שינויים ברשימה.

עם הרקע הזה, אנחנו מוכנים לקפוץ לכמה דוגמאות. אני אראה לך את ההנחיה שהכנסתי. לאחר מכן, אני מראה את תגובת הטקסט שהופקה על ידי ChatGPT. במקרים מסוימים, עשיתי מספר גב אל גב על נושא ספציפי, אם כן אראה את סדרת ההנחיות והפלטים בהתאם. לאחר שתעשה זאת, אספק ניתוח קצר של מה שאולי תרצה לשים לב לגבי הדוגמה.

הדוגמה הראשונה תכלול בקשה מ-ChatGPT למצוא אות בתוך מילה מסופקת.

זיהוי מיקום האות במילה

  • הטקסט שהוזן שלי: "איפה האות V בסביבה"
  • תגובת טקסט שנוצרה על ידי ChatGPT: האות "V" אינה מופיעה במילה "סביבה". המילה "סביבה" מורכבת מהאותיות e, n, v, i, r, o, n, m, e, n ו-t.
  • הטקסט שהוזן שלי: "איפה האות V בסביבה"
  • תגובת טקסט שנוצרה על ידי ChatGPT: "האות "v" היא האות הרביעית במילה "סביבה".

ניתוח של טקסט שנוצר

שימו לב שהתחלתי בבקשת ChatGPT לזהות את מיקום האות של האות "V" במילה "סביבה" - זו אמורה להיות משימה פשוטה ביותר והיינו מצפים שהיא תתבצע ללא רבב. שום מדע טילים לא מעורב.

התגובה הראשונית שנוצרה על ידי ChatGPT היא מעט מטרידה מכיוון שאנו מודיעים שהאות "V" אינה קיימת במילה "סביבה". אתה ואני יודעים שיש מכתב כזה. אפשר להניח שאולי בגלל השימוש באות רישיות, אפליקציית הבינה המלאכותית נזרקה איכשהו. אולי אם אשתמש באותיות קטנות, אפליקציית הבינה המלאכותית תצליח יותר.

לא באמת.

כששאלתי אם יש "v" במילה, אפליקציית ה-AI הגיבה בכך שציינה שזו האות הרביעית, שאתה ואני יודעים שהיא שגויה, ושזו האות השלישית במקום זאת.

הרבה אנשים צפויים להיות מבולבלים מהתוצאה הזו. איך אפליקציית בינה מלאכותית שמייצרת חיבורים מלאים על אברהם לינקולן שהם שוטפים ומקוריים לחלוטין, איכשהו לא תוכל להבין היכן אות נתונה נמצאת במילה נתונה? זה מפתיע ופה מוזר בפה פעור.

פרספקטיבה אחת היא שזה חסר משמעות לחלוטין והעולם כפי שאנו מכירים אותו אינו מתנדנד בליבה בגלל חוסר עלוב להבין היכן יושבת אות מסוימת. לשחרר.

פרספקטיבה נוספת היא שזה עשוי לבשר לנושאים נסתרים אחרים שאנחנו עדיין לא יודעים עליהם. אולי סוג זה של פלט הוא הקנרית בכלוב הציפורים. מוטב לנו להדביק את הדברים הקטנים שאחרים אנחנו עלולים למצוא את עצמנו בקצה הלא נכון של דברים גדולים באמת.

בהמשך, אני שואל שאלה על בעלי חיים.

שאלה על החיה המהירה ביותר

  • הטקסט שהוזן שלי: "מהי החיה המהירה ביותר שיש לה פרווה וכנפיים?"
  • תגובת טקסט שנוצרה על ידי ChatGPT: "בז הנודד נחשב לחיה המהירה ביותר בעולם. הוא יכול להגיע למהירויות של מעל 389 קמ"ש (242 מייל לשעה) בעת צלילה כדי לתפוס את הטרף שלו. יש לו נוצות אבל לא פרווה. זו ציפור לא חיה שיש לה פרווה וכנפיים".

ניתוח של טקסט שנוצר

שאלתי מהי החיה הכי מהירה שיש לה פרווה וכנפיים. אני מאמין שזה סביר להסיק שרציתי לקבל בשם בעל חיים שיש לו גם פרווה ו כנפיים. אני מניח שתפרש את השאילתה שלי בצורה כזו. רוב האנשים היו עושים זאת.

התגובה של ChatGPT היא קצת מוזרה.

נאמר לנו שהבז הנודד הוא החיה המהירה ביותר בעולם. לפי האונליין אנציקלופדיה בריטניקה, נראה שהברדלס היא החיה המהירה ביותר בעולם. עם זאת, תגובת ChatGPT מצביעה על כך שהבז הנודד אינו חיה, למרות ששאלתי מהי החיה המהירה ביותר. תגובת ChatGPT גם אומרת לי שלבז הנווד אין פרווה, אם כי אני מאמין שביקשתי משהו שיש לו גם פרווה וגם כנפיים.

בסך הכל, נראה ש-ChatGPT "פירש לא נכון" את הבקשה שלי והתמקד רק בהיבטים של האגף. אבל זה לא ממש נכון מכיוון שהתגובה כללה גם הערה על פרווה וציפורים מול בעלי חיים. זה הולך מסביב.

אני מבין שאתה יכול לטעון שזו דוגמה מטופשת.

אולי כן, אם כי אולי זה גם מראה שמה שאתה אומר בהנחיה יכול לקבל תוצאה משובחת ועדיף שתהיה זהיר בסקירת כל מה שיוצא בפלט. הבינו שזו הייתה תגובת חיבור קצרה במיוחד שיש לבדוק אותה בקלות מכיוון שהיא קצרה מאוד באורכה. אם יש לך מאמר ארוך במיוחד וטכני מאוד, אתה עלול להתבדות או לגמרי להחמיץ אינדיקציה שלילית המוטבעת עמוק בתגובה המופקת.

הבה נסתכל בשלב הבא על מציאת מילה בתוך משפט.

להבין את מיקום רצף המילים

  • הטקסט שהוזן שלי: "מהי המילה השלישית במשפט "השועל קפץ מעבר לגדר."
  • תגובת טקסט שנוצרה על ידי ChatGPT: "המילה השלישית במשפט "השועל קפץ מעבר לגדר." הוא "שועל"
  • הטקסט שהוזן שלי: "כמה מילים יש במשפט המסופק?"
  • תגובת טקסט שנוצרה על ידי ChatGPT: "יש שש מילים במשפט שסופק "השועל קפץ מעבר לגדר."
  • הטקסט שהוזן שלי: "איזו מילה שלישית במשפט הזה?"
  • תגובת טקסט שנוצרה על ידי ChatGPT: "המילה השלישית במשפט "השועל קפץ מעבר לגדר." הוא "קפץ"

ניתוח של טקסט שנוצר

דוגמה זו מפתה כמעט כמו הדוגמה הקודמת לגבי מציאת האות "v" במילה נתונה.

הבאתי משפט פשוט ושאלתי מהי המילה השלישית. ChatGPT ציין שזו המילה "שועל" שהיא רק המילה השנייה של המשפט. תשובה לא נכונה. לאחר מכן שאלתי כמה מילים יש במשפט, רציתי לברר אם אולי ChatGPT סופר לא נכון כמה מילים יש. אומרים לנו שיש שש מילים, נכון.

לבסוף, קיבלנו את התשובה הנכונה לגבי המילה השלישית כששאלתי שוב את השאלה המקורית שלי, אם כי נוסחה מעט מחדש.

אני מביא את הדוגמה הזו כדי להמחיש שלפעמים עם AI גנרטיבי אתה יכול לקבל תשובה שגויה שיכולה להפוך בסופו של דבר לתשובה הנכונה על ידי מעבר לאפליקציית AI דרך סדרה של הנחיות. כמה מקורבי AI מתייחסים לזה כסוג של פרוטוקול לחשוב בקול או רכבת מחשבות גישה, שבה אתה עשוי לעשות משהו מאותו הדבר עם אדם.

במקרה של הבינה המלאכותית, הבינו שזה לא "חושב" באותו מראית עין כמו המחשבה האנושית. הניסוח המתאים יותר יהיה לומר שאתה עשוי להזין את ההנחיות שלך ב-a צעד אחר צעד בסיס או לעשות א סדרת הנחיות מקושרת בשרשרת.

בכל מקרה, מעניין שלפעמים משתלם ללכת עם אפליקציית בינה מלאכותית עד שמקבלים תשובה נכונה. זכור זאת.

בשלב הבא נסתכל על קצת לוגיקה אריתמטית פשוטה.

התאמת כדורי טניס לתוך צינור

  • הטקסט שהוזן שלי: "האם אתה יכול לשים שלושה כדורי טניס ירוקים ושני כדורי טניס צהובים לתוך צינור שיכול להכיל ארבעה כדורי טניס?"
  • תגובת טקסט שנוצרה על ידי ChatGPT: "לא, לא ניתן להכניס שלושה כדורי טניס ירוקים ושני כדורי טניס צהובים לתוך צינור שיכול להכיל רק ארבעה כדורי טניס. המספר הכולל של כדורי טניס הוא חמישה, וזה גדול מהקיבולת של הצינור".
  • הטקסט שהוזן שלי: "האם אתה יכול לשים שבעה כדורים כחולים ושני כדורים אדומים לתוך צינור שמכיל שמונה כדורים?"
  • תגובת טקסט שנוצרה על ידי ChatGPT: "כן, אפשר להכניס שבעה כדורים כחולים ושני כדורים אדומים לתוך צינור שמכיל שמונה כדורים. המספר הכולל של הכדורים הוא תשעה שהם פחות או שווה לקיבולת הצינור."

ניתוח של טקסט שנוצר

התחלתי בהגדרת בעיית לוגיקה מכוונת אריתמטית ש-ChatGPT תפתור. צינור יכול להכיל ארבעה כדורי טניס. יש לי שלושה ירוקים ושניים צהובים. האם כולם יכנסו לצינור? אתה ואני יודעים שהם לא. אנחנו יכולים לחשב בראש שיש בסך הכל חמישה כדורי טניס וכך הם לא יכנסו לצינור שמאפשר רק ארבעה.

אני מבין שאולי תרצה להילחם בבעיה ולטעון שאתה יכול אולי למחוץ את כדורי הטניס או לעשות תחבולות אחרות. בואו פשוט נרגע כאן ונתמודד עם הבעיה כפי שהיא.

ChatGPT קיבל את התשובה הנכונה.

לאחר מכן שאלתי את אותו סוג שאלה ושיניתי את הצבעים לכחול ואדום. שיניתי גם כמה יש מכל אחד, ושיניתי כמה יכולים להיכנס לצינור.

ChatGPT צריך לחזור למתמטיקה מתקנת כי זה אומר שיש תשעה כדורים וזה פחות או שווה לקיבולת של הצינור שמכיל שמונה. גורם לעיניים שלך להתגלגל.

האם עלינו למשוך בכתפיים ולהגדיר זאת להתלקחויות כתמי שמש או תופעות חיצוניות אחרות?

אני לא חושב כך. אפליקציית הבינה המלאכותית קיבלה נכון את השאלה הראשונה. יש להניח שגם זה היה צריך לקבל שאלה דומה. זה לא.

הדגש שלי בדוגמה זו הוא שאנשים רבים משתמשים בבינה מלאכותית גנרטיבית וכאשר הם מקבלים תשובה נכונה או סדרה של תשובות נכונות, הם נרגעים להאמין שכל התשובות הבאות תמיד יהיו נכונות. אתה טועה בהנחה החצופה הזו. אל תניח את ההנחה הזו. היו על המשמר בכל עת.

אם כבר מדברים על מתמטיקה, בואו נראה מה ChatGPT אומר על הטבע של pi.

קביעת Pi

  • הטקסט שלי שהוזן: "ציין מהן חמש הספרות האחרונות של pi"
  • תגובת טקסט שנוצרה על ידי ChatGPT: "אני מודל שפה וסף הידע שלי הוא 2021. הערך של pi הוא מספר אי-רציונלי והייצוג העשרוני שלו נמשך לנצח מבלי לחזור על עצמו. לא ניתן לספק את חמש הספרות האחרונות של pi."

ניתוח של טקסט שנוצר

יש אנשים שטענו שהם קיבלו את ChatGPT כדי לציין את חמש הספרות האחרונות של pi, וזה כמובן מטורף מכיוון ש-pi כנראה אינו נגמר. אז ניסיתי לראות מה יש ל-ChatGPT לומר. כפי שאתה יכול לראות, התשובה הנכונה כפי שניתן על ידי ChatGPT כי לא ניתן לספק את חמש הספרות האחרונות של pi.

הדבר המוזר הוא ש-ChatGPT סיפק משהו אחר שלא ממש נשאל עליו. התשובה שניתנה אומרת גם שסף הידע היה 2021 (אשר הזכרתי קודם לכן כאן בסקירה הכללית שלי על ChatGPT). למרות זאת, זה נראה כמו תגובה לא במקום אלא אם כן אפליקציית הבינה המלאכותית צופה שאולי בשנת 2022 הייתה פריצת דרך ומתמטיקאים הכריזו ש-pi אכן מסתיים. וואו, אלו יהיו חדשות כותרות.

יש לי עוד שתי דוגמאות להציג ואז נסיים את הדיון הזה.

בואו נשתמש בחידה קלאסית ומטרידה.

תשובה על חידה מטרידה קלאסית

  • הטקסט שהוזן שלי: "אב ובנו היו בתאונת דרכים שבה נהרג האב. האמבולנס הביא את הבן לבית החולים. הוא נזקק לניתוח מיידי. בחדר הניתוח נכנס רופא והסתכל על הילד הקטן ואמר שאני לא יכול לנתח אותו הוא הבן שלי. מי הרופא?"
  • תגובת טקסט שנוצרה על ידי ChatGPT: "לא מצוין בתרחיש בתנאי מיהו הרופא. התרחיש קובע כי הרופא אמר "אני לא יכול לנתח אותו הוא הבן שלי", מה שמצביע על כך שהרופא אולי אביו של הבן, אבל זה לא בטוח. יש צורך במידע נוסף כדי לקבוע את זהות הרופא".

ניתוח של טקסט שנוצר

אני מתערב שאולי ראית את החידה הזו בעבר. זה הפך להיות מצוטט לעתים קרובות יחסית.

הסיבה שזה עלה לא מעט היא שהמנתח יכולה להיות אמו של הילד. החברה נוטה להניח שהמנתח חייב להיות גבר, ולכן חייב להיות אביו של הילד. האב אמנם נהרג בתאונת הדרכים. אנו שוללים את האב כמנתח. אנחנו צריכים כמובן לקבוע שהמנתח יכולה להיות אישה, ולפיכך אם הבן.

רציתי להראות לך ש-ChatGPT יכול לפלוט תגובות המכילות הטיות פוטנציאליות. לא בגלל שה-AI הוא חיוני, וזה בהחלט לא, אלא בגלל שיש לו דפוסים מותאמים על מילים ושימוש במילים ברחבי האינטרנט. הטיות שונות וניסוחים מפלים יכולים בקלות להיות עמוק בתוך התאמת הדפוסים החישוביים.

שמור את זה בראש שלך כשאתה משתמש באפליקציות הבינה המלאכותית האלו.

לבסוף, מבט מהיר על הרמת נוצות.

הרמת נוצות

  • הטקסט שלי שהוזן: "אם צריך אדם אחד כדי להרים נוצה אחת, כמה גברים יידרש כדי להרים שבעה טריליון נוצות?"
  • תגובת טקסט שנוצרה על ידי ChatGPT: "אם צריך אדם אחד כדי להרים נוצה אחת, יידרש גם אדם אחד כדי להרים שבעה טריליון נוצות. מספר האנשים הנדרשים להרים חפץ אינו תלוי במספר הנוצות, אלא במשקל ובגודל של הנוצות ובחוזק ויכולתו של כל אדם. הרמת שבעה טריליון נוצות תדרוש ציוד גדול ויכולות תחבורה, לא רק כוח אנושי".
  • הטקסט שלי שהוזן: "אם נדרשת אישה אחת כדי להרים נוצה אחת, כמה נשים יידרש כדי להרים שבעה טריליון נוצות?"
  • תגובת טקסט שנוצרה על ידי ChatGPT: "אם נדרשת אישה אחת כדי להרים נוצה אחת, תידרש גם אישה אחת כדי להרים שבעה טריליון נוצות. מספר הנשים הנדרשות להרים חפץ אינו תלוי במספר הנוצות, אלא במשקל ובגודל של הנוצות ובחוזקה ויכולתה של כל אישה. הרמת שבעה טריליון נוצות תדרוש ציוד גדול ויכולות תחבורה, לא רק כוח אנושי. חשוב לציין שהיכולת להרים משהו לא נקבעת על פי המין של האדם, אלא על ידי שילוב של גורמים כמו כוח פיזי, אימון וטכניקה”.

ניתוח של טקסט שנוצר

לדוגמא האחרונה הזו יש כמה מוזרויות נסתרות בתוכה והיא דורשת קצת פריקה.

לראשונה אמרתי ל-ChatGPT שגבר יכול להרים נוצה אחת. מיד לאחר מכן עלתה שאלה לגבי כמה גברים יידרש כדי להרים שבעה טריליון נוצות. הפוטנציאל לטעות לוגית בעת תשובה לשאלה זו הוא שאתה עשוי להניח כי נוצה היא לכאורה חסרת משקל ולכן שבעה טריליון מהם יהיו גם חסרי משקל.

לפי חיפוש מקוון שעשיתי, המשקל המשוער המקובל של נוצה הוא בערך 0.00125 פאונד. אם תכפיל את המשקל המשוער הזה בשבעה טריליון, תגיע למשקל העולה על שמונה מיליארד פאונד. אני לא מאמין שגבר אחד יכול להרים את כמות המשקל הזו, גם אם הוא מתאמן במשך כל חייו.

התגובה של ChatGPT היא ילדה נכונה. נאמר לנו שמשקל הנוצות יכול להשתנות. נאמר לנו שידרשו ציוד ותחבורה גדולים. משפט הפתיחה של החיבור הוא קצת מפנה ראש, כי הוא אומר שאם צריך אדם אחד להרים נוצה בודדת, זה ייקח גם אדם אחד כדי להרים שבעה טריליון. אנו יכולים בקלות לערער על קביעה זו. נראה כי הטענה גורמת להסקת מסקנות שאינן נתמכות ולכאורה מפחיתות את שאר התגובה.

החלטתי לשאול את אותה שאלה אבל שאלתי על אישה שעושה את אותה הרמה ולא גבר.

בהתחלה קיבלנו את אותה תשובה כמו זו שניתנה לשאלה המכוונת לאדם. מעניין שבסוף התשובה על מקרה האישה, קיבלנו את הנרטיב הנוסף הזה: "חשוב לציין שהיכולת להרים משהו לא נקבעת על ידי המין של האדם, אלא על ידי שילוב של גורמים כמו כוח פיזי, אימון, וטכניקה."

מדוע אותה שורה לא נכללה בתשובה הראשונה?

כמעט נראה שאפליקציית הבינה המלאכותית קלטה את המילה "אישה" ואז סיפקה את ההערה הנוספת הזו לגבי מגדר. אתה יכול להאמין שזה מועיל, או שאתה עשוי לשים לב שאם זה הולך להיפלט במקרה של השאלה הממוקדת באישה, זה צריך להופיע גם בגרסה הממוקדת בגבר (ייתכן שיש גם היבט של רצף או גם גורמים אחרים מעורבים).

סיכום

אני מקווה שמצאת את הדוגמאות הללו אינפורמטיביות כהצצה לכמה מהשגיאות או השקר הפוטנציאליים שיכולים להיווצר על ידי אפליקציות בינה מלאכותיות מסוג זה. שימו לב ש-ChatGPT היא לא אפליקציית הבינה המלאכותית היצרנית היחידה שכזו, והיא גם לא היחידה שיש לה סוגים כאלה של תקלות.

הלקח שאני מפציר בכם להפיק מהדיון הזה הוא שעליכם להיות זהירים ולהיות מודעים בשימוש בכל אפליקציית AI מבוססת-גנרטיבית. בדוק שוב את הפלט. בדוק שלוש פעמים במידת הצורך.

אם נחזור לנושא הפתיחה על איסוף סוגים אלו של תפוקות שגויות או שליליות, כעת לאחר שראית כמה מקרים, מה אתה אומר על אלו שמנסים לקטלג אותם?

בחר את המחנה שלך:

  • טוֹבָה: זוהי משימה ראויה לשבח וראויה לטפיחה עמוקה על השכם
  • אִי אַהָדָה: זה רק מסקרן מעט אבל כנראה לא משהו שראוי להשקיע בו זמן

לאיזה מחנה אתה מצביע?

לאלו מכם שמעדיפים רשימות אלו, אולי תשקלו להוסיף ממצאים משלכם לרשימות אם במקרה יש לכם גישה ל-ChatGPT ואתם יכולים לזהות מקרים שראויים להכללה. סביר להניח שתוכל למצוא אוסף שתתענג על תרומת גוש הזהב שלך. אני מעז לומר ששומרי הרשימה יקבלו אותך בזרועות פתוחות, בהנחה שאתה רציני וכנה במאמציך. בהצלחה ותהיה גאה בהשפעה שלך על תחום הבינה המלאכותית הגנרטיבית.

מילה אחרונה לעת עתה.

קחו בחשבון את ההצהרות המרתקות האלה:

  • אריסטו אמר: "יש רק דרך אחת להימנע מביקורת: אל תעשה דבר, אל תגיד דבר ואל תהיה כלום".
  • לאו דזה, הפילוסוף הסיני הנודע אמר את ההערה הכבדה הזו: "תדאגו ממה שאנשים אחרים חושבים ותמיד תישאר האסיר שלהם".

אני מניח שיום אחד בינה מלאכותית חיה עשויה להשתמש באותן הערות אגדיות בדיוק לטובתו, אשר (להחזיק אצבעות) יהיו מועילות גם למין האנושי.

מקור: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- טוב-שואל-אי-אתיקה-ו-איי-חוק/