אתיקה של AI והחיפוש אחר מודעות עצמית ב-AI

האם אתה מודע לעצמך?

אני מתערב שאתה מאמין שכן.

העניין הוא, כביכול, מעטים מאיתנו מודעים לעצמם במיוחד. יש טווח או מידה של מודעות עצמית וכולנו כביכול שונים במידת המודע העצמי שלנו. אתה עשוי לחשוב שאתה מודע לעצמך לחלוטין ולהיות כך רק באופן שולי. אולי אתה מודע לעצמך ותבין שזה המצב הנפשי שלך.

בינתיים, בחלק העליון של הספקטרום, אתם עשויים להאמין שאתם מודעים לעצמכם לחלוטין ואכן אתם בכנות מודעים לעצמכם בערך כפי שהם מגיעים. שמח בשבילך.

אם כבר מדברים על זה, מה תועיל להיות מודע לעצמו בצורה מוגזמת?

על פי מחקר שפורסם ב Harvard Business Review (HBR) מאת Tasha Eurich, על פי הדיווחים אתה מסוגל לקבל החלטות טובות יותר, אתה בטוח יותר בהחלטות שלך, אתה חזק יותר ביכולות התקשורת שלך, ואפקטיבי יותר בסך הכל (למאמר שכותרתו "מהי מודעות עצמית באמת (ואיך) לטפח את זה)." גורם הבונוס הוא שאומרים שאלו עם מודעות עצמית נוקבת נוטים פחות לרמות, לגנוב או לשקר. במובן זה, ישנה צד של מניעת היות נבלה או נוכל, יחד עם שואפים להיות בן אדם טוב יותר ולייפות את בני האדם.

כל הדיבור הזה על מודעות עצמית מעלה שאלה קצת ברורה, כלומר, מה בעצם מציין הביטוי מודעות עצמית. אתה יכול בקלות למצוא טונות של הגדרות ופרשנויות שונות לגבי התסביך, ואם נגיד מבנה עיסתי הכרוך במודעות עצמית. חלקם יפשטו את העניינים על ידי כך שיציעו שמודעות עצמית מורכבת ממעקב אחר העצמי שלכם, לדעת מה אתם זוממים. אתה מודע היטב למחשבות ולפעולות שלך.

יש להניח, כאשר אדם אינו מודע לעצמו, אדם לא יבין מה הוא עושה, וגם לא למה כן, וגם לא היה מודע למה שיש לאנשים אחרים לומר עליו. אני בטוח שפגשת אנשים כאלה.

נראה שחלק מהאנשים הולכים על כדור הארץ בלי שמץ של מושג מה הם עצמם עושים, וגם אין להם מראית עין של מה שאחרים אומרים עליהם. אני מניח שאתה יכול לטעון שהם כמו שור מטעין ראש בבוטיק שבירה עדין. בדרך כלל אנו נוטים להאמין שהשור אינו יודע מה הוא עושה ונשאר לא מודע לנקודות המבט של אחרים, אלא אם כן אחרים מנסים לתמרן פיזית או לכלוא את היצור חסר ההבנה.

אומרים שמודעות עצמית יכולה להיות רקורסיבית במקצת.

הרשו לי לשרטט דוגמה כדי להמחיש את הרקורסיה הזו. אתה בעיצומו של צפייה בסרטון חתולים די סופג בסמארטפון שלך (כולם עושים את זה, כך נראה). לחלק מהאנשים לא יהיו מחשבות נראות לעין מלבד התעלולים מחממי הלב המופלאים של אותם חתולים יקרים. בינתיים, כל מי שיש לו מעט מודעות עצמית, הוא מודע לכך שהוא צופה בסרטון חתול. הם עשויים גם להיות מודעים לכך שאחרים סביבם מציינים שהם צופים בסרטון חתול.

שימו לב שאתם יכולים להיות מודעים לעצמכם ועדיין להיות שקועים בפעילות עיקרית מסוימת. הפעילות העיקרית במקרה זה היא צפייה בסרטון החתול. שנית, ובו זמנית, אתה יכול לשאת את המחשבה שאתה בעצם צופה בסרטון חתול. אתה גם מסוגל לשאת את המחשבה שאחרים צופים בך כשאתה צופה בסרטון החתול המשעשע לגמרי. אינך חייב בהכרח להפסיק פעילות אחת, כגון להפסיק לצפות בסרטון החתול, כדי להרהר בנפרד שאתה (או סתם) צופה בסרטון חתול. המחשבות הללו יכולות לכאורה להתרחש במקביל זו לזו.

לפעמים, המודעות העצמית שלנו עלולה להעיף אותנו או לפחות להפריע לפעילות נפשית ראשונית. אולי, בזמן שאתה חושב על הצפייה שלך בסרטון החתול, המוח שלך מתאפק חלקית מכיוון שהוא מתמתח מדי כדי להתרכז אך ורק בסרטון עצמו. אתה בוחר להריץ לאחור את הסרטון כדי לחזור על החלק שראית אבל שדעתך מוסחת מלהבין אותו במלואו. מודעות עצמית הפריעה לפעילות המנטלית העיקרית שלך.

אוקיי, אנחנו מוכנים כעת להיבטים הרקורסיבים שיופיעו.

האם אתה מוכן?

אתה צופה בסרטון חתול. המודעות העצמית שלך מודיעה לך שאתה צופה בסרטון חתול ושאחרים צופים בך בזמן שאתה צופה בסרטון. זה המצב הקיים.

בשלב הבא אתה עושה קפיצת מדרגה נפשית נוספת. אתה מתחיל לחשוב על המודעות העצמית שלך. אתה מודע לעצמך שאתה מעסיק את המודעות העצמית שלך. הנה איך זה הולך: האם אני חושב יותר מדי לחשוב על הצפייה שלי בסרטון החתול, אתם שואלים את עצמכם בייאוש? זהו רובד נוסף של מודעות עצמית. דירוג מודעות עצמית על גבי מודעות עצמית אחרת.

יש פתגם ישן שאומר שזה צבים לאורך כל הדרך. עבור תופעות המודעות העצמית, אתה יכול להיות:

  • לא מודע לעצמך
  • מודע לעצמך
  • מודעות עצמית למודעות העצמית שלך לעצמך
  • מודע לעצמך להיותך מודע לעצמך למודעות העצמית שלך לעצמך
  • Ad Infinitum (כלומר, וכן הלאה)

אולי הבנתם שקודם לכן ציינתי בעדינות שנראה שיש שתי קטגוריות עיקריות של מודעות עצמית. תיאוריה מסוימת מניחה שיש לנו סוג של מודעות עצמית פנימית המתמקדת במצבים הפנימיים שלנו, ויש לנו גם מודעות עצמית חיצונית המסייעת לאמוד את התפיסות עלינו של הסובבים אותנו שצופים בנו.

לפי המאמר של HBR, הנה תיאור מהיר של שני סוגי המודעות העצמית התיאורטיים: "הראשון, שדובבנו מודעות עצמית פנימית, מייצג עד כמה אנו רואים בבירור את הערכים, התשוקות, השאיפות שלנו, ההתאמה לסביבה שלנו, התגובות (כולל מחשבות, רגשות, התנהגויות, חוזקות וחולשות) והשפעה על אחרים." ובינתיים השני הוא: "הקטגוריה השנייה, מודעות עצמית חיצונית, פירושו להבין כיצד אנשים אחרים רואים אותנו, במונחים של אותם גורמים המפורטים למעלה. המחקר שלנו מראה שאנשים שיודעים איך אחרים רואים אותם מיומנים יותר בגילוי אמפתיה ולוקחת נקודות מבט של אחרים".

ניתן להסיק מטריצה ​​שימושית של שניים על שתיים או ארבעה ריבועים על ידי טענה שהמודעות העצמית הפנימית והחיצונית נעה בין גבוה לנמוך, ותוכלו להתאים את שתי הקטגוריות זו לזו. מחקר HBR מצביע על כך שנאמר שאתה אחד מארבעת הארכיטיפים הבאים של מודעות עצמית:

  • צופה פנימה: מודעות עצמית חיצונית נמוכה + מודעות עצמית פנימית גבוהה
  • מחפש: מודעות עצמית חיצונית נמוכה + מודעות עצמית פנימית נמוכה
  • Pleaser: מודעות עצמית חיצונית גבוהה + מודעות עצמית פנימית נמוכה
  • מודע: מודעות עצמית חיצונית גבוהה + מודעות עצמית פנימית גבוהה

הפסגה תהיה ארכיטיפ ה"מודע" המורכב מהיותו בדרגה העליונה של מודעות עצמית חיצונית וכמו כן בראש של מודעות עצמית פנימית. כדי להבהיר, אינך משיג את היציבה המפוארת הזו באופן קבוע בהכרח. אתה יכול לחמוק קדימה ואחורה בין להיות גבוה לנמוך, בין תחומי המודעות העצמית הפנימית והחיצונית כאחד. זה יכול להיות תלוי בשעה ביום, במצב בו אתה נקלע ובמגוון גורמים בולטים אחרים.

כעת, לאחר שכיסינו בחביבות כמה מרכיבים בסיסיים על מודעות עצמית, אנו יכולים לנסות לקשור זאת לנושא התנהגויות אתיות.

הטענה הרגילה לגבי מודע לעצמך היא שיש סיכוי גבוה יותר שתהיה מעל הסיפון כשאתה מודע לעצמך. זה אומר, כפי שכבר צוין, אתה פחות נוטה להתנהגויות אתיות שליליות כמו גניבה, רמאות ושקר. הרציונל לנטייה זו הוא שהאקטיביות של המודעות העצמית שלך תגרום לך להבין שההתנהגות שלך היא לא נעימה או לא אתית. לא רק שאתה תופס את עצמך כשאתה נוטה למים לא אתיים בוציים, אלא שאתה גם נוטה להניע את עצמך בחזרה אל האדמה היבשה (קדושת הטריטוריה האתית), כביכול.

המודעות העצמית שלך מסייעת לך בהפעלת שליטה עצמית.

ניגוד יהיה ככל הנראה כאשר יש מעט או ללא מודעות עצמית, מה שמרמז על כך שמישהו אולי לא מודע לנטייה שלו להתנהגויות לא אתיות. אתה יכול לטעון שאדם כל כך לא מודע עלול לא להבין שהם מתפקדים לרעה. בדומה לשור בחנות השבירה, עד שמשהו יותר מושך את תשומת הלב שלהם, אין סיכוי שהם יסתו את עצמם.

לא כולם קונים לזה, אגב. יש שיטענו שמודעות עצמית יכולה להיות מיושמת בקלות על היותה לא אתית כמו על היותה אתית. לדוגמה, גורם רשע עשוי להיות מודע לעצמו לחלוטין ומתענג על כך שהוא מבצע את העוול. המודעות העצמית שלהם אפילו דוחפת אותם ביתר שאת לעבר מעשים גדולים יותר ויותר של התנהגות בלתי הולמת.

יש יותר עננות על זה ממה שעשוי לפגוש ישירות את העין. נניח שמישהו מודע לעצמו מאוד, אבל הוא לא מודע למידות האתיות של חברה או תרבות נתונה. באופן זה, אין להם הנחיה אתית כלשהי, למרות העובדה המוצהרת שהם מודעים לעצמם. או, אם תרצו, אולי האדם יודע על המצוות האתיות ואינו מאמין שהן חלות עליהן. הם רואים עצמם ייחודיים או מחוץ לגבולות החשיבה האתית המקובלת.

סחור סחור זה הולך.

מודעות עצמית יכולה להתפרש כחרב בעלת אוריינטציה אתיקה דו-פיפיית, יש שידגישו בלהט.

לעת עתה, בוא נלך עם גרסת הפנים המאושרות המורכבת ממודעות עצמית בגדול המנחה או דוחפת אותנו לעבר התנהגויות אתיות. כל השאר אם זה שווה, נניח את ההנחה הפרועה שככל שתהיה יותר מודעות עצמית, כך אתה תלך יותר מבחינה אתית. זה בהחלט נראה נעים ומעורר השראה לאחל לזה כך.

בואו נעביר הילוך ונכניס את הבינה המלאכותית (AI) לתמונה.

אנו נמצאים בצומת בדיון הזה כדי לחבר את כל ההסתבכויות המתמשכות עם התחום המתפתח של AI אתי, הידוע גם בשם האתיקה של AI. לסיקור המתמשך והנרחב שלי על אתיקה של AI, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

הרעיון של AI אתי כרוך בשילוב בין תחום האתיקה וההתנהגות האתית להופעת הבינה המלאכותית. בהחלט ראיתם כותרות שהעלו פעמוני אזעקה לגבי בינה מלאכותית שגדושה בחוסר שוויון והטיות שונות. לדוגמה, יש חששות שמערכות זיהוי פנים מבוססות בינה מלאכותית יכולות לפעמים להפגין אפליה על רקע גזעי ומגדר, בדרך כלל כתוצאה מהאופן שבו הוכשרו מתקני הלמידה המכונה (ML) ו-Deep Learning (DL) הבסיסיים (ראה הניתוח שלי) בְּ- קישור זה כאן).

כדי לנסות לעצור או לפחות להפחית את ההתרוצצויות לכיוון AI למען הרע, המורכבת ממערכות בינה מלאכותית אשר מעוצבות בטעות או לעיתים בכוונה לפעול בצורה גרועה, קיימת לאחרונה דחיפות ליישם מצוות אתיות על פיתוח ושימוש בבינה מלאכותית. המטרה הרצינית היא לספק הנחיות אתיות למפתחי בינה מלאכותית, וכן לחברות שבונות או מפעילות בינה מלאכותית, וכאלה התלויות ביישומי בינה מלאכותית. כדוגמה לעקרונות האתיקה בינה מלאכותית שיוצרים ומאומצים, ראה את הסיקור שלי ב הקישור כאן.

תן רגע רפלקטיבי לשקול שלושת השאלות החשובות ביותר הללו:

  • האם נוכל לגרום למפתחי בינה מלאכותית לאמץ את עקרונות הבינה המלאכותית האתית ולהכניס את ההנחיות הללו לשימוש בפועל?
  • האם נוכל לגרום לחברות העוסקות במלאכה או בתחום בינה מלאכותית לעשות את אותו הדבר?
  • האם נוכל לגרום לאלו המשתמשים בבינה מלאכותית להכיר באופן דומה את היבטי הבינה המלאכותית האתית?

הייתי אומר זאת ללא בושה, זו הזמנה גבוהה.

הריגוש של יצירת AI יכול לגבור על כל שמץ של תשומת לב כלפי האתיקה של AI. ובכן, לא רק הריגוש, אלא גם עשיית כסף היא חלק בלתי נפרד מהמשוואה הזו. אולי תופתעו לדעת שחלק מתחום הבינה המלאכותית נוטים לומר שהם יתחילו להתמודד עם "חומרי הבינה המלאכותית" האתית ברגע שיוציאו את מערכות הבינה המלאכותית שלהם מהדלת. זוהי המנטרה הטכנית האופיינית להקפיד להיכשל מהר ולהיכשל לעתים קרובות עד שתצליחו (אני מקווה שתצליחו).

כמובן, אלה שדוחפים AI מפוקפק מבחינה אתית לציבור הרחב, משחררים את הסוס מהאסם. הרעיון המתוח המוצהר שלהם הוא שה AI למען הרע יתוקן לאחר שהוא בשימוש יומיומי, מה שגורם לרעה מאחר והסוס כבר דוהר ברצונות. אפשר לעשות נזקים. יש גם סיכוי מוגבר ששום דבר לא יתוקן או יותאם בזמן שה-AI נמצא בשימוש. תירוץ תכוף הוא שהתעסקות עם ה-AI בשלב זה עשויה להחמיר את המצב אפילו יותר במונחים של קבלת החלטות אלגוריתמית לא אתית (ADM) שהולכת לחלוטין.

מה ניתן לעשות כדי לקבל את התועלת והחיוניות של בינה מלאכותית אתית כאור בוהק ומנחה במוחם של אלה שבונים בינה מלאכותית, מתנסים בבינה מלאכותית ומשתמשים בבינה מלאכותית?

תשובה: מודעות עצמית.

כן, הרעיון הוא שאם אנשים היו מודעים יותר לעצמם לגבי האופן שבו הם משתמשים או מקיימים אינטראקציה עם AI, זה עשוי להגביר את הנטייה שלהם לרצות ש- AI אתי יהיה הנורמה. ניתן לומר את אותו הדבר על מפתחי הבינה המלאכותית והחברות הקשורות למערכות בינה מלאכותית. אם הם היו מודעים יותר לעצמם למה שהם עושים, אולי הם היו מאמצים יותר את האתיקה של AI.

חלק מההיגיון כפי שכבר נקבע הוא שמודעות עצמית מעניקה נטייה להיות אדם טוב יותר מבחינה אתית וגם למנוע מלהיות אדם עלוב מבחינה אתית. אם נוכל לשמור על הנחת היסוד הזו, זה מרמז שמפתחי בינה מלאכותית הנוטים יותר למודעות עצמית, יהיו אפוא נוטים להתנהגויות אתיות ולכן יהיו נוטים להפקת בינה מלאכותית מבחינה אתית.

זה גשר רחוק מדי בשבילך?

יש שיגידו שהעקיפיות היא קצת הרבה. אולי קשה לבלוע את שרשרת הקשרים המוגזמת בין להיות מודע לעצמו, להיות ערני מבחינה אתית ויישום מצוות אתיות על AI. טענה נגדית היא שלא יכול להזיק לנסות.

הספקנים יאמרו שמפתח בינה מלאכותית עשוי להיות מודע לעצמו ואולי להיות בעל גישה אתית יותר, אבל הם לא בהכרח מתכוונים לזנק לעבר יישום המאהל המנטלי הזה על המידות של בינה מלאכותית אתית. התשובה לטלטלה הזו היא שאם נוכל לפרסם ולפרסם עניינים אתיים בינה מלאכותית, הקשר הרופף לכאורה יהפוך ברור יותר, צפוי, ואולי יהפוך לדרך הסטנדרטית לעשות דברים בכל הנוגע ליצירת AI.

עכשיו אני הולך להוסיף טוויסט לסאגה הזו. הטוויסט עלול לגרום לראש שלך להסתובב. אנא ודא שאתה יושב היטב ומוכן למה שאני עומד לציין.

יש המציינים שאנחנו צריכים לבנות AI אתי ישירות לתוך ה-AI עצמו.

יכול להיות שאתה לא מופתע מההצהרה הזו. בוא נפרוק את זה.

מתכנת עשוי ליצור מערכת בינה מלאכותית ולעשות זאת מתוך מודעות עצמית לתכנות משלו בניסיון למנוע מה- AI לגלם הטיות וחוסר שוויון. במקום רק לחרוש על התכנות, המפתחים משגיחים מעבר לכתפו ולשאול האם הגישה שהם נוקטים תביא להיעדר הנדרש של אלמנטים שליליים ב-AI.

מצוין, יש לנו מפתח AI שנראה מספיק מודע לעצמו, ביקש לאמץ התנהגויות אתיות וראה אור לכלול מצוות אתיות בזמן שהם יוצרים את מערכת ה-AI שלהם.

השג ניצחון עבור AI אתי!

הכל טוב ויפה, אם כי הנה משהו שיכול להתרחש מאוחר יותר. הבינה המלאכותית מועברת לשימוש יומיומי. חלק מה-AI כלל רכיב ליכולת "ללמוד" תוך כדי תנועה. המשמעות היא שה-AI יכול להתאים את עצמו על סמך נתונים חדשים והיבטים אחרים של התכנות המקורי. לחיצה קצרה, זה לא אומר שה-AI הוא בעל חושים. אין לנו AI חיוני. התעלם מהכותרות המטומטמות האלה שאומרות שכן. אף אחד לא יכול לומר אם יהיה לנו AI חיוני, ואף אחד לא יכול לחזות מספיק מתי אם בכלל זה יקרה.

אם נחזור לסיפור שלנו, הבינה המלאכותית תוכננה בכוונה כדי לשפר את עצמה תוך כדי ביצוע. רעיון שימושי למדי. במקום שמתכנתים יצטרכו לבצע שיפורים ללא הרף, הם מאפשרים לתוכנית הבינה המלאכותית לעשות זאת בעצמה (וואו, זה מוציא את עצמך מהעבודה?).

במהלך הזמן שבו ה-AI אינץ' אחר אינץ' מתאים את עצמו, מסתבר שחוסר שוויון והטיות מלוכלכות שונות זוחלים למערכת ה-AI על ידי פעולות השינוי שלה. בעוד שהמתכנת שמר במקור את ההיבטים המעורפלים האלה, הם מתגבשים כעת עקב התאמת הבינה המלאכותית תוך כדי תנועה. למרבה הצער, זה יכול לקרות בצורה כה עדינה מאחורי הקלעים שאף אחד לא חכם יותר. אלה שקודם לכן היו עשויים לתת אור ירוק לבינה מלאכותית לאחר הבדיקה הממצה הראשונית, אינם מודעים כעת באופן עיוור לכך שה-AI ירד בנתיב הרקוב של AI למען הרע.

אחד האמצעים למנוע או לפחות לתפוס את ההופעה הלא רצויה הזו יהיה לבנות ב-AI מעין בודק AI אתי. רכיב בתוך ה-AI מתוכנת לצפות בהתנהגות ה-AI ולזהות האם ADM לא אתי מתחיל להופיע. אם כן, הרכיב עשוי לשלוח התראה למפתחי הבינה המלאכותית או לעשות זאת לחברה שמפעילה את מערכת הבינה המלאכותית.

גרסה מתקדמת יותר של רכיב זה עשויה לנסות לתקן את ה-AI. זו תהיה התאמה של ההתאמות, שתהפוך את ההיבטים הלא אתיים העולים בחזרה לפרמטרים האתיים המתאימים. אתה יכול לדמיין שסוג זה של תכנות הוא מסובך. יש סיכוי שזה עלול לפסוע, אולי יהפוך ללא אתי ללא אתי עמוק. קיימת גם אפשרות של חיובי כוזב שתפעיל את הרכיב לפעולה ואולי תבלגן דברים בהתאם.

בכל מקרה, בלי להסתבך באיך הבודק הכפול הזה יפעל, אנחנו הולכים להצהיר על כך. אתה יכול להציע שבאופן מוגבל כלשהו, ​​אומרים שה-AI מודע לעצמו.

איכס, אלו מילות קרב עבור רבים.

האמונה הרווחת של כמעט כולם היא שה-AI של היום אינו מודע לעצמו. נקודה. עד שנגיע לבינה מלאכותית חיה, שאיננו יודעים אם ומתי זה יקרה, אין שום סוג של בינה מלאכותית שמודעת לעצמה. לא לפחות במשמעות של מודעות עצמית מכוונת אנושית. אפילו אל תציע שזה יכול לקרות.

אני בהחלט מסכים שאנחנו צריכים להיות זהירים באנתרופומורפיזציה של AI. אני אספר עוד על הדאגה הזו בעוד רגע.

בינתיים, אם למען הדיון תהיו מוכנים להשתמש בהדרגתיות "מודעות עצמית" בצורה רופפת-אווזית, אני מאמין שתוכלו לראות בקלות מדוע ניתן לומר שה-AI מציית לרעיון הכולל של עצמי- מוּדָעוּת. יש לנו חלק מה-AI שעוקב אחר שאר הבינה המלאכותית, ועוקב אחר מה שאר ה-AI זומם. כאשר שאר ה-AI מתחיל להגזים, חלק הניטור מבקש לזהות זאת. יתר על כן, חלק הניטור של הבינה המלאכותית או הבודק הכפול עשויים לכוון את שאר הבינה המלאכותית בחזרה לנתיבים המתאימים.

האם זה לא נראה קצת כמו הפעולה של צפייה בסרטוני החתולים האלה ועם המודעות העצמית שאתה עושה זאת?

יש לזה טבעת מוכרת.

אנחנו יכולים להרחיב את זה אפילו יותר. רכיב הבודק הכפול של AI לא רק מתוכנת לצפות בהתנהגות של שאר ה-AI, אלא גם מציין את ההתנהגות של אלה שמשתמשים ב-AI. איך המשתמשים עושים שימוש ב-AI? נניח שחלק מהמשתמשים מביעים זעם על כך שנראה שה-AI מפלה אותם. ייתכן שהבודק הכפול של AI יוכל לקלוט את זה, להשתמש בו כדגל אדום נוסף לגבי שאר הבינה המלאכותית שולל.

זה מעלה את הקטגוריזציה של המודעות העצמית הפנימית ושל המודעות העצמית החיצונית.

הבודק הכפול של הבינה המלאכותית סורק פנימית וחיצונית כדי להבין אם שאר הבינה המלאכותית נכנסה לים מטרידים. הזיהוי ירים דגל או יגרום לתיקון עצמי.

בואו נוסיף עוד הרחבה קצת מטלטלת. אנו בונים בודק AI נוסף שנועד לבדוק שוב את בודק AI הליבה. למה ככה? ובכן, נניח שהבודק הכפול של AI נראה מקרטע או לא מצליח לבצע את עבודתו. הבודק הכפול של הבינה המלאכותית של הבודק הכפול יבקש לזהות תקלה זו ולנקוט בפעולות הנדרשות בהתאם. ברוכים הבאים לאופי הרקורסי של מודעות עצמית, חלקם עשויים להצהיר בגאווה, כפי שמוצג במערכת AI חישובית.

לאלו מכם שכבר נמצאים על קצה הכיסא בנושא זה, ההערה האחרונה, לעת עתה, היא שנוכל לנסות להציע שאם תגרום למערכות בינה מלאכותית להיות "מודעות לעצמן" הן עלולות להימשך להתנהגות אתית. האם הם עושים זאת על בסיס רגיש? בהחלט, לא. האם הם עושים את זה על בסיס חישובי? כן, למרות שעלינו להיות ברורים שזה לא באותו קליבר כמו זה של התנהגות אנושית.

אם לא נוח לך שהמושג של מודעות עצמית מעוות באופן שגוי כדי להתאים אותו לתכנית חישובית, החששות שלך בעניין זה מצוינים היטב. האם עלינו להפסיק את מאמצי הבינה המלאכותית המתמשכים הממנפים את הרעיון היא שאלה פתוחה נוספת. אתה יכול לטעון בצורה משכנעת שלפחות נראה שזה מוביל אותנו לקראת תוצאה טובה יותר של מה ש-AI עשוי לעשות. אבל אנחנו צריכים לפקוח עיניים לרווחה בזמן שזה מתרחש.

מניח שנצטרך לראות איך כל זה מסתדר. תחזור לזה בעוד חמש שנים, עשר שנים וחמישים שנה, ותראה אם ​​החשיבה שלך השתנתה בעניין השנוי במחלוקת.

אני מבין שזו הייתה בחינה קצת סוערת של הנושא ואולי אתה משתוקק לכמה דוגמאות יומיומיות. יש מכלול מיוחד ופופולארי של דוגמאות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות מציאותיות המציגות דילמות אתיות בינה מלאכותית, כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות בינה מלאכותית זו הוא הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות נהיגה עצמית אמיתיות מבוססות בינה מלאכותית מאירה משהו על כך שיש לבינה מלאכותית מראית עין של "מודעות עצמית" ואם כן, מה זה מציג?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

כהבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שה- AI מניע את המכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לחלוק במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות שחולקות בשיתוף את משימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAS (Advanced Driver-Assistance Systems).

אין עדיין מכונית נהיגה עצמית אמיתית ברמה 5, שאנחנו עדיין לא יודעים אם ניתן יהיה להשיג זאת, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מכוניות בנהיגה עצמית ובינה מלאכותית עם מה שנקרא מודעות עצמית

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני סומך על כך שמספק מספיק הסתייגויות כדי לבסס את מה שאני עומד להתייחס אליו.

אנחנו מתכוונים עכשיו לעשות צלילה עמוקה לתוך מכוניות בנהיגה עצמית ושאלות בינה מלאכותית אתיות הכרוכות בתפיסה מרמת גבות של AI בעל סוג של מודעות עצמית אם תרצו.

בואו נשתמש בדוגמה פשוטה. מכונית עם נהיגה עצמית מבוססת בינה מלאכותית נוסעת ברחובות השכונה שלך ונראה שהיא נוסעת בבטחה. בהתחלה הקדשת תשומת לב מיוחדת לכל פעם שהצלחת להציץ במכונית הנוהגת בעצמך. הרכב האוטונומי בלט עם מתלה החיישנים האלקטרוניים שלו שכלל מצלמות וידאו, יחידות מכ"ם, מכשירי LIDAR וכדומה. אחרי שבועות רבים של מכונית בנהיגה עצמית ששייטת ברחבי הקהילה שלך, עכשיו אתה בקושי שם לב לזה. מבחינתך, זו בסך הכל עוד מכונית בכבישים הציבוריים העמוסים ממילא.

כדי שלא תחשוב שזה בלתי אפשרי או בלתי סביר להתמצא במכוניות בנהיגה עצמית, כתבתי לא פעם על האופן שבו המקומות שנמצאים בטווח של נסיונות מכוניות בנהיגה עצמית התרגלו בהדרגה לראות את הרכבים המשובחים, ראה את הניתוח שלי ב קישור זה כאן. רבים מהמקומיים עברו בסופו של דבר מהסתערות נלהבת פעורת פיות לפלוט כעת פיהוק נרחב של שעמום כדי לחזות במכוניות המתפתלות בנהיגה עצמית.

כנראה שהסיבה העיקרית כרגע שהם עלולים להבחין ברכבים האוטונומיים היא בגלל גורם הגירוי והעצבנות. מערכות הנהיגה המופיעות ב-AI מוודאות שהמכוניות מצייתות לכל מגבלות המהירות וכללי הדרך. לנהגים אנושיים קדחתניים במכוניות המסורתיות המונעות על ידי אדם, אתה מתעצבן לפעמים כשאתה תקוע מאחורי המכוניות המבוססות על בינה מלאכותית לחלוטין.

זה משהו שכולנו צריכים אולי להתרגל אליו, בצדק או שלא.

בחזרה לסיפור שלנו. יום אחד, נניח שמכונית בנהיגה עצמית בעיר או בעיר שלך מתקרבת לתמרור עצור ולא נראה שהיא מאטה. שמיים, נראה שמערכת הנהיגה בינה מלאכותית תגרום לחרושת המכונית בנהיגה עצמית ממש מעבר לתמרור עצור. תארו לעצמכם אם הולך רגל או רוכב אופניים היה איפשהו בקרבת מקום ונתפס לא בשמירה שהמכונית הנוהגת בעצמה לא עומדת לעצור כראוי. מֵבִּישׁ. מְסוּכָּן!

וכן, לא חוקי.

הבה נשקול כעת רכיב בינה מלאכותית במערכת הנהיגה בינה מלאכותית הפועל כסגנון של בודק כפול מודע לעצמו.

ניקח רגע כדי לחפור בפרטים של מה שקורה בתוך מערכת הנהיגה בינה מלאכותית. מסתבר שמצלמות הווידאו שהותקנו על הרכב האוטונומי זיהו את מה שנראה אולי כתמרור עצור, אם כי במקרה זה עץ מגודל מטשטש בשפע את תמרור עצור. מערכת למידת מכונה ולמידה עמוקה שהוכשרה במקור על שלטי עצור נוצרה על דפוסים של סימני עצור מלאים בעיקרם, בדרך כלל ללא גבולות. לאחר בדיקה חישובית של תמונת הווידאו, נקבעה סבירות נמוכה לכך שסימן עצור קיים באותו נקודה מסוימת (כסיבוך נוסף, והסבר נוסף, זה היה סימן עצור שפורסם לאחרונה שלא הופיע במפות הדיגיטליות שהוכנו קודם לכן מערכת נהיגה בינה מלאכותית הסתמכה עליה).

בסך הכל, מערכת הנהיגה בינה מלאכותית קבעה מבחינה חישובית להמשיך קדימה כאילו התמרור עצור לא קיים או אולי סימן מסוג אחר שאולי דומה לתמרור עצור (זה יכול לקרות וקורה בתדירות מסוימת).

אבל, למרבה המזל, הבודק הכפול המודע ל-AI פיקח על הפעילויות של מערכת הנהיגה של AI. לאחר סקירה חישובית של הנתונים וההערכה על ידי שאר הבינה המלאכותית, רכיב זה בחר לעקוף את מהלך ההתנהלות הרגיל ובמקום זאת ציווה על מערכת הנהיגה של הבינה המלאכותית לעצור מתאים.

איש לא נפגע, ולא התרחש מעשה בלתי חוקי.

אפשר לומר שהבודק הכפול המודע ל-AI התנהג כאילו היה סוכן משפטי מוטבע, וניסה להבטיח שמערכת הנהיגה של AI עומדת בחוק (במקרה זה, תמרור עצור). כמובן שגם הבטיחות הייתה המפתח.

הדוגמה הזו, בתקווה, מציגה כיצד הבודק הכפול, המודע לעצמו, עשוי לעבוד.

בשלב הבא נוכל לשקול בקצרה דוגמה בולטת יותר של בינה מלאכותית בינה מלאכותית, הממחישה כיצד הבדיקה הכפולה המודעת לעצמה של בינה מלאכותית עשויה לספק פונקציונליות משובצת מוכוונת בינה מלאכותית אתית.

ראשית, כרקע, אחת החששות שהובעו לגבי הופעתן של מכוניות בנהיגה עצמית מבוססות בינה מלאכותית היא שהן עלולות בסופו של דבר להיות בשימוש בצורה מפלה מעט בשוגג. הנה איך. נניח שאותן מכוניות בנהיגה עצמית מוגדרות כדי לנסות ולמקסם את פוטנציאל ההכנסות שלהן, וזה בהחלט הגיוני עבור אלה שמפעילים צי של מכוניות זמינות לנהיגה עצמית. בעל הצי ירצה לבצע פעולה רווחית.

יכול להיות שבעיירה או עיר נתונה, המכוניות הנודדות בנהיגה עצמית מתחילות בהדרגה לשרת חלקים מסוימים של הקהילה ולא אזורים אחרים. הם עושים זאת למען מטרה להרוויח כסף, בכך שאולי אזורים עניים יותר אינם מניבים הכנסות כמו החלקים העשירים יותר של המקום. זו אינה שאיפה מפורשת לשרת תחומים מסוימים ולא לשרת אחרים. במקום זאת, היא מתעוררת באופן אורגני לגבי הבינה המלאכותית של המכוניות הנוהגות בעצמן "תגלו" מבחינה חישובית שיש יותר כסף להרוויח על ידי התמקדות באזורים בעלי שכר גבוה יותר מבחינה גיאוגרפית. דיברתי על דאגה אתית חברתית זו בטור שלי, כגון ב הקישור כאן.

נניח שהוספנו בודק כפול מודע ל-AI למערכות הנהיגה של AI. לאחר זמן מה, רכיב הבינה המלאכותית מבחין באופן חישובי בדפוס שבו מסתובבות המכוניות הנוהגות בעצמן. יש לציין, באזורים מסוימים אך לא באחרים. בהתבסס על קידוד עם כמה מצוות AI אתיות, הבודק הכפול המודע ל-AI מתחיל להנחות את המכוניות הנוהגות בעצמן לחלקים אחרים של העיר שהיו מוזנחים אחרת.

זה ממחיש את הרעיון המודע ל-AI ועושה זאת בשילוב עם אלמנט AI אתי.

עוד דוגמה אחת כזו עשויה לספק תובנה ששיקול זה של בינה מלאכותית אתית יכול להיות גם השלכה די מפוכחת ורצינית של חיים או מוות.

שקול דיווח חדשותי על תאונת דרכים לאחרונה. לפי הדיווחים, נהג אנושי הגיע לצומת סואן והיה לו אור ירוק להמשיך ישר קדימה. נהג אחר חלף על פני רמזור אדום ונכנס לצומת כשלא היו צריכים לעשות זאת. הנהג עם האור הירוק הבין ברגע האחרון שהמכונית האחרת הזו הולכת להיכנס קשות למכוניתו.

לדברי הנהג המסוכן הזה, הוא חישב בדעתו שאו שהוא עומד להיפגע מהמכונית השנייה, או שהוא יכול לסטות כדי לנסות ולהימנע מהמחבל. הבעיה בסטייה הייתה שהיו הולכי רגל בקרבת מקום שהיו בסכנה.

איזו בחירה היית עושה?

אתה יכול להכין את עצמך להיפגע ולקוות שהנזק לא יפגע או יהרוג אותך. מצד שני, אתה יכול לסטות באופן קיצוני, אבל לסכן בצורה חמורה ואולי לפגוע או להרוג הולכי רגל בקרבת מקום. זוהי בעיה קשה, הכוללת שיפוט מוסרי, והיא ספוגה במלואה בהשלכות אתיות (ומשפטיות).

יש בעיה אתית למטרות כלליות המכסה סוג זה של דילמה, הידועה או אולי הידועה לשמצה בשם בעיית העגלה, ראה הסיקור הנרחב שלי ב- קישור זה כאן. מסתבר שזהו ניסוי מחשבתי מעורר אתי שמקורו בשנות ה-1900 המוקדמות. ככזה, הנושא קיים כבר די הרבה זמן ולאחרונה הפך להיות מזוהה באופן כללי עם הופעתן של AI ומכוניות לנהיגה עצמית.

החלף את הנהג האנושי במערכת נהיגה בינה מלאכותית המוטמעת במכונית נהיגה עצמית.

דמיינו לעצמכם שמכונית AI בנהיגה עצמית נכנסת לצומת והחיישנים של הרכב האוטונומי מזהים לפתע מכונית מונעת על ידי אדם המגיעה ישירות ברמזור אדום ומכוונת למכונית ללא נהג. נניח שלמכונית הנוהגת בעצמה יש כמה נוסעים בתוך הרכב.

מה אתה רוצה שה-AI יעשה?

האם מערכת נהיגת הבינה המלאכותית תבחר להמשיך קדימה ולהיחרש פנימה (סביר להזיק או אולי להרוג את הנוסעים בתוך הרכב), או האם אתה רוצה שמערכת הנהיגה הבינה המלאכותית תיקח סיכון ותסטה, אם כי פעולת הסטייה לוקחת את הרכב האוטונומי בצורה מסוכנת כלפי הולכי רגל סמוכים ועלול לפגוע או להרוג אותם.

רבים מיצרני הבינה המלאכותית של מכוניות בנהיגה עצמית נוקטים בגישה של ראש בחול למצוקות האתיות הללו של בינה מלאכותית. בגדול, הבינה המלאכותית כפי שתוכנתה כעת פשוט תחרוש קדימה ותפגע באלימות על ידי המכונית השנייה. הבינה המלאכותית לא תוכנתה לחפש תמרוני התחמקות אחרים.

ניבאתי שוב ושוב שהעמדה הזו של רואה-אין-רע שומע-אין-רע של יצרניות המכוניות בנהיגה עצמית בינה מלאכותית תגיע בסופו של דבר ותנשך אותן (הניתוח שלי הוא ב- הקישור כאן). אתה יכול לצפות לתביעות משפטיות הכוללות תאונות דרכים כאלה שיבקשו לגלות מה תוכנת הבינה המלאכותית לעשות. האם החברה או מפתחי הבינה המלאכותית או מפעילת הצי שפיתחה והעלתה את הבינה המלאכותית התרשלה או אחראית למה שה-AI עשה או לא עשה? אתה יכול גם לצפות שסערת אש של מודעות לבינה מלאכותית תתפתח לאחר מקרים מסוג זה.

אל תוך דילמת הבינה המלאכותית האתית הזו נכנס הבודק הכפול המודע לעצמו של הבינה המלאכותית שלנו, המכוון לאתיקה. אולי רכיב הבינה המלאכותית המיוחד הזה עשוי לעסוק בנסיבות מסוג זה. החלק הוא מעקב אחר שאר מערכת הנהיגה בינה מלאכותית ומצב המכונית הנוהגת בעצמה. כאשר מתרחש רגע נורא כמו זה, רכיב הבינה המלאכותית משמש כפותר בעיות עגלות ומציע את מה שמערכת הנהיגה בינה מלאכותית צריכה לעשות.

דבר לא קל לקוד, אני מבטיח לך.

סיכום

אשתף אתכם במחשבה האחרונה לעת עתה בנושא זה.

סביר להניח שתמצא את זה מסקרן.

האם אתה יודע על בדיקת מראה?

זה די ידוע בחקר המודעות העצמית. שמות נוספים לעניין הם מבחן הזיהוי העצמי במראה, מבחן הכתמים האדומים, מבחן האודם וניסוחים קשורים. הטכניקה והגישה נוצרו בתחילה בתחילת שנות ה-1970 להערכת המודעות העצמית של בעלי חיים. בעלי חיים שעל פי הדיווחים עברו בהצלחה את המבחן כוללים קופי אדם, סוגים מסוימים של פילים, דולפינים, מגפים ועוד כמה אחרים. בעלי חיים שנבדקו ולפי הדיווחים לא עברו את המבחן כוללים פנדות ענק, אריות ים וכו'.

הנה העסקה.

כאשר חיה רואה את עצמה במראה, האם החיה מבינה שהתמונה המוצגת היא של עצמה, או שהחיה חושבת שהיא חיה אחרת?

יש להניח שהחיה מזהה חזותית את המין שלה, לאחר שראתה אחר מסוגו, ולכן עשויה לחשוב שהחיה המוצגת במראה היא בת דודה או אולי מתחרה לוחמת (במיוחד אם החיה נוהמת בתמונת המראה, אשר ב נראה שהתור נוהם לעברם בחזרה). אולי ראית את חתול הבית או כלב המחמד האהוב שלך עושים את אותו הדבר כאשר הוא רואה את עצמו במראה ביתית בפעם הראשונה.

בכל מקרה, היינו מניחים שחיית בר מעולם לא ראתה את עצמה לפני כן. ובכן, זה לא בהכרח נכון, מכיוון שאולי החיה תפסה את עצמה בבריכת מים רגועה או דרך תצורת סלע נוצצת. אבל אלה נחשבים לסיכויים פחות סבירים.

אוקיי, אנחנו רוצים איכשהו להעריך אם בעל חיים מסוגל להבין שזו בעצם החיה שמוצגת במראה. תחשוב על המעשה הפשוט לכאורה. בני אדם מבינים בגיל צעיר שהם קיימים ושקיומם מודגם על ידי ראיית עצמם במראה. הם הופכים להיות מודעים לעצמם. בתיאוריה, אתה עלול לא להבין שאתה אתה, עד שתראה את עצמך במראה.

אולי בעלי חיים אינם מסוגלים להיות מודעים לעצמם באופן קוגניטיבי באותה צורה. יכול להיות שחיה תראה את עצמה במראה ותאמין כל הזמן שהיא חיה אחרת. לא משנה כמה פעמים הוא רואה את עצמו, הוא עדיין יחשוב שזו חיה שונה ממנה.

החלק הטריקי של זה בא לשחק. אנחנו מטביעים חותם על החיה. יש לראות את הסימן הזה רק כאשר החיה רואה את עצמה במראה. אם בעל החיים יכול להתפתל או להסתובב ולראות את הסימן על עצמו (ישירות), זה הורס את הניסוי. יתר על כן, בעל החיים אינו יכול להרגיש, להריח, או בכל דרך אחרת לזהות את הסימן. שוב, אם יעשו זאת זה יהרוס את הניסוי. החיה לא יכולה לדעת שאנחנו שמים עליה את הסימן, כי זה ירמז לבהמה שמשהו נמצא שם.

אנו רוצים לצמצם את הדברים כך שהסיבה האפשרית היחידה לכך שהסימן ניתן לגילוי תהיה באמצעות הסתכלות על עצמו במראה.

אהה, המבחן מוכן עכשיו. החיה מונחת מול מראה או משוטטת אליה. אם בעל החיים ינסה לאחר מכן לגעת או לחפור בסימון, נסיק באופן סביר שהדרך היחידה שזה יקרה היא אם החיה תבין שהסימן נמצא על עצמו. מעט מאוד מיני בעלי חיים הצליחו לעבור בהצלחה את המבחן הזה.

יש שלל ביקורות על המבחן. אם בודק אנושי נמצא בקרבת מקום, הם עלולים לתת דברים על ידי בהייה בסימון, מה שעלול לגרום לבעל החיים לצחצח או להרגיש אחריו. אפשרות נוספת היא שהחיה עדיין מאמינה שחיה אחרת מוצגת במראה, אבל היא מאותו סוג, ולכן החיה תוהה אם גם לה יש סימן כמו זה שעל החיה השנייה.

עוד ועוד זה ממשיך.

אני בטוח שאתה שמח לדעת זאת ומעתה תבין מדוע יש נקודה או סימן מוזר כלשהו על בעל חיים שאחרת לא היה לו סימן כזה. מי יודע, אולי זה סיים לאחרונה ניסוי בבדיקת מראה. ברך את החיה, בבטחה, על שהייתה משתתפת נדיבה.

מה כל זה קשור למכוניות בנהיגה עצמית מבוססות בינה מלאכותית?

אתה תאהב את החלק הזה.

מכונית בנהיגה עצמית נוסעת על כביש מהיר ארוך. מערכת הנהיגה בינה מלאכותית משתמשת בחיישנים כדי לזהות תנועה אחרת. מדובר בכביש דו-נתיבי עם תנועה שעוברת צפונה בנתיב אחד ודרומה בנתיב השני. מדי פעם, מכוניות ומשאיות ינסו לחלוף זה על פני זה, לעשות זאת על ידי כניסה לנתיב הנגדי ולאחר מכן דילוג חזרה לנתיב הנסיעה המתאים להם.

ראית את זה, ללא ספק עשית את זה.

אני בטוח שההיבט הבא הזה קרה גם לך. לפני המכונית הנוהגת בעצמה נמצאת אחת מאותן משאיות מיכליות גדולות. הוא עשוי ממתכת מבריקה. מצוחצח ונקי כמו משרוקית. כשאתה נכנס מאחורי משאית כזו, אתה יכול לראות את תמונת המראה של המכונית שלך דרך החלק האחורי של המכלית. אם ראית את זה, אתה יודע כמה זה יכול להיות מהפנט. הנה אתה, אתה ומכוניתך, משתקפים בהשתקפות המראה של החלק האחורי של משאית המכלית.

שב על הטוויסט המטורף.

מכונית בנהיגה עצמית עולה מאחורי משאית המכלית. המצלמות מזהות תמונה של מכונית שמוצגת בהשתקפות דמוית המראה. וואו, מעריך הבינה המלאכותית, זו מכונית? זה מגיע למכונית הנוהגת בעצמה? ככל שהמכונית הנוהגת בעצמה מתקרבת יותר ויותר למשאית המכלית, נראה שהמכונית מתקרבת יותר ויותר.

אוקיי, הבינה המלאכותית עשויה לחשב שזהו מצב מסוכן וה-AI צריך לנקוט בפעולה התחמקות מהרכב הנוכל המטורף הזה. אתה מבין, ה-AI לא זיהה את עצמו במראה. זה נכשל במבחן המראה.

מה לעשות? אולי הבודק הכפול המודע לעצמו של הבינה המלאכותית קופץ לעניין ומרגיע את שאר מערכת הנהיגה בבינה מלאכותית שזו רק השתקפות לא מזיקה. הסכנה נמנעה. העולם ניצל. מעבר מוצלח של מבחן AI Mirror!

עם מסקנה בלשון המעטה, אנו עשויים אפילו להציע שלפעמים בינה מלאכותית חכמה יותר או לפחות מודעת לעצמה מדוב ממוצע (אם כי, לזכותם של דובים, הם בדרך כלל מצליחים היטב במבחן המראה, לעתים קרובות לאחר שהצליחו רגילים להשתקפותם בבריכות מים).

תיקון, אולי AI יכול להיות מודע לעצמו יותר מאשר פנדות ענק ואריות ים, אבל אל תגיד לבעלי החיים שהם עלולים להתפתות לרסק או להרוס מערכות AI. אנחנו לא רוצים את זה, נכון?

מקור: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/