אתיקה של בינה מלאכותית בהיאבקות עם תאונות בינה מלאכותית, שנובעת גם מעל מכוניות אוטונומיות לנהיגה עצמית

האם אתה מכיר מישהו שנראה מועד במיוחד לתאונות?

נראה שכולנו כן.

אולי האדם הוא הטיפוס הזה שמסוגל להחליק על קליפת בננה או להפיל אגרטל יקר בסלון שלך. הם מגנט אנושי לתאונות כאלה או אחרות. זה יכול להיות כל כך גרוע שאתה אפילו לא מתקרב לפעמים. אתה עלול לקבל את ההצפה המבשרת רעות או לסבול מהתוצאות המפוארות של אחת מהתאונות הלא נעימות שלהם.

אבל אולי אנחנו קשוחים מדי כשאנחנו מציעים שמישהו נוטה יותר לתאונות מאשר אחרים. אפשר לטעון שתאונות יכולות לקרות לכל אחד מאיתנו. כולנו נתונים לאפשרות לבצע או להסתבך בתאונה. הטובים מאיתנו כללו.

בואו נערום על גבי הדיון הזה שאלה מטרידה נוספת.

האם תאונות הן בלתי נמנעות?

במילים אחרות, לא משנה כמה ננסה למנוע תאונות, זה יכול להיות בל יינתק שבכל זאת יש עדיין סיכוי וודאות אולטימטיבית שיתרחשו תאונות. אתה יכול לנסות להגן על העולם מפני תאונות. זה נראה נבון ללא ספק. אבל כך או אחרת, תאונות עדיין ירימו את ראשן המכוער.

כמו שאומרים, תאונות מחכות לקרות.

זה עשוי להיות מועיל להבהיר למה הכוונה בהתייחסות לאירוע כלשהו כמתויגת כתאונה. ההגדרה המילונית המקובלת היא שתאונה היא סוג של אירוע המתרחש באופן בלתי צפוי ולא מכוון, שעבורו יש תוצאה מצערת המורכבת ממראית עין של נזק או פציעה.

פרק את ההגדרה הזו בתשומת לב.

האירוע האמור הוא בלתי צפוי. מכאן משתמע שלא נראה היה לנו שהתאונה עצמה תתרחש.

האירוע האמור אינו מכוון. זה מצביע על כך שעלינו לשלול את הנסיבות שבהן מישהו ביקש בכוונה שהאירוע יתרחש. אם קונדס מניח קליפת בננה על הרצפה במקום שבו הוא יודע שחף מפשע חסר מזל וחסר חשד ידרוך, יהיה קשה לך לטעון שהאדם שמועד עליה עבר תאונה. במקום זאת הונו אותם והובלו בערמומיות למלכודת.

ההגדרה כוללת גם את הקריטריון שהתוצאה מצערת. תאונה באור זה חייבת להוביל לתוצאה חמוצה. האדם שהפיל בטעות אגרטל נסדק ואולי פגע בפריט שהתענג ללא תקנה. בעל האגרטל נפגע מאובדן הערך. האדם שנתקל באגרטל עשוי כעת להיות חייב לבעלים על ההפסד. שומו שמיים שמישהו עלול להיחתך או להישבר משבירת האגרטל.

למען האיזון שווה, אולי נרצה לציין שיש גם תאונות שנקראות "טובות". אדם יכול למצוא את עצמו במזל גדול או לצבור תועלת חיונית אחרת עקב תוצאה של תאונה. אחת הדוגמאות המצוטטות ביותר מורכבת מסר אלכסנדר פלמינג ותגליתו המהוללת של פניצילין. הסיפור מספר שהוא היה קצת רשלני במעבדה שלו, וכשחזר מחופשה של שבועיים מצא תבנית על אחת מצלחות התרבות שלו. לפי הדיווחים, הוא אמר את זה בעניין: "לפעמים מוצאים את מה שלא מחפשים. כשהתעוררתי קצת אחרי עלות השחר ב-28 בספטמבר 1928, בהחלט לא תכננתי לחולל מהפכה בכל הרפואה על ידי גילוי האנטיביוטיקה הראשונה בעולם, או קוטל החיידקים. אבל אני מניח שזה בדיוק מה שעשיתי."

נשים בצד את התאונות החיוביות ונתמקד כאן בתאונות העגומות. גרסת הפנים הזועפת של תאונות היא המקום שבו התוצאות השליליות הללו עלולות להיות מסכנות חיים במיוחד או לגרום לתוצאות מכבידות. ככל האפשר, את תאונות השליליות שאנו רוצים למזער (וכמובן, את תאונות הצד שהיינו רוצים למקסם, אם זה אפשרי לעשות זאת, אם כי אכסה את הגרסה הזו של פרצוף סמיילי בטור מאוחר יותר).

ברצוני לנסח מעט מחדש את השאלה הקודמת לגבי הבלתי נמנע של תאונות. עד כה, שמרנו את תשומת הלב שלנו על תאונות המתרחשות במקרה מסוים של אדם יחיד. אין ספק שתאונות יכולות להשפיע גם על מספר רב של אנשים בבת אחת. זה יכול להיתקל במיוחד כאשר אנשים שקועים במערכת מורכבת כזו או אחרת.

תתכוננו לגרסה של השאלה שצפה בעבר.

האם תאונות מערכת בלתי נמנעות?

אנחנו צריכים לחשוב על זה.

נניח שרצפת מפעל מונחת לייצור חלקים למכוניות. אלה שתכננו את המפעל, נניח מודאגים מאוד מתאונות עובדים שעלולות להתרחש. עובדי המפעל נדרשים לחבוש קסדות בכל עת. שלטים במפעל קוראים להיזהר מתאונות ולהיות זהיר בעבודתך. כל מיני אמצעי זהירות ננקטים כדי למנוע תאונות לקרות.

במערכת זו, אנו עשויים לקוות שאף אחד לעולם לא ייגרם לתאונה. האם אתה מאמין שיש אפסי סיכוי שתקרה תאונה? הייתי מעז להציע שאף הוגה דעות סביר לא יהמר שהסיכוי לתאונה הוא אפסי במקרה הזה. הסיכויים להתרחשות תאונה עשויים להיות ממש נמוכים, אך אנו עדיין יודעים ומניחים שלמרות כל אמצעי הזהירות עדיין קיים סיכון קטן שתתרחש תאונה.

כל זה מצביע על הרעיון שבמערכת בעלת מורכבות מספקת אנו חייבים להאמין שתאונות עדיין יתרחשו, ללא קשר למידת המאמץ למנוע אותן. אנו מגבים את עצמנו בעל כורחו בקביעה שתאונות מערכת הן אכן בלתי נמנעות. הצהרה גרנדיוזית בסדר גודל כזה עשויה להכיל אזהרה שהמערכת תצטרך להיות בעלת סף מסויים של מורכבות, כך שבעצם בלתי אפשרי לכסות את כל הבסיסים כדי למנוע תאונות לחלוטין.

כעת הוצגת לך בצורה מסודרת, שלב אחר שלב, לתיאוריה רחבה על תאונות שניתן לתייג כתאונות רגילות או תיאוריית התאונות הרגילה (NAT). הנה תיאור שימושי של חוקרים שבחנו את הרעיון הזה: "בקנה מידה גדול מספיק, כל מערכת תייצר 'תאונות רגילות'. מדובר בתאונות בלתי נמנעות הנגרמות משילוב של מורכבות, צימוד בין רכיבים ונזק פוטנציאלי. תאונה רגילה שונה מתאונות כשל נפוצות יותר ברכיבים בכך שהאירועים והאינטראקציות המובילות לתאונה רגילה אינם מובנים למפעילי המערכת" (כפי שנאמר ב"הבנה והימנעות מכשלים בינה מלאכותית: מדריך מעשי" מאת רוברט וויליאמס ו רומן ימפולסקי, פילוסופיות כתב עת).

הסיבה שהבאתי אותך לארץ מה שנקרא תאונות רגילות היא שאולי נצטרך ליישם בזהירות את התיאוריה הזו על משהו שהופך בהדרגה ובהכרח לכל מקום בחברה שלנו, כלומר הופעתה של בינה מלאכותית (AI).

בואו נחפור בזה.

יש אנשים שמניחים בטעות שבינה מלאכותית עומדת להיות שלמות. מערכות בינה מלאכותית לא יעשו טעויות ולא יכניסו אותנו לצרות, אומרים הספקולציות. כל מה שאתה צריך לעשות הוא לוודא שאותם מפתחי בינה מלאכותית יעשו עבודה מספיק טובה, והרי, בינה מלאכותית לעולם לא תעשה שום דבר שעלול להתפרש כמקרי או להוליד תאונה.

לא כל כך מהר על האמונה ההיפותטית ההיא. אם אתה מוכן לקנות את התיאוריה של תאונות רגילות, כל בינה מלאכותית במורכבות מהותית כלשהי תביא בהכרח לתאונה. ללא קשר לכמה התעסקות בשעות הלילה המאוחרות האלה מפתחי בינה מלאכותית עושים כדי למנוע תאונה, הבינה המלאכותית בוודאי תהיה מסובכת בנקודת זמן כלשהי בתאונה. ככה העוגייה מתפוררת. ואין הפוגה בבכי בחלב שנשפך על זה.

תחשוב על השילוב של AI ועל העקרונות הרעיוניים של תאונות רגילות.

דמיינו שיש לנו מערכת בינה מלאכותית השולטת בנשק גרעיני. ה-AI נוצר בקפידה. כל בדיקה ואיזון אפשרית קודד למערכת הבינה המלאכותית. האם אנו בטוחים מתאונה מבוססת בינה מלאכותית שעלולה להתרחש? אלה התומכים בנקודת המבט של תאונות רגילות יאמרו שאנחנו לא בטוחים בדיוק כפי שניתן לשער. בהתחשב בכך שה-AI עשוי להיות מורכב במיוחד, תאונה רגילה ממתינה שם בשקט שתופיע מתישהו, אולי ברגע הגרוע ביותר.

תמצית השאלות וההתלבטויות הקוצניות הללו היא שעלינו לעמוד על האצבעות שבינה מלאכותית חייבת להיות עמוסה בתאונות, והמין האנושי צריך לעשות משהו הגיוני ויזום בנוגע לסכנות שעלולות להיווצר. כפי שתראו בעוד רגע או שניים, זהו שיקול הממשמש ובא כשמדובר בשימוש בבינה מלאכותית, ותחום האתיקה של הבינה המלאכותית ובינה מלאכותית אתית מתלבט לא מעט מה לעשות. לסיקור המתמשך והנרחב שלי על אתיקה של בינה מלאכותית ובינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

לפני שנרד לבור ארנב, בואו נוודא שאנחנו באותו עמוד לגבי אופי הבינה המלאכותית. אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיה תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה סיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי מרגיש AI, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לקחת בחשבון שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם שנותן לך עצות. יתרה מכך, מכיוון שחלק משערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו עשויה להיות חכמים יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן). כולם אמרו שהתרחישים האלה יגבירו את הערכת המקור.

בואו נשאיר את הדברים יותר מדוייקים ונשקול את הבינה המלאכותית החישובית הלא-חושית של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפת התאמת דפוסים חישוביים. זה הוביל למערכות בינה מלאכותית שיש להן מראה של נטיות דמויות אדם. בינתיים, אין היום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

אתה אולי מודע לכך שכשהעידן האחרון של בינה מלאכותית יצא לדרך, היה פרץ עצום של התלהבות ממה שחלק מכנים עכשיו AI לתמיד. לרוע המזל, בעקבות אותה התרגשות גועשת, התחלנו להיות עדים AI למען הרע. לדוגמה, מערכות שונות של זיהוי פנים מבוססות בינה מלאכותית התגלו כמכילות הטיות גזעיות והטיות מגדריות, שעליהן דיברתי ב- הקישור כאן.

מאמצים להילחם נגד AI למען הרע פועלים באופן פעיל. חוץ מזה קולני משפטי בשאיפה לרסן את העוולות, יש גם דחיפה מהותית לאימוץ אתיקה של AI כדי לתקן את גנאי הבינה המלאכותית. הרעיון הוא שעלינו לאמץ ולאמץ עקרונות מפתח אתיים בינה מלאכותית לפיתוח ותחום ה- AI לעשות זאת כדי להפחית את AI למען הרע ובו זמנית מבשר וקידום העדיף AI לתמיד.

לגבי רעיון קשור, אני תומך בניסיון להשתמש בבינה מלאכותית כחלק מהפתרון לבעיות בינה מלאכותית, להילחם באש עם אש באופן חשיבה זה. אנו יכולים למשל להטמיע רכיבי בינה מלאכותית אתית לתוך מערכת בינה מלאכותית שתפקח על אופן הפעולה של שאר הבינה המלאכותית ובכך עשויה לתפוס בזמן אמת כל מאמצים מפלים, ראה הדיון שלי ב- הקישור כאן. יכול להיות לנו גם מערכת AI נפרדת הפועלת כסוג של צג אתיקה של AI. מערכת הבינה המלאכותית משמשת כמפקחת כדי לעקוב ולזהות מתי בינה מלאכותית אחרת נכנסת לתהום הלא אתית (ראה ניתוח שלי של יכולות כאלה ב הקישור כאן).

בסך הכל, תקווה כללית היא שעל ידי ביסוס תחושה של מצוות האתיקה של בינה מלאכותית נוכל לפחות להגביר את המודעות החברתית למה שבינה מלאכותית יכולה לעשות גם בצורה מועילה וגם לייצר לרעה. דנתי בהרחבה בניתוחים קולקטיביים שונים של עקרונות אתיקה של בינה מלאכותית, כולל כיסיתי סט שהומצא על ידי חוקרים שבדק וריכז את המהות של עקרונות אתיקה לאומיים ובינלאומיים רבים של AI במאמר שכותרתו "הנוף הגלובלי של הנחיות האתיקה של בינה מלאכותית" (שפורסם) ב טבע), ושהסיקור שלי בוחן ב הקישור כאן, שהובילה לרשימת אבני המפתח הזו:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

כפי שאתה יכול לנחש ישירות, הניסיון לדייק את הפרטים העומדים בבסיס העקרונות הללו יכול להיות קשה מאוד. אפילו יותר מכך, המאמץ להפוך את העקרונות הרחבים הללו למשהו מוחשי ומפורט מספיק כדי לשמש בעת יצירת מערכות בינה מלאכותית הוא גם אגוז קשה לפיצוח. קל בסך הכל לנפנף קצת ביד על מה הם מצוות האתיקה של בינה מלאכותית וכיצד יש להקפיד עליהן באופן כללי, בעוד שזה מצב הרבה יותר מסובך בקידוד הבינה המלאכותית שצריך להיות הגומי האמיתי שפוגש את הדרך.

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים את מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית. כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שצוין קודם לכן, נדרש כפר כדי להמציא ולהשיג בינה מלאכותית, ועבורו הכפר כולו צריך להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

ייתכן שנצטרך להוסיף לרישומי האתיקה המהוללים של בינה מלאכותית שעלינו לשקול באופן מפורש ולנקוט בפעולה גלויה כדי למנוע או לפחות להפחית בחומרה מבוססת בינה מלאכותית תאונות רגילות שעלול להתרחש. אלה שמפתחים בינה מלאכותית צריכים לעשות כמיטב יכולתם בחזית הזו. אלה שפורסים בינה מלאכותית צריכים לעשות את אותו הדבר. אלה שמשתמשים או כפופים איכשהו לבינה מלאכותית צריכים להיזהר ולשמור על האפשרות של תאונות בינה מלאכותית שלכאורה הולכות להתרחש.

אתה עלול להתפתות לחשוב שניתן לבנות מספיק אמצעי זהירות ב-AI כדי שהסיכוי לתאונה יירד לאפס. עבור אלה שהם אנשי טכנולוגיה, ההיבריס הרגיל הוא שאם טכנולוגיה יכולה ליצור בעיה, טכנולוגיה אחרת יכולה בהחלט לפתור את הבעיה. פשוט תמשיך לזרוק עוד ועוד טכנולוגיה עד שהבעיה תיעלם.

ובכן, אלה שחקרו תאונות מוכוונות מערכות נוטים לא להסכים ולהגיב בנימוס לפומפוזיות הטכנית המשוערת על ידי הצגת עמדה המכונה מודל הגבינה השוויצרית (SCM): "ב-SCM, שכבות הבטיחות מעוצבות כפרוסות של גבינה עם חורים המייצגים נקודות תורפה בכל שכבת בטיחות. עם הזמן, חורים משנים צורה ומסתובבים. בסופו של דבר, לא משנה כמה פרוסות גבינה (שכבות בטיחות) יש, החורים יתיישרו ויאפשרו זריקה ישרה דרך כל פרוסות הגבינה (מתרחשת תאונה)" (לפי המאמר שצוטט קודם לכן מאת רוברט וויליאמס ורומן ימפולסקי). ).

אני לא רוצה להסתבך בשיק הצד הזה לגבי האם יש דרך מובטחת לתכנת בינה מלאכותית כדי למנוע לחלוטין ותמיד כל סיכוי לתאונה. יש כל מיני גישות מוכיחות מתמטיות וחישוביות שנוסות. אני חושב שזה הגיוני והוגן להכריז שאין לנו היום שיטת עבודה ניתנת להרחבה וגם לא טכנולוגיות שיכולות להבטיח סיכוי אפסי שכזה, בנוסף אנחנו בהחלט אוכפים עם טונות על גבי טונות של AI שמיוצרים על ידי כדורי פלפול שאנחנו יודע בוודאות לא ביקש לציית לפרקטיקות כאלה. נקודה אחרונה זו היא קריטית שכן גם אם נוכל לרקוח משהו במעבדת בינה מלאכותית, קנה המידה של זה למיליוני מאמצי הבינה המלאכותית הפרועים וחסרי הדאגות המתבצעים ואשר ימשיכו להופיע היא בעיה מסובכת וסביר להניח שלא תיפתר גם אם מכונה מוכיחה חישובית כסף כדור היה קיים.

נקודה נוספת שלדעתי ראויה להתייחסות קצרה מורכבת מבינה מלאכותית שהופכת לעשיית מעשים לא נעימים כתוצאה משחקנים אנושיים זדוניים. אני לא מתכוון להציב את המקרים האלה בתחום של תאונות בינה מלאכותית. זכור שהדיון הפותח העלה שההגדרה המילונית של תאונה היא אירוע של א לא מכוון טֶבַע. אם נוכל סייבר אנושי מצליח לגרום למערכת AI לעשות דברים רעים, אני לא מסווג את ה-AI הזה כחווה תאונה. אני סומך על כך שתלך עם ההנחה הזו.

עולה שאלה מעניינת לגבי כמה מפעולות שונות של בינה מלאכותית ניתן לייחס לתאונת בינה מלאכותית בלבד לעומת מעשה ערמומי של פושע רשת. על פי כמה ממאגרי המידע הקיימים של אירועי בינה מלאכותית, נראה שתאונות הבינה המלאכותית קורות יותר מהאירועים שדורבנו בזדון, אם כי אתה צריך לקחת את הרעיון הזה עם מנה נכבדה של מלח. אני אומר את זה כי יש פיתוי גדול לא לדווח מתי הותקפה מערכת בינה מלאכותית, ואולי להיות קצת יותר מוכן לדווח כאשר מתרחשת תאונת בינה מלאכותית.

יש אזהרה חשובה ביותר שעלינו לדון בה בנוגע לתאונות בינה מלאכותית.

השימוש בביטוי "תאונות בינה מלאכותיות" הוא בדרך כלל לא רצוי והולך ליצור בלגן לא קטן עבור כולנו, כלומר עבור כל החברה. כאשר אדם עובר תאונה, אנו לעתים קרובות מושכים בכתפיים ומזדהים עם האדם שעבר התאונה. נראה שאנו מתייחסים למילה "תאונה" כאילו היא אומרת שאף אחד לא אחראי למה שקרה.

בואו ניקח את הדוגמה של כניסה לתאונת דרכים. מכונית אחת מתנדנדת לרחבה בפנייה ימינה ונקלעת בטעות למכונית אחרת שנסעה ישר קדימה. חבל, זו הייתה רק תאונה וקרה בטעות. אלה שלא היו מעורבים באירוע אולי יתנו לעניין לגלוש אם האירוע יתנהל במונחים של תאונה בלבד.

יש לי הרגשה שאם היית במכונית שנפגעת, לא היית כל כך אוהד את הנהג שעשה את הפנייה הרחבה מדי. דעתך בהחלט תהיה שהנהג השני היה נהג עלוב ושפעולת נהיגה שלכאורה לא חוקית או לא חכמה הובילה לתאונת הדרכים. על ידי תיוג האירוע כ"תאונה" הנהג שנתקע נמצא כעת בנחיתות מסוימת שכן נראה שהכל התרחש במקרה בלבד, ולא באמצעות ידיו של הנהג שהסתבך.

למעשה, המילה "תאונה" כל כך מלאה בקונוטציות שונות, עד שבגדול, הסטטיסטיקה הממשלתית על תאונות דרכים מתייחסת לעניין כאל התנגשויות מכוניות או תאונות דרכים, במקום לעשות שימוש בביטוי תאונות דרכים. לא נראה כי להתנגשות מכונית או תאונת דרכים יש השלכות לגבי אופן התרחשות האירוע. בינתיים, הביטוי של "תאונת דרכים" כמעט גורם לנו לחשוב שזו הייתה מוזרות של גורל או איכשהו מחוץ לידי המין האנושי.

אתה יכול לראות בשפע כיצד השיקול הקונוטציוני הזה בא לידי ביטוי כאשר מתייחסים לתאונות בינה מלאכותית. אנחנו לא רוצים שמפתחי בינה מלאכותית יתחבאו מאחורי המגן הקונוטציוני שה-AI פשוט גרם למישהו נזק בטעות. אותו דבר לגבי אלה שפורסים בינה מלאכותית. אפשר לטעון שהביטוי של "תאונות בינה מלאכותית" הוא כמעט אנתרופומורפיזציה של בינה מלאכותית שתטעה את החברה לאפשר לבני האדם שהיו מאחורי הקלעים של הבינה המלאכותית לחמוק מאחריות. לדיון שלי על החשיבות הגוברת של החזקת בני אדם אחראים לבינה מלאכותית שלהם, עיין בדיון שלי ב קישור זה כאן ו קישור זה כאן.

מכאן והלאה אני הולך להשתמש במשפט הקיצוני של תאונות בינה מלאכותית, אבל אני עושה זאת בחוסר רצון ורק בגלל שזו הדרך המקובלת להתייחס לתופעה הזו. ניסיונות לנסח זאת בצורה שונה נוטים לצערי להיות נפוחים יותר ולא קל לקרוא אותם. אנא הקפד לפרש את משפט המיתוג באופן שלא יגרום לך להסתכל לכיוון השני ולא להבין שבני האדם העומדים בבסיס הבינה המלאכותית אשמים כאשר הבינה המלאכותית משתבשת.

כדי לעזור להמחיש את הבלבול הסביר או ההיבטים המטעים של התייחסות לבינה מלאכותית כאל תאונות, נוכל לחזור להערות שלי על דפיקת אגרטל. שקול את הדוגמה הזו של AI שעושה זאת: "בעיה זו קשורה לדברים שנעשו בטעות או באדישות על ידי ה-AI. רובוט ניקוי שמפיל אגרטל הוא דוגמה אחת לכך. בסביבות מורכבות יש כל כך הרבה סוגים של 'אגרטלים' עד שסביר שלא נוכל לתכנת עונש על כל תופעות הלוואי" (לפי המאמר של רוברט וויליאמס ורומן ימפולסקי).

מערכת בינה מלאכותית שנכנסת לשימוש במשק בית ואז "בטעות" מפילה אגרטל עשויה להצביע על כך שאין להאשים אף אחד בפעולה שלילית זו של הבינה המלאכותית. זו הייתה רק תאונה, אפשר להצטער. מצד שני, עלינו לשאול בצדק מדוע מערכת הבינה המלאכותית לא תוכנתה להתמודד עם נסיבות האגרטל באופן כללי. גם אם מפתחי הבינה המלאכותית לא ציפו שאגרטל כשלעצמו נמצא בטווח האובייקטים שניתן להיתקל בהם, אנחנו בהחלט יכולים לשאול מדוע לא הייתה איזו הימנעות מאובייקטים כוללת שהייתה מונעת ממערכת הבינה המלאכותית להפיל את אגרטל (לכן, ה-AI אמנם לא יכול לסווג את האגרטל כאגרטל, אבל עדיין יכול היה להימנע ממנו כאובייקט שניתן לזהות שיש להימנע ממנו).

ניבאתי ואני ממשיך לחזות שאנחנו הולכים בהדרגה לקראת מאבק משפטי ענק על הופעתן של מערכות בינה מלאכותיות שמכניסות את עצמן ל"תאונות בינה מלאכותיות" וגורמות צורה כלשהי של נזק. עד כה, החברה לא הגיבה בשום דרך משמעותית לדחיקה חוקית של בינה מלאכותית שנדחפת החוצה לשוק וגורמת לתוצאות שליליות, בין אם בכוונה ובין שלא בכוונה. עגלת הבינה המלאכותית של היום, שהפכה לבהלת זהב של יצרני בינה מלאכותית למחצה וכאלה שמיהרו להפעיל את פריסת הבינה המלאכותית, זוכות למזל כרגע ונשארות יחסית בלתי נגועים מתביעות אזרחיות ותביעות פליליות.

התגובה המשפטית המבוססת על AI מגיעה, במוקדם או במאוחר.

ממשיכים הלאה, איך ננסה להתמודד עם הבלתי נמנע של מה שנקרא תאונות בינה מלאכותית?

דבר אחד שאנחנו יכולים לעשות מיד הוא לנסות לצפות כיצד עלולות להתרחש תאונות בינה מלאכותית. על ידי ציפייה לתאונות בינה מלאכותית, אנו יכולים לפחות לחפש אמצעים לצמצם אותן או למזער את הסבירות להתרחשותן. יתר על כן, אנו יכולים לנסות להציב מעקות בטיחות כך שכאשר אכן מתרחשת תאונת בינה מלאכותית, הסיכויים לפגיעה הפגנתי מצטמצמים.

קבוצה מועילה של גורמים שתוארו במאמר המחקר שצוטט קודם לכן הבנה והימנעות מכשלים בינה מלאכותית: מדריך מעשי כולל מאפיינים אלה (כמצוטט מעבודת המחקר):

  • המערכת המושפעת מתפוקות ה-AI.
  • עיכוב זמן בין יציאות בינה מלאכותית למערכת הגדולה יותר, צפיות המערכת, רמת הקשב האנושי ויכולת המפעילים לתקן תקלות ב-AI.
  • הנזק המרבי האפשרי על ידי שימוש זדוני במערכות שה-AI שולטת בהן.
  • צימוד הרכיבים בסמיכות ל-AI ומורכבות האינטראקציות.
  • פער הידע של AI וטכנולוגיות אחרות בשימוש ורמת האנרגיה של המערכת.

בשלב זה של הדיון הכבד הזה, אני מתערב שאתה מעוניין בכמה דוגמאות להמחשה שעשויות להבהיר עוד יותר את נושא תאונות הבינה המלאכותית. יש מכלול מיוחד ופופולארי של דוגמאות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית, כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות מציאותיות המציגות דילמות של אתיקה של בינה מלאכותית, כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות בינה מלאכותית זו הוא הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות נהיגה עצמית אמיתיות מבוססות בינה מלאכותית מאירה משהו לגבי הופעתן של מה שנקרא תאונות בינה מלאכותית ואם כן, מה זה מציג לראווה?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

לשם הבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שבהן ה- AI נוהג במכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לחלוק במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות שחולקות בשיתוף את משימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAS (Advanced Driver-Assistance Systems).

עדיין אין מכונית נהיגה עצמית אמיתית ברמה 5, ואנחנו עדיין לא יודעים אפילו אם זה יהיה אפשרי, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מכוניות בנהיגה עצמית ותקריות בינה מלאכותית

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני סומך על כך שמספק מספיק הסתייגויות כדי לבסס את מה שאני עומד להתייחס אליו.

אנו מוכנים כעת לעשות צלילה עמוקה לתוך מכוניות בנהיגה עצמית ואפשרויות ה-AI האתי הכרוכות בהופעתן של מה שנקרא תאונות בינה מלאכותית.

דמיינו שמכונית בנהיגה עצמית מבוססת בינה מלאכותית נוסעת ברחובות השכונה שלכם ונראה שהיא נוסעת בבטחה. בהתחלה הקדשת תשומת לב מיוחדת לכל פעם שהצלחת להציץ במכונית הנוהגת בעצמך. הרכב האוטונומי בלט עם מתלה החיישנים האלקטרוניים שלו שכלל מצלמות וידאו, יחידות מכ"ם, מכשירי LIDAR וכדומה. אחרי שבועות רבים של מכונית בנהיגה עצמית ששייטת ברחבי הקהילה שלך, עכשיו אתה בקושי שם לב לזה. מבחינתך, זו בסך הכל עוד מכונית בכבישים הציבוריים העמוסים ממילא.

כדי שלא תחשוב שזה בלתי אפשרי או בלתי סביר להתמצא במכוניות בנהיגה עצמית, כתבתי לא פעם על האופן שבו המקומות שנמצאים בטווח של נסיונות מכוניות בנהיגה עצמית התרגלו בהדרגה לראות את הרכבים המשובחים. רבים מהמקומיים עברו בסופו של דבר מהסתערות נלהבת פעורת פיות לפלוט כעת פיהוק נרחב של שעמום כדי לחזות במכוניות המתפתלות בנהיגה עצמית.

כנראה שהסיבה העיקרית כרגע שהם עלולים להבחין ברכבים האוטונומיים היא בגלל גורם הגירוי והעצבנות. מערכות הנהיגה המופיעות ב-AI מוודאות שהמכוניות מצייתות לכל מגבלות המהירות וכללי הדרך. לנהגים אנושיים קדחתניים במכוניות המסורתיות המונעות על ידי אדם, אתה מתעצבן לפעמים כשאתה תקוע מאחורי המכוניות המבוססות על בינה מלאכותית לחלוטין.

זה משהו שכולנו צריכים אולי להתרגל אליו, בצדק או שלא.

בחזרה לסיפור שלנו.

יום אחד, המכונית הנוהגת בעצמה נקלעת לתאונה.

בזמן ביצוע פנייה ימינה, מערכת הנהיגה בינה מלאכותית הניפה את הרכב האוטונומי לרחבה ומכונית מונעת על ידי אדם נפגעה. המכונית המונעת על ידי אדם נסעה ישר קדימה בנתיב התנועה המתאים. לא הייתה הזדמנות מיוחדת לנהג האנושי לסטות או להימנע מפגיעה. בנוסף, לא הייתה אזהרה או אינדיקציה מצד המכונית הנוהגת בעצמה כי היא עומדת לבצע את הפניה ימינה באופן נרחב.

האם זו תאונה?

אנחנו בהחלט יכולים לומר שזה מוקף ברובריקה של תאונת AI. הבסיס לקביעה כזו הוא שהייתה מערכת נהיגה בינה מלאכותית על ההגה של המכונית הנוהגת בעצמה. איכשהו, מכל סיבה שהיא, הבינה המלאכותית בחרה לבצע תנופה רחבה בעת פנייה ימינה. התוצאה הובילה לכך שהמכונית הנוהגת בעצמה פגעה במכונית המונעת על ידי אדם.

זכור את הדיון הקודם על הקונוטציות הקשורות למילה "תאונה" וראה כיצד נימות כאלה באות לידי ביטוי בתרחיש זה. כמו כן, זכור שדנו במקרה של נהג אנושי שעושה פנייה רחבה ימינה ונתקל במכונית אחרת המונעת על ידי אדם. הבנו שהרעיון שהמעשה הזה הוא "תאונה" הוא מטעה ומבלבל. הנהג האנושי שעשה את הנדנדה הרחבה יכול היה להסתתר מאחורי הרעיון שהתרחשה רק תאונה שנראתה לכאורה במקרה או בפגיונות הגורל.

במקום לתייג את התרחיש כ"תאונת בינה מלאכותית" במקרה של מכונית בנהיגה עצמית מבוססת בינה מלאכותית שמתרחקת ופוגעת במכונית המונעת על ידי אדם, אולי עלינו לומר שזו הייתה תאונת דרכים או התנגשות מכונית שכללה תאונה עצמית. מכונית נוהגת ומכונית מונעת על ידי אדם. אז נוכל לוותר על הבלבול הריק של היותה תאונה של אמצעים בלתי ידועים.

מה לדעתך תהיה התגובה הציבורית לאירוע?

ובכן, אם יצרנית הרכב או חברת הטכנולוגיה לנהיגה עצמית יכולה להישאר עם התיוג של העניין כתאונה, ייתכן שהם יוכלו לעקוף את התגובה הפוטנציאלית של הקהילה בכללותה. תחושת הזדהות לגבי תאונות שכולן נאמר תזרום אולי אל הנסיבות המסוימות. למידע נוסף על האופן שבו ערים, מחוזות ומנהיגי מדינות יגיבו בפוטנציה לאירועי רכב אוטונומי בינה מלאכותית, ראה את הדיון במחקר של הרווארד שהובלתי יחד וכמתואר ב- הקישור כאן.

אם המצב מתואר באופן ברור כתאונת דרכים או התנגשות מכונית, אולי זה עשוי לאפשר את ההבנה שמישהו או משהו אולי אשם באירוע. תגובת ברכיים עשויה להיות שה-AI יישא באחריות. העניין הוא, עד או אם אי פעם נחליט למשוח את בינה מלאכותית כבעלת מראית עין של אישיות משפטית, לא תוכל להטיל את האחריות על הבינה המלאכותית כשלעצמה (ראה הדיון שלי על בינה מלאכותית ואישיות משפטית ב- הקישור כאן).

אנחנו יכולים לבדוק את מערכת הנהיגה בינה מלאכותית כדי לנסות להבין מה הוביל לנהיגה לא הולמת לכאורה ולתאונת הדרכים שלאחר מכן. עם זאת, זה לא אומר שה-AI יישא באחריות. הגורמים האחראים כוללים את מפתחי הבינה המלאכותית, מפעילת הצי של המכונית הנוהגת בעצמה ואחרים. אני כולל גם אחרים מכיוון שקיימת אפשרות שהעיר תישא באחריות חלקית לעיצוב הפינה שבה התרחש התור. בנוסף, נניח שהולך רגל זינק מהפינה ומערכת הנהיגה בינה מלאכותית בחרה להתחמק מהאדם ובכל זאת נקלעה לתאונת הדרכים.

וכן הלאה.

סיכום

היינו רוצים לדעת מה ה-AI חישב מבחינה חישובית ומה הוא תוכנת לעשות. האם ה-AI עשה כפי שקודד? אולי ה-AI נתקל בבאג או בשגיאה בתכנות, מה שלא מתרץ את הפעולות אבל מספק יותר רמז לאופן שבו התרחשה ההתרסקות.

איזה סוג של מעקות בטיחות בינה מלאכותית תוכנתו במערכת הנהיגה של AI? אם היו מעקות, היינו רוצים להבין מדוע נראה שהם לא מונעים את תאונת המכונית. אולי מערכת הנהיגה בינה מלאכותית הייתה יכולה להיעצר במקום לבצע את הפנייה. נרצה לדעת אילו חלופות העריך ה-AI מבחינה חישובית במהלך התקרית.

מלבד ירידה לעומק התקרית המסוימת, בעיה מוצדקת נוספת היא האם למערכת הנהיגה בינה מלאכותית יש פגם או היבט מוטמע אחר שיבצע סוגים דומים של מעשים שליליים. למעשה, תקרית זו עשויה להוות אינדיקטור מובהק לעוד דברים שיבואו. כיצד שימשו סימולציות מבוססות מחשב של מצבי נהיגה כדי לנסות ולצפות את סוג זה של מערכת נהיגה בינה מלאכותית? האם היו מספיק מבחני נהיגה בכביש כדי להעלים את בעיות הבינה המלאכותית שעלולות היו להוביל לתאונת הדרכים?

תרחיש זה מדגיש חידה שנויה במחלוקת העומדת בפני הופעתן של מכוניות לנהיגה עצמית מבוססות בינה מלאכותית.

זה הולך ככה.

מצד אחד, יש רצון חברתי לאמץ מכוניות בנהיגה עצמית במהירות, בשל התקווה שמערכות נהיגה בינה מלאכותית יהיו בטוחות או בטוחות יותר מאשר נהגים אנושיים. בארצות הברית לבדה, יש לנו כיום כמעט 40,000 הרוגים אנושיים מדי שנה עקב תאונות דרכים וכ-2.5 מיליון פציעות אנושיות. ניתוחים מצביעים על כך שחלק ניכר מאותן תאונות דרכים מיוחס לטעות אנוש כמו נהיגה בשכרות, נהיגה בהיסח דעת וכו' (ראה הערכתי לגבי נתונים סטטיסטיים כאלה בכתובת הקישור כאן).

מערכות נהיגה בינה מלאכותית לא שותות ונוהגות. הם לא יצטרכו מנוחה והם לא יישחקו בזמן ההגה. ההנחה היא שעל ידי הקמת מכוניות בנהיגה עצמית כאמצעי תחבורה בר קיימא, נוכל לצמצם את מספר הנהגים האנושיים. זה בתורו אמור אומר שנצמצם באופן תמציתי את מספר ההרוגים והפצועים השנתיים בתאונות דרכים.

כמה מבינים אמרו שבסופו של דבר אנחנו נגמור עם אפס הרוגים ואפס פציעות, והמכוניות האלה בנהיגה עצמית יהיו כביכול בלתי ניתנות להתרסקות, אבל זו מערכת ציפיות אבסורדית ושקרית לחלוטין. הסברתי למה זה כל כך לא הגיוני ב הקישור כאן.

בכל מקרה, נניח שהולכת להיות לנו כמות מסוימת של תאונות דרכים שמכוניות בנהיגה עצמית מסתבכות בהן. נניח גם שבתאונות המכוניות האלה יהיו כמות מסוימת של הרוגים ופציעות. השאלה שמתייסרת היא האם אנחנו כחברה מוכנים לסבול מקרים כאלה בכלל. יש אומרים שאם אפילו קורות מוות אחד או פציעה אחת כתוצאה ממכוניות נהיגה עצמית אמיתית, יש לסגור את כל הערכה והקאבודל.

נקודת המבט המתנגדת היא שאם החיים שניצלו מפחיתים את הספירות השנתיות, עלינו להמשיך ולעודד את הופעתן של מכוניות בנהיגה עצמית ולא להגיב בצורה כה לא הגיונית. נצטרך לקבל את הנחת היסוד שכמות מסוימת של הרוגים ופציעות עדיין תהיה קיימת, אפילו עם מכוניות בנהיגה עצמית, ובכל זאת להבין שהספירה השנתית אם תפחת מעידה על כך שאנחנו בדרך הנכונה.

כמובן, יש הטוענים שאסור לנו להחזיק מכוניות בנהיגה עצמית בכבישים הציבוריים שלנו עד שהן יאושרו לשימוש כזה כתוצאה מהדמיות נרחבות וממצות מבוססות מחשב או באמצעות בדיקות פרטיות במסלול סגור. הטענה הנגדית היא שהדרך היחידה והמהירה ביותר להניע מכוניות בנהיגה עצמית היא באמצעות כבישים ציבוריים וכי כל עיכוב באימוץ מכוניות בנהיגה עצמית יאפשר אחרת לספירות הנוראיות של התרסקות המכונית המונעת על ידי אדם. כיסיתי את הדיון הזה באריכות רבה יותר בטורים שלי וקראתי לקוראים להסתכל על הדיונים האלה כדי לקבל את מלוא נקודות המבט על עניין שנוי במחלוקת זה.

בוא נסיים את העניינים לעת עתה.

תאונות AI עומדות לקרות. עלינו להתנגד לדחף לפרש תאונת בינה מלאכותית כמדומה מקרי וארגו, בטעות תנו ליצרנים ולאלה שפורסים בינה מלאכותית להיות מנותקים באופן קטגורי.

ישנו טוויסט נוסף שאני משאיר אתכם כמחשבה מסקרנת אחרונה ליום שלכם.

על פי הדיווחים, הקומיקאי דיין קוק סיפר את הבדיחה הזו על תאונות דרכים: "לפני כמה ימים נקלעתי לתאונת דרכים. לא אשמתי. גם אם זו לא אשמתך, האדם השני יוצא מהמכונית שלו ומסתכל עליך כאילו זו אשמתך: למה עצרת ברמזור אדום ונתת לי לפגוע בך ב-80!"

המקום שבו התפנית באה לידי ביטוי היא האפשרות שמערכת בינה מלאכותית עשויה לבחור להתעקש שכאשר מתרחשת תאונת בינה מלאכותית הכוללת את הבינה המלאכותית המסוימת, הבינה המלאכותית מצהירה שהאירוע היה באשמת האדם ובוודאי לא באשמת הבינה המלאכותית. דרך אגב, זה יכול להיות נכון בשפע, והאדם עשוי לנסות לשעיר לעזאזל את הבינה המלאכותית בטענה שזו הייתה אשמת הבינה המלאכותית.

או אולי ה-AI מנסה לשעיר לעזאזל את האדם.

אתה מבין, הבינה המלאכותית שאנו מפתחים עשויה להיות מסובכת בצורה כזו, בטעות או שלא.

מקור: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- נוהג-גם-במכוניות/