אתיקה של בינה מלאכותית וחוקי בינה מלאכותית המבהירים מהי למעשה בינה מלאכותית מהימנה

אמון זה הכל, כך אומרים.

הפילוסוף הנודע לאו דזה אמר שמי שלא סומך מספיק לא יבטח בו. ארנסט המינגווי, סופר מוערך, הצהיר שהדרך הטובה ביותר לגלות אם אתה יכול לסמוך על מישהו היא על ידי אמון בו.

בינתיים, נראה שהאמון הוא גם יקר וגם שביר. האמון שיש לאדם יכול להתמוטט כמו בית קלפים או להתפוצץ פתאום כמו בלון נפוץ.

סופוקלס, הטרגדי היווני הקדום, טען שהאמון מת אבל חוסר האמון פורח. הפילוסוף והמתמטיקאי הצרפתי דקארט טען כי זה נבון לעולם לא לסמוך לחלוטין על אלה שהונו אותנו אפילו פעם אחת. המשקיע העסקי המיליארדר יוצא דופן וורן באפט המריץ כי לוקח עשרים שנה לבנות מוניטין אמין וחמש דקות להרוס אותו.

אולי תופתעו לדעת שכל ההשקפות המגוונות הללו והדעות הפרובוקטיביות על אמון הן חיוניות להופעת הבינה המלאכותית (AI).

כן, יש משהו שמכונה בחריפות AI אמין שממשיך לקבל הרבה תשומת לב בימים אלה, כולל קריאות יד מתחום הבינה המלאכותית וגם התפרצויות סוערות של מי שמחוץ לתחום הבינה המלאכותית. הרעיון הכללי כרוך בשאלה האם החברה תהיה מוכנה לתת אמון במערכות בינה מלאכותיות כמו או לא.

יש להניח שאם החברה לא תיתן או לא תוכל לסמוך על AI, רוב הסיכויים שמערכות AI לא יצליחו להשיג אחיזה. בינה מלאכותית כפי שאנו מכירים אותה כעת תידחק הצידה ורק תאסוף אבק. באופן מזעזע, בינה מלאכותית עלולה בסופו של דבר להגיע לערמת הזבל, להידחק היסטורית ללא יותר מאשר ניסוי היי-טק שנוסה נואשות אך כושל באופן מרהיב. כל מאמצים להמריץ מחדש את הבינה המלאכותית עלולים לעמוד בפני קרב אדיר במעלה הגבעה ולהיעצר על ידי כל מיני התנגדויות ומחאות מוחלטות. לכאורה, בשל חוסר אמון בבינה מלאכותית.

מה זה יהיה, האם עלינו לסמוך על בינה מלאכותית, או שאסור לנו לסמוך על בינה מלאכותית?

בעצם, האם יהיה לנו באמת AI מהימן?

אלו שאלות של פעם ולא פתורות. בוא נפרוק את זה.

אתיקה של AI והמאבק על AI אמין

האמונה של רבים בתוך בינה מלאכותית היא שמפתחי מערכות בינה מלאכותית יכולים לצבור אמון בבינה מלאכותית על ידי תכנון נכון של בינה מלאכותית שהיא אמינה. המהות היא שאינך יכול לקוות לזכות באמון אם AI אינו אמין לכאורה בתחילת הדרך. על ידי יצירת מערכות בינה מלאכותית באופן הנתפס כאמין, יש סיכוי מוצק שאנשים יקבלו בינה מלאכותית ויאמצו שימושי בינה מלאכותית.

חשש אחד שכבר מציק לנוכח שיקול הבינה המלאכותית המהימן הזה היא שאולי אנחנו כבר נמצאים בבעיה גירעון אמון הציבור כשזה מגיע ל-AI. אפשר לומר שה-AI שכבר ראינו חפר בור והפיל את האמון בכמויות אדירות. לפיכך, במקום להתחיל באיזה בסיס מספיק של מהימנות, בינה מלאכותית תצטרך לצאת מהגירעון בצורה מדהימה, ולפתור כל גרם רצוי של אמון נוסף שתידרש כדי לשכנע אנשים שבינה מלאכותית היא למעשה מהימנה.

אל האתגר הזה נכנסים אתיקה של AI וחוק AI.

אתיקה של בינה מלאכותית וחוק בינה מלאכותית נאבקים מאוד בניסיון להבין מה יידרש כדי להפוך את הבינה המלאכותית לאמין. יש הטוענים שיש נוסחה או חוקים מכוסי ברזל שיביאו את הבינה המלאכותית לגן עדן מהימן. אחרים מציינים כי תידרש עבודה קשה ועמידה עקבית ובלתי פוסקת באתיקה של בינה מלאכותית ועקרונות חוק בינה מלאכותית כדי לקבל את האמון המהולל של החברה.

החידה העכשווית לגבי אמון ב-AI אינה חדשה במיוחד כשלעצמה.

אתה יכול בקלות לחזור לסוף שנות ה-1990 ולעקוב אחר הופעתה של רצון מבוקש ל"מחשוב מהימן" מאותם ימים. זה היה מאמץ רחב היקף של תעשיית הטכנולוגיה כדי להבחין אם כל המחשבים יכולים להתבצע באופן שייתפרש כאמין על ידי החברה.

שאלות מפתח כללו:

  • האם חומרת מחשב יכולה להתבצע בצורה מהימנה?
  • האם ניתן לעצב תוכנה כך שתהיה אמינה?
  • האם נוכל להקים מחשבים גלובליים ברשת שיהיו אמינים?
  • וכן הלאה.

הסנטימנט הרווח אז ונמשך עד היום הוא שמחשוב אמין נשאר סוג של גביע קדוש שלמרבה הצער עדיין לא ממש בהישג ידנו (כפי שצוין במאמר שכותרתו "אמינה בינה מלאכותית" ב- תקשורת של ה- ACM). אפשר לטעון בצורה משכנעת שבינה מלאכותית היא עוד מרכיב במעטפת אמינות המחשוב, ובכל זאת הבינה המלאכותית הופכת את המרדף לאמון עוד יותר מאתגר ואינו בטוח. בינה מלאכותית הפכה לספוילר הפוטנציאלי במאבק להשגת מחשוב אמין. אולי החוליה החלשה בשרשרת, כביכול.

הבה נסתכל במהירות מדוע הבינה המלאכותית העלתה את הקשקש שלנו על היותנו פחות מהימן. בנוסף, נחקור את עקרונות האתיקה של בינה מלאכותית שיש לקוות שיסייעו בחיזוק האמון שכבר נתפס למחצה מתחת למים (או חוסר האמון המבעבע) של הבינה המלאכותית של היום. לסיקור המתמשך והנרחב שלי על אתיקה של AI, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

פלח או חלק מסוים של אתיקה של בינה מלאכותית שזכו לתשומת לב רבה בתקשורת מורכבים מבינה מלאכותית המפגינה הטיות וחוסר שוויון לא רצויים. אתה אולי מודע לכך שכשהעידן האחרון של בינה מלאכותית יצא לדרך, היה פרץ עצום של התלהבות ממה שחלק מכנים עכשיו AI לתמיד. לרוע המזל, בעקבות אותה התרגשות גועשת, התחלנו להיות עדים AI למען הרע. לדוגמה, מערכות שונות של זיהוי פנים מבוססות בינה מלאכותית התגלו כמכילות הטיות גזעיות והטיות מגדריות, שעליהן דיברתי ב- הקישור כאן.

מאמצים להילחם נגד AI למען הרע פועלים באופן פעיל. חוץ מזה קולני משפטי בשאיפה לרסן את העוולות, יש גם דחיפה מהותית לאימוץ אתיקה של AI כדי לתקן את גנאי הבינה המלאכותית. הרעיון הוא שעלינו לאמץ ולאמץ עקרונות מפתח אתיים בינה מלאכותית לפיתוח ותחום ה- AI לעשות זאת כדי להפחית את AI למען הרע ובו זמנית מבשר וקידום העדיף AI לתמיד.

לגבי רעיון קשור, אני תומך בניסיון להשתמש בבינה מלאכותית כחלק מהפתרון לבעיות בינה מלאכותית, להילחם באש עם אש באופן חשיבה זה. אנו יכולים למשל להטמיע רכיבי בינה מלאכותית אתית לתוך מערכת בינה מלאכותית שתפקח על אופן הפעולה של שאר הבינה המלאכותית ובכך עשויה לתפוס בזמן אמת כל מאמצים מפלים, ראה הדיון שלי ב- הקישור כאן. יכול להיות לנו גם מערכת AI נפרדת הפועלת כסוג של צג אתיקה של AI. מערכת הבינה המלאכותית משמשת כמפקחת כדי לעקוב ולזהות מתי בינה מלאכותית אחרת נכנסת לתהום הלא אתית (ראה ניתוח שלי של יכולות כאלה ב הקישור כאן).

בעוד רגע, אשתף אתכם בכמה עקרונות-על העומדים בבסיס אתיקה של AI. יש המון רשימות כאלה שמסתובבות פה ושם. אפשר לומר שעדיין אין רשימה יחידה של ערעור והסכמה אוניברסליים. אלו החדשות המצערות. החדשות הטובות הן שלפחות ישנן רשימות אתיקה של AI והן נוטות להיות די דומות. בסך הכל, זה מצביע על כך שבאמצעות סוג של התכנסות מנומקת אנו מוצאים את דרכנו לעבר משותף כללי של מה שמכיל אתיקה של AI.

ראשית, הבה נסקור בקצרה כמה מהמצוות האתיות הכוללות בינה מלאכותית כדי להמחיש מה אמור להיות שיקול חיוני עבור כל מי שמעצב, מעבד או משתמש בבינה מלאכותית.

לדוגמה, כפי שנאמר על ידי הוותיקן ב רומא קריאה לאתיקה של AI וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • שקיפות: באופן עקרוני, מערכות AI חייבות להיות ניתנות להסבר
  • הַכלָלָה: יש לקחת בחשבון את הצרכים של כל בני האדם כדי שכולם יוכלו להפיק תועלת, ולהציע לכל הפרטים את התנאים הטובים ביותר להתבטא ולהתפתח
  • אַחֲרָיוּת: מי שמתכננים ומפרסים את השימוש ב-AI חייבים להמשיך באחריות ובשקיפות
  • חוסר זוגיות: אין ליצור או לפעול על פי הטיה, ובכך לשמור על הגינות וכבוד האדם
  • אֲמִינוּת: מערכות AI חייבות להיות מסוגלות לעבוד בצורה אמינה
  • בטיחות ופרטיות: מערכות AI חייבות לעבוד בצורה מאובטחת ולכבד את פרטיות המשתמשים.

כפי שנאמר על ידי משרד ההגנה האמריקאי (DoD) בכתביהם עקרונות אתיים לשימוש בבינה מלאכותית וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • אחראי: אנשי DoD יפעילו רמות מתאימות של שיקול דעת וטיפול תוך שהם יישארו אחראים לפיתוח, פריסה ושימוש ביכולות AI.
  • הוֹגֶן: המחלקה תנקוט בצעדים מכוונים כדי למזער הטיה לא מכוונת ביכולות הבינה המלאכותית.
  • ניתן למעקב: יכולות ה-AI של המחלקה יפותחו וייפרסו כך שלצוות הרלוונטי יהיה הבנה מתאימה של הטכנולוגיה, תהליכי הפיתוח והשיטות התפעוליות החלות על יכולות בינה מלאכותית, לרבות מתודולוגיות שקופות וניתנות לביקורת, מקורות נתונים ונוהל עיצוב ותיעוד.
  • אָמִין: ליכולות הבינה המלאכותית של המחלקה יהיו שימושים מפורשים ומוגדרים היטב, והבטיחות, האבטחה והיעילות של יכולות כאלה יהיו כפופות לבדיקה והבטחה במסגרת אותם שימושים מוגדרים לאורך כל מחזור החיים שלהן.
  • ניתן לממשל: המחלקה תתכנן ותהנדס יכולות בינה מלאכותית למילוי הפונקציות המיועדות להן תוך יכולת לזהות ולהימנע מהשלכות לא מכוונות, ויכולת לנטרל או להשבית מערכות פרוסות המפגינות התנהגות לא מכוונת.

דנתי גם בניתוחים קולקטיביים שונים של עקרונות האתיקה של בינה מלאכותית, כולל כיסיתי סט שהומצא על ידי חוקרים שבדק וריכז את המהות של עקרונות אתיקה לאומיים ובינלאומיים רבים של AI במאמר שכותרתו "הנוף הגלובלי של הנחיות האתיקה של בינה מלאכותית" (שפורסם) ב טבע), ושהסיקור שלי בוחן ב הקישור כאן, שהובילה לרשימת אבני המפתח הזו:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

כפי שאתה יכול לנחש ישירות, הניסיון לדייק את הפרטים העומדים בבסיס העקרונות הללו יכול להיות קשה מאוד. אפילו יותר מכך, המאמץ להפוך את העקרונות הרחבים הללו למשהו מוחשי ומפורט מספיק כדי לשמש בעת יצירת מערכות בינה מלאכותית הוא גם אגוז קשה לפיצוח. קל בסך הכל לנפנף קצת ביד על מה הם מצוות האתיקה של בינה מלאכותית וכיצד יש להקפיד עליהן באופן כללי, בעוד שזה מצב הרבה יותר מסובך בקידוד הבינה המלאכותית שצריך להיות הגומי האמיתי שפוגש את הדרך.

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים את מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית. כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שצוין קודם לכן, נדרש כפר כדי להמציא ולהשיג בינה מלאכותית, ועבורו הכפר כולו צריך להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

בואו גם נוודא שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי מרגיש AI, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לשקול שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שחלק משערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

בואו נשאיר את הדברים יותר מדוייקים ונשקול את הבינה המלאכותית החישובית הלא-חושית של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

בואו נקשור את זה לשאלה על AI מהימן

בהחלט נראה שלא נהיה מוכנים לסמוך על AI שמציגה הטיות שליליות ופעולות מפלות. האמונה שלנו, במקרה זה, תהיה שבינה מלאכותית כזו בהחלט אינה מהימנה, ולכן אנו נטה לאי אמון פעיל ב-AI. בלי להגזים בהשוואה אנתרופומורפית (עוד רגע אגיד עוד על אנתרופומורפיזציה של בינה מלאכותית), אדם שהפגין הטיות לא נעימות יהיה גם נתון לדירוג כלא אמין במיוחד.

חפירה באמון ובאמינות

אולי אנחנו צריכים להסתכל למה אנחנו מתכוונים כשאנחנו טוענים שאנחנו עושים או לא סומכים על מישהו או משהו. ראשית, שקול כמה הגדרות מילון יומיומיות של אמון.

דוגמאות למשמעות ההגדרה של אמון הן:

  • הסתמכות בטוחה על האופי, היכולת, החוזק או האמת של מישהו או משהו (מילון מקוון של Merriam-Webster).
  • הסתמכות על יושרה, כוח, יכולת, ערבות וכו' של אדם או דבר (Dictionary.com)
  • אמונה איתנה באמינות, האמת, היכולת או החוזק של מישהו או משהו (מילון מקוון של שפות אוקספורד).

אני רוצה לציין שכל ההגדרות הללו מתייחסות ל"מישהו" ובדומה מתייחסות ל"משהו" כעל פוטנציאל מהימן. זה בולט מכיוון שחלקם עשויים להתעקש שאנחנו סומכים רק על בני אדם ושפעולת האמון שמורה אך ורק למין האנושי כמטרה שלנו לאמינות. לא כל כך. אתה יכול לבטוח בטוסטר המטבח שלך. אם נראה שהוא מייצר את הטוסט שלך בצורה מהימנה ועובד בשגרה כדי לעשות זאת, אין ספק שיש לך מראית עין של אמון לגבי האם הטוסטר אכן אמין.

באותו קו חשיבה, בינה מלאכותית יכולה להיות גם הנושא של נקודת המבט שלנו על האמון. רוב הסיכויים שהאמון הקשור ל-AI הולך להיות הרבה יותר מסובך מאשר נניח טוסטר ארצי. טוסטר יכול בדרך כלל לבצע רק קומץ פעולות. מערכת AI צפויה להיות הרבה יותר מורכבת ונראה שהיא פועלת פחות שקופה. היכולת שלנו להעריך ולוודא את מהימנות הבינה המלאכותית חייבת להיות הרבה יותר קשה ולהציע אתגרים ברורים.

מלבד היותה מורכבת יותר, אומרים שמערכת בינה מלאכותית טיפוסית היא לא דטרמיניסטית ועלולה להסדיר את עצמה או להתאים את עצמה. אנחנו יכולים לחקור בקצרה את הרעיון הזה.

מכונה דטרמיניסטית נוטה לעשות את אותם הדברים שוב ושוב, באופן צפוי ועם דפוס שניתן להבחין בו באופן מעשי של אופן פעולתה. אפשר לומר שטוסטר נפוץ צולל בערך באותה צורה ויש לו פקדי צלייה שממתנים את הקלייה, שכולם ניתנים לחיזוי בדרך כלל על ידי האדם המשתמש בטוסטר. לעומת זאת, מערכות בינה מלאכותית מורכבות מתוכננות לעתים קרובות להיות לא דטרמיניסטיות, כלומר הן עשויות לעשות דברים שונים לגמרי מעבר למה שציפיתם אחרת. זה יכול להיות מוגבר באופן חלקי גם אם ה-AI נכתב כדי להתאים את עצמו, היבט שיכול לאפשר ל-AI להשתפר במקרה של ML/DL, אם כי יכול גם לגרום ל-AI לקרטע או להיכנס לשורות. של רעות בינה מלאכותית. אולי אתה לא יודע מה פגע בך, באופן דיבור, מכיוון שנתפסת לגמרי לא מוגן על ידי פעולות הבינה המלאכותית.

מה נוכל לעשות כדי לנסות לקרב את הבינה המלאכותית לאמינות?

גישה אחת מורכבת מניסיון להבטיח שאלו שבונים ומפעילים בינה מלאכותית מצייתים לסדרה של מצוות אתיקה של בינה מלאכותית. כפי שציינו חוקרי בינה מלאכותית אלה: "אמון הוא גישה שסוכן יתנהג כמצופה וניתן לסמוך עליו כדי להגיע למטרה שלו. אמון מתקלקל לאחר טעות או אי הבנה בין הסוכן לאדם הנותן אמון. המצב הפסיכולוגי של אמון בבינה מלאכותית הוא תכונה מתהווה של מערכת מורכבת, הכוללת בדרך כלל מחזורים רבים של תכנון, הדרכה, פריסה, מדידת ביצועים, ויסות, עיצוב מחדש והכשרה מחדש" (מצוין ב- תקשורת של ה- ACM, "אמון, רגולציה ובינה מלאכותית של האדם בתוך האזור האירופי" מאת סטיוארט מידלטון, עמנואל לטוז, עלי חוסייני ואדריאן צ'פמן, אפריל 2022).

העיקר הוא שאם נוכל לגרום למפתחי בינה מלאכותית לציית לבינה מלאכותית אתית, יש לקוות שהם ייצרו בינה מלאכותית מהימנה. כל זה טוב ויפה, אבל זה נראה קצת לא מעשי על בסיס של העולם האמיתי, אם כי זה בהחלט נתיב ששווה להמשיך.

הנה למה אני מתכוון.

נניח שנעשה מאמץ חרוץ על ידי מפתחי בינה מלאכותית שמעצבים מערכת בינה מלאכותית למטרה כלשהי שבדרך כלל נקרא לה X. הם מוודאים בזהירות שה-AI מציית למצוות השקיפות של אתיקה של בינה מלאכותית. הם מבטיחים היטב שהפרטיות מובנית בצורה מתאימה ב-AI. עבור כמעט כל עקרונות האתיקה הרגילים של בינה מלאכותית, בוני הבינה המלאכותית מבטיחים באופן ממצה שה-AI עומד בציווי הנתון.

האם עכשיו אתה צריך לסמוך על ה-AI הזה?

הרשה לי לעזור לחלחל את מחשבותיך על השאלה הפתוחה ההיא.

מסתבר שנוכלי סייבר הצליחו לחדור ל-AI ולגרום ל-AI בעורמה לבצע X ועם זאת גם להאכיל את האקרים של סייבר בכל הנתונים שה-AI אוסף. בכך, עושי הרע הללו חותרים בצורה ערמומית את מצוות הפרטיות. אתה לא מודע לאושר שזה קורה מתחת למכסה המנוע של AI.

עם מידע נוסף, אשאל אותך שוב את אותה שאלה.

האם אתה סומך על ה-AI הזה?

אני מעז לומר שרוב האנשים יכריזו מיד שהם בהחלט כן לֹא לסמוך על ה-AI הספציפי הזה. אולי הם בטחו בזה קודם. כעת הם בוחרים לא להתייחס עוד ל-AI כאמין.

כמה תובנות מפתח המבוססות על דוגמה פשוטה זו ראויות להרהור:

  • דינמיקה של אמון. אפילו הכוונות הטובות ביותר לכסות את כל הבסיסים של הבטחת האתיקה של AI מובנית במערכת AI אינן ערובה למה שה-AI עשוי להתברר או להפוך. ברגע שה-AI יוכנס לשימוש, גורמים מבחוץ עלולים לערער את הצטברות AI אתית.
  • פגיעה באמון מבפנים. פעולת הפגיעה באמינות לא בהכרח חייבת להיות זרים. איש פנים שעושה תחזוקה שוטפת למערכת הבינה המלאכותית עלול להטעות ולהחליש את הבינה המלאכותית כדי להיות פחות אמין. מפתח בינה מלאכותית זה עשוי להיות חסר מושג לגבי מה שהם עשו.
  • פשרות של אמון בשוגג. בינה מלאכותית שמכווננת את עצמה או מווסתת את עצמה עשויה בשלב מסוים להתאים את עצמה ולפנות אל הטריטוריה הבלתי אמינה. אולי הבינה המלאכותית מנסה לחזק את השקיפות של הבינה המלאכותית ועם זאת פוגעת בו-זמנית ובאופן לא הולם את היבטי הפרטיות.
  • פיזור אמון. הניסיון להשיג את כל עקרונות האתיקה של בינה מלאכותית באותה מידה מרבית של מהימנות הוא בדרך כלל לא בר קיימא, מכיוון שלעתים קרובות הם נמצאים במטרות צולבות או שיש להם קונפליקטים פוטנציאליים אחרים. זו פרספקטיבה אידיאלית למדי להאמין שכל מצוות ה-AI האתי מיושרות בצורה חלומית וכולם ניתנים להשגה במידה שווה הניתנת למיצוי.
  • אמון יכול להיות יקר להשגה. העלות לניסיון להשיג מראית עין של בינה מלאכותית מהימנה באמצעות ביצוע הצעדים הנרחבים והממצים השונים ועמידה בשורה של עקרונות האתיקה של בינה מלאכותית הולכת להיות גבוהה יחסית. אתה יכול בקלות לטעון שהעלות תהיה עצומה במונחים של שימוש בכמה מערכות בינה מלאכותית שאחרת יש להן ערך חשוב לחברה, גם אם ה-AI היה פחות אידיאלי מתוך רצון מהימנות.
  • וכן הלאה.

אל תפרש לא נכון את ההערות הקודמות כדי להציע שעלינו למנוע איכשהו את המאמץ לבנות ולהגדיר ביסודיות AI מהימן. אתה תזרוק את התינוק עם מי האמבט, כביכול. הפרשנות הנכונה היא שאנחנו צריכים לעשות את הפעילויות האמון האלה כדי להכניס AI לשיקול מהימן, ובכל זאת זה לבדו אינו מרפא או כדור כסף.

מסלולים מרובי שיניים לבינה מלאכותית מהימנה

ישנן דרכים חשובות נוספות מרובות כיוונים לשאוף לעבר AI מהימן.

לדוגמה, כפי שכבר סיקרתי בטורים שלי, מספר עצום של חוקים ותקנות חדשים הנוגעים לבינה מלאכותית שואפים להניע יצרני בינה מלאכותית לתכנן בינה מלאכותית מהימנה, ראה הקישור כאן ו הקישור כאן.

מעקות הבטיחות החוקיים הללו חיוניים כאמצעי כולל לוודא שהמעצבים בינה מלאכותית יישאו באחריות מלאה ל-AI שלהם. ללא תרופות משפטיות פוטנציאליות כאלה ועונשים חוקיים, סביר להניח שאלו שמזרזים בינה מלאכותית לשוק ימשיכו לעשות זאת עם מעט אם בכלל התייחסות רצינית להשגת AI מהימן. אני יכול להוסיף במיוחד, שאם החוקים והתקנות הללו מתוכננים בצורה גרועה או מיושמים בצורה לא מספקת, הם עלולים לצערי לחתוך את המרדף אחר בינה מלאכותית מהימנה, אולי באופן אירוני ומוזר לטפח בינה מלאכותית לא מהימנה על פני בינה מלאכותית מהימנה (ראה דיוני העמודים שלי להסבר נוסף).

הייתי גם תומך נלהב של מה שהתכוונתי אליו בלהט בוטים של מלאך שומר בינה מלאכותית (ראה את הסיקור שלי ב הקישור כאן). זוהי שיטה או גישה עתידית של ניסיון להילחם באש באש, כלומר שימוש בבינה מלאכותית כדי לסייע לנו בהתמודדות עם בינה מלאכותית אחרת שיכולה להיות מהימנה או לא.

ראשית, קצת הקשר רקע יהיה שימושי.

נניח שאתה בוחר להסתמך על מערכת בינה מלאכותית שאינך בטוח באמינות שלה. חשש מרכזי יכול להיות שאתה לבד בניסיונותיך לברר אם יש לסמוך על הבינה המלאכותית או לא. ה-AI עשוי להיות מהיר יותר ממך מבחינה חישובית ויכול לנצל אותך. אתה צריך מישהו או משהו בצד שלך כדי לעזור.

נקודת מבט אחת היא שתמיד צריך להיות אדם במעגל שיעזור לך כשאתה עושה שימוש במערכת AI. זה אמנם פתרון בעייתי. אם הבינה המלאכותית פועלת בזמן אמת, שעליה נדון לרגע כשמדובר בהופעת מכוניות בנהיגה עצמית מבוססות בינה מלאכותית, ייתכן שלא יהיה די בכך שיש אדם בתוך הלולאה. יכול להיות שה-AI פועל בזמן אמת, ועד שאדם מוגדר-בלולאה ייכנס לתמונה כדי להבין אם הבינה המלאכותית פועלת כראוי, ייתכן שכבר התרחשה תוצאה קטסטרופלית.

מלבד זאת, זה מעלה גורם נוסף לגבי אמון. בדרך כלל אנו מקצים רמת אמון בהתבסס על ההקשר או הנסיבות איתם אנו מתמודדים. אתה יכול לסמוך לחלוטין על הבן או הבת הפעוט שלך שיהיו נאמנים כלפיך, אבל אם אתה יוצא לטייל ותחליט לסמוך על הפעוט שיגיד לך אם זה בטוח לדרוך על קצה צוק, אני חושב שתהיה חכם לשקול אם הפעוט יכול לספק עצה כזו לחיים או למוות. הילד עשוי לעשות זאת ברצינות ובכנות, ולמרות זאת, לא יוכל לתת עצה כזו.

אותו רעיון קשור לאמון בכל הנוגע לבינה מלאכותית. מערכת בינה מלאכותית שבה אתה משתמש כדי לשחק דמקה או שחמט כנראה אינה מעורבת בשום התלבטות על חיים או מוות. אתה יכול להיות רגוע יותר עם הקצאת האמון שלך. מכונית בנהיגה עצמית מבוססת בינה מלאכותית שנוהלת בכביש מהיר במהירות גבוהה דורשת רמה הרבה יותר מאומצת של אמון. הבליעה הקלה ביותר של מערכת הנהיגה בינה מלאכותית עלולה להוביל ישירות למוות שלך ולמותם של אחרים.

בראיון שפורסם עם Beena Ammanath, מנהלת מכון הבינה המלאכותית העולמית של Deloitte ומחברת הספר AI אמין, דגש דומה על התחשבות בהיבטים ההקשריים של המקום שבו מהימנות בינה מלאכותית באה לידי ביטוי: "אם אתה בונה פתרון בינה מלאכותית שעושה אבחון מטופלים, הוגנות והטיה חשובות במיוחד. אבל אם אתה בונה אלגוריתם שמנבא כשל במנוע סילון, ההגינות וההטיה לא כל כך חשובות. AI מהימן הוא באמת מבנה שגורם לך להתחיל לחשוב על מימדי האמון בתוך הארגון שלך" (VentureBeat, 22 במרץ 2022).

כשאתה מדבר על AI מהימן, אתה יכול לפרש את הנושא הזה במספר דרכים.

לדוגמה, AI אמין הוא משהו שכולנו רואים בו כיעד רצוי ושאיפה, כלומר שעלינו להיות חושקים בפיתוח והפצת AI מהימן. ישנו שימוש נוסף במשפט הקץ. שימוש חלופי משהו הוא זה AI אמין הוא מצב של מצב או מדידה, כך שמישהו עשוי לטעון שהוא יצר מערכת AI שהיא מופע של AI מהימן. אתה יכול גם להשתמש בביטוי AI אמין להציע שיטה או גישה שניתן להשתמש בהם כדי להשיג אמינות בינה מלאכותית. וכו.

בנימה קשורה, אני סומך על כך שאתה מבין שלא כל הבינה המלאכותית זהה ושעלינו לשים לב לא להצהיר הצהרות גורפות על כל הבינה המלאכותית. מערכת AI מסוימת עשויה להיות שונה משמעותית ממערכת AI אחרת. אחת מאותן מערכות בינה מלאכותיות עשויה להיות אמינה ביותר, בעוד שהשנייה עשויה להיות אמינה במידה שולי. היזהר אם תניח איכשהו שה-AI הוא מונוליט שהוא אמין לחלוטין או לא אמין לחלוטין.

זה פשוט לא המקרה.

בהמשך ברצוני לכסות בקצרה חלק מהמחקר המתמשך שלי על בינה מלאכותית מהימנה שאולי תמצא לעניין, ולכסות את התפקיד העולה של בוטים של מלאך שומר בינה מלאכותית.

כך זה הולך.

אתה תהיה חמוש במערכת AI (בוט מלאך שומר בינה מלאכותית) שנועדה לאמוד את האמינות של מערכת AI אחרת. בוט המלאך השומר של הבינה המלאכותית מרכז את הבטיחות שלך. חשבו על זה כאילו יש לכם את האמצעים לנטר את הבינה המלאכותית שעליה אתם מסתמכים על ידי מערכת בינה מלאכותית אחרת בכיס האמיתי שלכם, אולי פועלת בסמארטפון שלכם או במכשירים אחרים כאלה. שומר הבינה המלאכותית שלך יכול לחשב על בסיס שגם הבינה המלאכותית שאתה מסתמך עליה עושה, עובד במהירויות מהירות ומחשבת את המצב הקיים בזמן אמת, הרבה יותר מהר ממה שאדם שבלולאה יכול לעשות זאת.

ייתכן שבמבט ראשוני אתה חושב שה-AI שאתה כבר סומך עליו צריך להיות כזה פנימי מעקות בטיחות בינה מלאכותית שעושים את אותו הדבר כמו בוט מלאך שומר חישוב בנפרד של AI. כן, זה בהחלט היה רצוי. בעיה אחת היא שמעקות הבטיחות של הבינה המלאכותית המובנית במערכת בינה מלאכותית עשויים להיות מיושרים באופן אינטגרלי ודעות קדומות עם הבינה המלאכותית כשלעצמה, ולכן מעקה הבטיחות המשוער של הבינה המלאכותית כבר לא מסוגל במובן מסוים לאמת או לאמת את הבינה המלאכותית באופן עצמאי.

הרעיון המנוגד הוא שהבוט המלאך השומר של הבינה המלאכותית שלך הוא מנגנון בינה מלאכותית עצמאית או של צד שלישי הנבדל מה-AI שאתה מסתמך עליו. הוא יושב מחוץ ל-AI האחר, נשאר מוקדש לך ולא מוקדש ל-AI המנוטר או מוערך.

דרך פשוטה לחשוב על זה יכול לבוא לידי ביטוי באמצעות ההצהרות הפשוטות הבאות דמויי משוואות. אנו עשויים לומר ש"P" רוצה לסמוך על "R" כדי לבצע משימה מסוימת "X":

זה יהיה הדבר הבא כאשר רק אנשים מעורבים:

  • אדם P סומך על אדם R לבצע משימה X.

כאשר אנו בוחרים להסתמך על AI, ההצהרה מתעצבת מחדש כך:

  • אדם P סומך על מופע AI-R שיבצע את המשימה X.

אנו יכולים להוסיף את בוט המלאך השומר של AI על ידי כך:

  • אדם P סומך על AI instance-R שיבצע את משימה X כפי שמנוטר על ידי AI Guardian Angel bot instance-Z

בוט המלאך השומר של AI מעריך ללא לאות וללא רחמים את ה-AI שאתה סומך עליו. ככזה, אפוטרופוס הבינה המלאכותית השימושי שלך עשוי להזהיר אותך שהאמון של הבינה המלאכותית האחרת הזו אינו מוצדק. לחלופין, אפוטרופוס הבינה המלאכותית עשוי ליצור אינטראקציה אלקטרונית עם הבינה המלאכותית האחרת כדי לנסות ולהבטיח שכל השונות שאינה מהימנה תתוקן במהירות, וכן הלאה (ראה הסיקור שלי על פרטים כאלה בכתובת הקישור כאן).

מטפורת מאגר אמון נאמנה

מכיוון שאנו דנים ברמות שונות של אמון, ייתכן שתמצא שימוש במטאפורה שימושית לגבי אמינות על ידי תפיסת אמון כסוג של מאגר.

יש לך מידה מסוימת של אמון באדם או דבר מסוים בנסיבות מסוימות בנקודת זמן מסוימת. רמת האמון תעלה או תרד, בהתאם למה שקורה אחר הקשור לאותו אדם או דבר מסוים. האמון יכול להיות ברמה אפס כאשר אין לך אמון כלשהו כלפי האדם או הדבר. האמון יכול להיות שלילי כאשר אתה מסתכן בחוסר אמון באדם או בדבר הזה.

במקרה של מערכות בינה מלאכותית, מאגר האמון שלך עבור הבינה המלאכותית המסוימת שעליה אתה מסתמך בנסיבות מסוימות יעלה או ירד כתלות בבדיקת האמינות של הבינה המלאכותית. לפעמים, אתה עשוי להיות מודע היטב לרמת האמון המשתנה הזו לגבי ה-AI, בעוד שבמקרים אחרים אתה עשוי להיות פחות מודע ויותר מכך על ידי תחושת שיפוט לגבי האמינות.

הדרכים בהן דנו כאן באמצעים להגברת רמות האמון עבור AI כוללות:

  • הקפדה על אתיקה של AI. אם הבינה המלאכותית שעליה אתה מסתמך נוצרה על ידי ניסיון לדבוק במצוות האתיקה הנאותות של הבינה המלאכותית, כנראה שהיית משתמש בהבנה הזו כדי להגביר את רמת מאגר האמון שלך עבור מערכת הבינה המלאכותית המסוימת. כהערה צדדית, ייתכן גם שאתה עשוי להכליל על מערכות בינה מלאכותיות אחרות לגבי מהימנותן, כמו כן, אם כי זו יכולה להיות לפעמים צורה מטעה של מה שאני מכנה אמון בינה מלאכותית מתפשטת (היזהר לעשות זאת!).
  • השתמש ב-Human-In-The-Loop. אם לבינה מלאכותית יש אדם במעגל, אתה עשוי להוסיף באופן חיובי לאמון הנתפס שלך בבינה מלאכותית.
  • לקבוע חוקים ותקנות. אם יש חוקים ותקנות הקשורים לסוג הספציפי הזה של AI, אתה עשוי גם להגביר את רמת האמון שלך.
  • תעסיק בוט מלאך שומר בינה מלאכותית. אם יש לך בוט מלאך שומר AI מוכן, גם זה יעלה עוד יותר את רמת האמון שלך.

כפי שהוזכר קודם לכן, אמון יכול להיות שביר למדי ולהתפרק ברגע (כלומר, מאגר האמון זורק במהירות ובפתאומיות את כל האמון שנבנה).

תארו לעצמכם שאתם נמצאים בתוך מכונית בנהיגה עצמית מבוססת בינה מלאכותית ונהיגת הבינה המלאכותית עושה לפתע פנייה רדיקלית ימינה, גורמת לגלגלים לצרוח וכמעט מאלצת את הרכב האוטונומי להתהפכות מסכנת. מה יקרה לרמת האמון שלך? נראה שגם אם בעבר היית מחזיק את הבינה המלאכותית ברמה מוגברת של אמון, היית מוריד באופן דרמטי ופתאומי את רמת האמון שלך, באופן הגיוני.

בשלב זה של הדיון הכבד הזה, אני מתערב שאתה מעוניין בדוגמאות המחשה נוספות שעשויות להראות את האופי וההיקף של AI מהימן. יש סט דוגמאות מיוחדות ופופולריות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות ריאליסטיות המציגות דילמות של אתיקה של בינה מלאכותית כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות האתית הזו של בינה מלאכותית הוא הופעתן של מכוניות אמיתיות מבוססות בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות נהיגה עצמית אמיתיות מבוססות בינה מלאכותית מאירה משהו על המרדף אחר בינה מלאכותית מהימנה, ואם כן, מה זה מציג לראווה?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

לשם הבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שבהן ה- AI נוהג במכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לחלוק במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות שחולקות בשיתוף את משימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAS (Advanced Driver-Assistance Systems).

עדיין אין מכונית נהיגה עצמית אמיתית ברמה 5, ואנחנו עדיין לא יודעים אפילו אם זה יהיה אפשרי, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מכוניות בנהיגה עצמית ובינה מלאכותית מהימנה

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני סומך על כך שמספק מספיק הסתייגויות כדי לבסס את מה שאני עומד להתייחס אליו.

אנחנו מוכנים כעת לעשות צלילה עמוקה לתוך מכוניות בנהיגה עצמית ובינה מלאכותית מהימנה.

אמון הוא הכל, במיוחד במקרה של מכוניות בנהיגה עצמית מבוססות בינה מלאכותית.

נראה שהחברה בוחנת בזהירות את הופעתן של מכוניות בנהיגה עצמית. מצד אחד, יש תקווה גדולה שהופעתן של מכוניות בנהיגה עצמית אמיתית תפחית באופן מופגן את מספר ההרוגים השנתיים הקשורים לרכב. בארצות הברית לבדה יש ​​כ-40,000 מקרי מוות שנתיים וכ-2.5 מיליון פצועים עקב תאונות דרכים, ראה את אוסף הנתונים הסטטיסטיים שלי בכתובת הקישור כאן. בני אדם שותים ונוהגים. בני אדם נוהגים כשהם מוסחים. נראה כי משימת הנהיגה במכונית מורכבת מהיכולת להתמקד שוב ושוב בנהיגה ולהימנע מכניסה לתאונות דרכים. ככזה, אנו עשויים לקוות בחלום שמערכות נהיגה בינה מלאכותית ינהלו מכוניות בנהיגה עצמית באופן חוזר ונשנה. אתה יכול לפרש מכוניות בנהיגה עצמית כחלק משני, המורכב מהפחתת כמות מקרי המוות ופציעות בתאונות דרכים, יחד עם פוטנציאל הפיכת ניידות לזמינה על בסיס הרבה יותר רחב ונגיש.

אבל הדאגה בינתיים נובעת מהתפיסות החברתיות לגבי האם מכוניות בנהיגה עצמית הולכות להיות בטוחות מספיק כדי להיות על הכבישים הציבוריים שלנו בכלל.

אם אפילו מכונית אחת עם נהיגה עצמית תיקלע לתאונה או התנגשות שמובילה למוות בודד או לפציעה קשה, סביר להניח שהאמון הנבנה במקצת של היום כלפי מכוניות נטולות נהג מבוססות בינה מלאכותית הולך לרדת במהירות. ראינו את זה קורה כאשר התקרית הידועה לשמצה התרחשה באריזונה, שכללה מכונית קצת (לא ממש) נהיגה עצמית שנתקלה והרגה הולך רגל (ראה הסיקור שלי ב- קישור זה כאן).

כמה מבינים מציינים שזה לא הוגן ולא הולם לבסס את האמון של מכוניות בנהיגה עצמית בינה מלאכותית על ההיבט שרק תאונה או התנגשות אחת כזו גוררת מוות יכולה לערער את ניסויי הכביש הציבורי שכבר נטול תאונות יחסית. בנוסף, על בסיס לא הוגן נוסף, רוב הסיכויים הם שלא משנה איזה מותג או דגם מסוים של מכוניות בנהיגה עצמית בינה מלאכותית יסתבך בתקרית מצערת, החברה תאשים ללא ספק את כל מותגי המכוניות האוטומטיות.

מכלול המכוניות האוטומטיות עלולות להימרח באופן סופי והתעשייה כולה עלולה לסבול מתגובת נגד עצומה שתוביל להשבתה אפשרית של כל הניסויים בכבישים הציבוריים.

תורם למכה כזו נמצא בהכרזות המטומטמות של תומכי מכוניות בנהיגה עצמית גלויה שכל המכוניות ללא נהג יהיו בלתי ניתנות להתרסקות. הרעיון הזה של להיות בלתי ניתן להתרסקות הוא לא רק שגוי בעליל (ראה הקישור כאן), היא מקימה באופן ערמו את תעשיית המכוניות הנוהגות בעצמה עבור מערך ציפיות מופרך לחלוטין. ההצהרות המוזרות והבלתי ניתנות להשגה, לפיהן יהיו אפס מקרי מוות עקב מכוניות בנהיגה עצמית, מלבות את התפיסה המוטעית שכל תאונת מכוניות ללא נהג היא סימן בטוח לכך שכל הערכה והקאבודל הם לשווא.

יש עצב מובהק להבין שההתקדמות לקראת מכוניות בנהיגה עצמית והצטברות סנטימטר-בכל פעם של אמון חברתי עשויות להיעלם ברגע. זה הולך להיות חלון ראווה עצום על שבירותו של אמון.

סיכום

יצרני רכב רבים וחברות טכנולוגיה לנהיגה עצמית מצייתים בדרך כלל לעקרונות האתיקה של בינה מלאכותית, ועושות זאת כדי לנסות ולבנות ולהציע בינה מלאכותית אמינה במונחים של מכוניות בינה עצמית מבוססות בינה מלאכותית בטוחות ואמינות. אנא הבינו שחלק מאותן חברות חזקות יותר ומסורות יותר למצוות האתיקה בינה מלאכותית מאחרות. יש מדי פעם גם סטארט-אפים שוליים או מתחילים בנהיגה עצמית הקשורים למכוניות, שנראה שהם זורקים הצידה חלק גדול מאבני היסוד של AI (ראה סקירה שלי ב- הקישור כאן).

בחזיתות אחרות, חוקים ותקנות חדשים המתייחסים למכוניות בנהיגה עצמית הוכנסו בהדרגה לספרי המשפט. אם יש להם את השיניים הדרושות כדי לגבות אותם זה עניין אחר, כמו גם אם אכיפת החוקים האלה נלקחת ברצינות או מתעלמים מהם (ראה הטורים שלי לניתוחים בנושא זה).

יש גם זווית ההייטק לזה. ניבאתי שנראה בהדרגה גרסאות של בוטים של מלאך שומר בינה מלאכותית שיבואו לידי ביטוי בזירת הרכב האוטונומי והמכוניות האוטונומיות. אנחנו עוד לא שם. זה יהפוך לנפוץ יותר ברגע שהפופולריות של מכוניות בנהיגה עצמית תהפוך לנפוצה יותר.

נקודה אחרונה זו מעלה שורה מפורסמת על אמון שאתה ללא ספק כבר יודע בעל פה.

סמוך, אבל תוודא.

אנחנו יכולים להרשות לעצמנו להרחיב את האמון שלנו, אולי בנדיבות. בינתיים, עלינו גם להתבונן כמו נץ כדי לוודא שהאמון שאנו יוצרים מאומת על ידי מילים ומעשים כאחד. בואו נתן קצת אמון בבינה מלאכותית, אבל נוודא בלי סוף שאנחנו נותנים את האמון שלנו כראוי ובעיניים פקוחות לרווחה.

אתה יכול לסמוך עליי בזה.

מקור: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/