אתיקה של בינה מלאכותית שאומרת שיש להפעיל בינה מלאכותית במיוחד כאשר ישנן הטיות אנושיות

בני אדם למדו להכיר את המגבלות שלהם.

אתם אולי זוכרים את השורה המפורסמת הדומה על הכרת המגבלות שלנו כפי שנאמרה בצורה קודרת על ידי הדמות הארי המלוכלך בסרט מ-1973 בשם מגנום חיל (לפי דבריו המדוברים של השחקן קלינט איסטווד בתפקידו הבלתי נשכח כמפקח הארי קאלהאן). הרעיון הכללי הוא שלפעמים אנחנו נוטים להתעלם מהגבולות שלנו ולהכניס את עצמנו למים חמים בהתאם. בין אם בגלל היבריס, היותנו אגוצנטריים או פשוט עיוורים ליכולות שלנו, ההנחיה של להיות מודעים ולקחת בחשבון מפורש את הנטיות והחסרונות שלנו היא הגיונית ומועילה בשפע.

בואו נוסיף טוויסט חדש לעצת החכמים.

בינה מלאכותית (AI) למדה להכיר את מגבלותיה.

למה אני מתכוון בגרסה ההיא של הביטוי הנערץ?

מסתבר שהמהירה הראשונית להכניס את הבינה המלאכותית של ימינו לשימוש כפותר מלא תקווה של בעיות העולם הפכה מלוכלכת ומבולבלת לחלוטין מההבנה שלבינה מלאכותית של היום יש כמה מגבלות די חמורות. יצאנו מהכותרות המרוממות של AI לתמיד ומצאנו את עצמנו שקועים יותר ויותר AI למען הרע. אתם מבינים, מערכות בינה מלאכותיות רבות פותחו והוצגו עם כל מיני הטיות גזעיות ומגדריות לא מכוונות, ועוד מספר עצום של אי-שוויון מזעזע שכזה.

לסיקור הנרחב והמתמשך שלי על אתיקה של בינה מלאכותית ובינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

ההטיות המתגלות במערכות בינה מלאכותיות אלו אינן מהסוג ה"מכוון" שהיינו מייחסים להתנהגות אנושית. אני מזכיר זאת כדי להדגיש שה-AI של היום אינו חיוני. למרות הכותרות המרעישות המצביעות אחרת, פשוט אין בינה מלאכותית בשום מקום שמתקרב אפילו לתחושה. נוסף על כך, אנחנו לא יודעים איך להכניס את הבינה המלאכותית לתחום הביטוי, בנוסף אף אחד לא יכול לומר בוודאות אם אי פעם נשיג את תחושת הבינה המלאכותית. אולי זה יקרה מתישהו, ואולי לא.

אז, הנקודה שלי היא שאנחנו לא יכולים להקצות כוונה במיוחד לסוג הבינה המלאכותית שיש לנו כרגע. עם זאת, אנו יכולים להקצות בשפע כוונות לאלה שמעצבים מערכות AI. חלק ממפתחי בינה מלאכותית לא מודעים לעובדה שהם המציאו מערכת בינה מלאכותית המכילה הטיות לא נעימות ואולי לא חוקיות. בינתיים, מפתחי בינה מלאכותית אחרים מבינים שהם מחדירים הטיות במערכות הבינה המלאכותית שלהם, ועשויים לעשות זאת באופן שגוי מכוון.

כך או כך, התוצאה עדיין לא ראויה וסביר להניח שאינה חוקית.

נערכים מאמצים נמרצים לפרסם עקרונות אתיקה של בינה מלאכותית שיאירו את מפתחי הבינה המלאכותית ויספקו הדרכה מתאימה להתרחקות מהטמעת הטיות במערכות הבינה המלאכותית שלהם. זה יעזור בצורה דו פרנסית. ראשית, לאלה המעצבים AI כבר לא יהיה התירוץ המוכן שהם פשוט לא היו מודעים לאילו מצוות יש לפעול. שנית, אלה שסוטים מתנאי הבינה המלאכותית האתית ייתפסו בקלות רבה יותר ויוצגו כמונעים את מה שהם הוזהרו לעשות וגם לא לעשות.

בואו ניקח רגע כדי לשקול בקצרה כמה ממצוות המפתח האתיות בינה מלאכותית כדי להמחיש על מה בוני בינה מלאכותית צריכים לחשוב ולבצע בקפדנות מעמדה של אתיקה של בינה מלאכותית.

כפי שנאמר על ידי הוותיקן ב רומא קריאה לאתיקה של AI וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • שקיפות: באופן עקרוני, מערכות AI חייבות להיות ניתנות להסבר
  • הַכלָלָה: יש לקחת בחשבון את הצרכים של כל בני האדם כדי שכולם יוכלו להפיק תועלת, ולהציע לכל הפרטים את התנאים הטובים ביותר להתבטא ולהתפתח
  • אַחֲרָיוּת: מי שמתכננים ומפרסים את השימוש ב-AI חייבים להמשיך באחריות ובשקיפות
  • חוסר זוגיות: אין ליצור או לפעול על פי הטיה, ובכך לשמור על הגינות וכבוד האדם
  • אֲמִינוּת: מערכות AI חייבות להיות מסוגלות לעבוד בצורה אמינה
  • בטיחות ופרטיות: מערכות AI חייבות לעבוד בצורה מאובטחת ולכבד את פרטיות המשתמשים.

כפי שנאמר על ידי משרד ההגנה האמריקאי (DoD) בכתביהם עקרונות אתיים לשימוש בבינה מלאכותית וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • אחראי: אנשי DoD יפעילו רמות מתאימות של שיקול דעת וטיפול תוך שהם יישארו אחראים לפיתוח, פריסה ושימוש ביכולות AI.
  • הוֹגֶן: המחלקה תנקוט בצעדים מכוונים כדי למזער הטיה לא מכוונת ביכולות הבינה המלאכותית.
  • ניתן למעקב: יכולות ה-AI של המחלקה יפותחו וייפרסו כך שלצוות הרלוונטי יהיה הבנה מתאימה של הטכנולוגיה, תהליכי הפיתוח והשיטות התפעוליות החלות על יכולות בינה מלאכותית, לרבות עם מתודולוגיות שקופות וניתנות לביקורת, מקורות נתונים ונוהל עיצוב ותיעוד.
  • אָמִין: ליכולות הבינה המלאכותית של המחלקה יהיו שימושים מפורשים ומוגדרים היטב, והבטיחות, האבטחה והיעילות של יכולות כאלה יהיו כפופות לבדיקה והבטחה במסגרת אותם שימושים מוגדרים לאורך כל מחזור החיים שלהן.
  • ניתן לממשל: המחלקה תתכנן ותהנדס יכולות בינה מלאכותית למילוי הפונקציות המיועדות להן תוך יכולת לזהות ולהימנע מהשלכות לא מכוונות, ויכולת לנטרל או להשבית מערכות פרוסות המפגינות התנהגות לא מכוונת.

דנתי גם בניתוחים קולקטיביים שונים של עקרונות האתיקה של בינה מלאכותית, כולל כיסיתי סט שהומצא על ידי חוקרים שבדק וריכז את המהות של עקרונות אתיקה לאומיים ובינלאומיים רבים של AI במאמר שכותרתו "הנוף הגלובלי של הנחיות האתיקה של בינה מלאכותית" (שפורסם) ב טבע), ושהסיקור שלי בוחן ב הקישור כאן, שהובילה לרשימת אבני המפתח הזו:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

כפי שאתה יכול לנחש ישירות, ניסיון לדייק את הפרטים העומדים בבסיס העקרונות הללו יכול להיות קשה מאוד. אפילו יותר מכך, המאמץ להפוך את העקרונות הרחבים הללו למשהו מוחשי ומפורט מספיק כדי לשמש בעת יצירת מערכות AI הוא גם אגוז קשה לפיצוח. קל בסך הכל לנפנף ביד על מה הם מצוות האתיקה של בינה מלאכותית וכיצד יש להקפיד עליהן באופן כללי, בעוד שזה מצב הרבה יותר מסובך כאשר קידוד הבינה המלאכותית צריך להיות הגומי האמיתי שפוגש את הדרך.

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלו שמנהלים מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמקדים ומבצעים תחזוקה במערכות בינה מלאכותית. כל מחזיקי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. אנא שים לב שנדרש כפר כדי להמציא ולהשיג בינה מלאכותית. בשביל זה כל הכפר צריך לעמוד על האצבעות על אתיקה של AI.

בכל מקרה, עכשיו, לאחר שעליתי על הטבלה שבינה מלאכותית יכולה להכיל הטיות, אולי כולנו יכולים להסכים לשתי העובדות הנראות לעין:

1. לבני אדם יכולות להיות הטיות לא נעימות רבות ויכולים לפעול לפיהן

2. בינה מלאכותית יכולה להיות בעלת הטיות לא נעימות רבות והיא יכולה לפעול בהתאם להטיות הללו

אני קצת מתעב לערום בני אדם מול בינה מלאכותית בהקשר הזה מכיוון שזה עשוי לרמוז איכשהו של-AI יש יכולות חיוניות בדומה לבני אדם. זה בוודאי לא כך. אחזור לרגע לחששות הגוברים לגבי האנתרופומורפיזציה של AI קצת מאוחר יותר בדיון הזה.

מה יותר גרוע, בני אדם שמפגינים הטיות לא רצויות או בינה מלאכותית שעושה זאת?

אני מעז לומר שהשאלה מציבה את אחת מהבחירות העגומות האלה. זה הפחות משתי רעות, אפשר לטעון. היינו מאחלים שבני אדם לא יגלמו הטיות מופרכות. עוד היינו מאחלים שגם אם לבני אדם יש הטיות לא נעימות, הם לא יפעלו בהתאם להטיות האלה. ניתן לומר את אותו הדבר על AI. היינו רוצים שבינה מלאכותית לא תטמיע הטיות בלתי רצויות ושגם אם יש הטיות מקודדות פנימיות כאלה שה-AI לפחות לא יפעל לפיהן.

משאלות אמנם לא בהכרח מנהלות את העולם (לניתוח שלי של המראה העולה והמטריד של מה שנקרא הגשמת משאלות בינה מלאכותית לפי החברה בכלל, ראה הקישור כאן).

אוקיי, ברור שאנחנו רוצים שבני אדם ידעו את המגבלות שלהם. ישנה חשיבות לזהות כאשר יש לך הטיות לא רצויות. ישנה חשיבות שווה בניסיון למנוע את ההטיות הבלתי רצויות הללו להחדיר לפעולות ולהחלטות שלך. עסקים כיום מנסים כל מיני גישות כדי למנוע מהעובדים שלהם ליפול למלכודות ההטיות הקשות. הכשרה מיוחדת ניתנת לעובדים כיצד לבצע את עבודתם בדרכים ערניות מבחינה אתית. תהליכים מעוצבים סביב עובדים כדי להתריע בפניהם כאשר נראה שהם מפגינים ערכים לא אתיים. וכן הלאה.

אמצעי נוסף להתמודדות עם בני אדם ועם ההטיות הבלתי רצויות שלהם יהיה אוטומציה של עבודה מבוססת אדם. כן, פשוט הסר את האדם מהלולאה. אל תאפשר לאדם לבצע משימה של קבלת החלטות, וככל הנראה אין לך עוד דאגות מתמשכות לגבי היחס האנושי כלפי הטיות לא רצויות כלשהן. אין אדם מעורב ולכן נראה כי בעיית ההטיות האנושיות הפוטנציאליות נפתרה.

אני מעלה את זה כי אנחנו עדים לשינוי הדרגתי ומסיבי בגודל השימוש ב-AI בצורה של קבלת החלטות אלגוריתם (ADM). אם אתה יכול להחליף עובד אנושי בבינה מלאכותית, רוב הסיכויים שיצמחו לו יתרונות רבים. כפי שכבר צוין, לא תתעצבן יותר על ההטיות האנושיות של אותו עובד אנושי (זה שכבר לא עושה את העבודה הזו). רוב הסיכויים שה-AI יהיה פחות יקר בסך הכל בהשוואה לאופק זמן ארוך טווח. אתה מוותר על כל שאר הקשיים המגוונים שמגיעים חלק וחלק עם עובדים אנושיים. וכו.

נראה כי הצעה שהולכת ותופסת מקום היא זו: כשאתם מנסים להחליט היכן למקם את הבינה המלאכותית בצורה הטובה ביותר, הסתכלו תחילה על הגדרות שכבר כרוכות בהטיות אנושיות של העובדים שלכם ושבגינן ההטיות הללו מפחיתות או מסבכות יתר על המידה משימות קבלת החלטות מסוימות.

בשורה התחתונה זה נראה נבון לגייס את המרב עבור הכסף שלך במונחים של השקעה בבינה מלאכותית על ידי הכוונה ישירה למשימות קבלת החלטות אנושיות חשופות מאוד שקשה לשלוט בהן מנקודת מבט של עירוי הטיות. הסר את העובדים האנושיים בתפקיד זה. החלף אותם ב-AI. ההנחה היא של-AI לא יהיו הטיות מופרכות כאלה. לכן, אתה יכול לקבל את העוגה שלך ולאכול אותה גם כן, כלומר לקבל את משימות ההחלטה ולעשות זאת בניכוי הספק האתי והמשפטי של הטיות לא רצויות.

כאשר אתה מפרט את זה, סביר להניח שה-ROI (החזר על השקעה) יהפוך את אימוץ הבינה המלאכותית לבחירה לא פשוטה.

הנה איך זה בדרך כלל מסתדר.

הסתכל בכל המשרד שלך ונסה לזהות את משימות קבלת ההחלטות המשפיעות על הלקוחות. מבין המשימות הללו, אילו מהן צפויות להיות מוטעות בצורה לא הולמת אם העובדים מגלמים הטיות לא רצויות? אם כבר ניסית לרסן את ההטיות האלה, אולי אתה נותן לדברים לעמוד כמו שהם. מצד שני, אם ההטיות ממשיכות להופיע והמאמץ להעלים אותן הוא מכביד, שקול להפיל איזה AI רלוונטי לתפקיד זה. אל תשאירו את העובדים בתערובת מכיוון שהם עלולים לעקוף את הבינה המלאכותית או לדחוף את הבינה המלאכותית ישר בחזרה לתהום ההטיות הבלתי רצויות. כמו כן, ודא שה-AI יכול לבצע את המשימה בצורה מיומנת ושקלטת מספיק את היבטי קבלת ההחלטות הנדרשים לביצוע העבודה.

לשטוף וחזור.

אני מבין שזה נראה כמו רעיון פשוט, אם כי מבין שיש הרבה דרכים שבהן החלפת עובדים אנושיים ב-AI יכולה להשתבש בקלות. חברות רבות היו להוטות לנקוט בפעולות כאלה ולא שקלו בתשומת לב כיצד לעשות זאת. כתוצאה מכך, לעתים קרובות הם עשו בלגן הרבה יותר גרוע ממה שהיה בידיהם מלכתחילה.

אני רוצה להבהיר ולהדגיש שבינה מלאכותית אינה תרופת פלא.

אם כבר מדברים על זה, יש תקלה אחת ענקית לגבי הניקיון של לזרוק לכאורה את מקבלי ההחלטות המוטים האנושיים עם הבינה המלאכותית הבלתי מוטה לכאורה. הבעיה היא שאולי אתה רק מחליף סט אחד של הטיות לא רצויות באחר. לפי האינדיקציה הקודמת, בינה מלאכותית יכולה להכיל הטיות לא רצויות ויכולה לפעול על ההטיות הללו. להניח הנחה חוצפה שהחלפת בני אדם מוטים ב-AI חסר פניות היא לא כל מה שצריך להיות.

בקיצור, הנה העסקה כאשר רואים את העניין אך ורק מגורמי ההטיה:

  • ל-AI אין הטיות לא רצויות, ולכן ה-ADM מבוסס הבינה המלאכותית נוח לפריסה
  • לבינה מלאכותית יש אותן הטיות לא נעימות כמו לבני האדם שהוחלפו, ולכן ה-ADM מבוסס הבינה המלאכותית מטרידה
  • הבינה המלאכותית מציגה הטיות לא נעימות מעבר לאלו של בני האדם שהוחלפו וכנראה יחמיר את המצב בהתאם
  • בהתחלה הבינה המלאכותית נראית בסדר ואז מתנודדת בהדרגה לתוך הטיות לא רצויות
  • אחר

אנחנו יכולים לפרק את האפשרויות האלה בקצרה.

הראשון הוא הגרסה האידיאלית של מה שעלול לקרות. ל-AI אין הטיות לא רצויות. אתה שם את ה-AI במקום והוא עושה את העבודה מצוין. שמח בשבילך! כמובן, אפשר לקוות שגם אתה טיפלת בצורה מיומנת כלשהי בעקירת עובדים אנושיים עקב הכללת AI.

במקרה השני, אתה מציב את הבינה המלאכותית ומגלה שה-AI מפגין את אותן הטיות לא נעימות שהיו לעובדים האנושיים. איך זה יכול להיות? אמצעי נפוץ ליפול למלכודת זו הוא שימוש ב- Machine Learning (ML) ו-Deep Learning (DL) המבוססים על נתונים שנאספו על האופן שבו בני האדם בתפקיד קיבלו את ההחלטות שלהם בעבר.

תן לי רגע להסביר.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני האדם שעושים את העבודה במשך שנים על גבי שנים משלבים הטיות לא נעימות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסי חישוב של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין שום מראית עין של שכל ישר או היבטים רגישים אחרים של הדוגמנות כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה החשופה עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

בסיכומו של דבר, אתה עלול לחזור לנקודת ההתחלה. אותן הטיות מופרכות של בני אדם משתקפות כעת מבחינה חישובית במערכת הבינה המלאכותית. לא חיסלת את ההטיות.

גרוע מכך, סביר להניח שפחות תבינו של-AI יש הטיות. במקרה של בני אדם, בדרך כלל אתה עשוי להיות על המשמר מכך שלבני אדם יש הטיות לא פוגעניות. זו ציפייה בסיסית. השימוש ב-AI יכול להרגיע מנהיגים להאמין שהאוטומציה הסירה לחלוטין כל סוג של הטיה אנושית. לפיכך הם מגדירים את עצמם כי ירו לעצמם ברגל. הם נפטרו מבני אדם עם הטיות לא רצויות לכאורה, שהוחלפו ב-AI שנחשב שאין לו הטיות כאלה, ובכל זאת הכניסו כעת לשימוש בינה מלאכותית גדושה באותן הטיות שכבר ידועות כקיימות.

זה יכול להצחיק דברים ממש. ייתכן שהסרת מעקות בטיחות אחרים בשימוש עם העובדים האנושיים שהוקמו כדי לזהות ולמנוע את הופעתן של אותן הטיות אנושיות שכבר צפויות. ל-AI יש כעת דרור חופשי. שום דבר לא קיים כדי לתפוס את זה לפני שתפעל. אז הבינה המלאכותית יכולה להתחיל להוביל אותך במסלול עגום של הצטברות עצומה של פעולות מוטות.

ואתם נמצאים בעמדה המביכה ואולי אחראית שפעם ידעתם על ההטיות ועכשיו אפשרתם להטיות האלה לזרוע הרס. זה אולי דבר אחד שמעולם לא נתקלתי באף הטיות לא רצויות כאלה, ואז לפתע פתאום ה-AI מקפיץ אותן. אולי תנסו לתרץ את זה עם מסיחים מהסוג של "מי היה מנחש" (אולי לא ממש משכנע). אבל כדי להגדיר עכשיו בינה מלאכותית שעושה את אותן פעולות מוטות כמו קודם, ובכן, התירוצים שלך הולכים ומצטמצמים.

טוויסט בעניין הזה כרוך ב-AI שמפגין הטיות לא רצויות שטרם נתקלו בהן כאשר בני האדם ביצעו את המשימה. אפשר לומר שאולי קשה יותר למנוע זאת מכיוון שהוא מורכב מהטיות "חדשות" שהמשרד לא חיפשה קודם לכן. בסופו של דבר, אולי תירוצים לא יספקו לך הרבה הקלה. אם מערכת ה-AI נכנסה לטריטוריה לא אתית וגם לא חוקית, האווז שלך עשוי להיות מבושל.

פן נוסף שכדאי לזכור הוא שה-AI עשוי להתחיל בסדר גמור ואז להתקדם להטיות לא רצויות. זה סביר במיוחד כאשר השימוש ב-Machine Learning או Deep Learning מתרחש על בסיס מתמשך כדי לשמור על AI עדכני. בין אם ה-ML/DL עובד בזמן אמת או מבצע עדכונים מעת לעת, תשומת הלב צריכה להיות אם ה-AI אולי קולט נתונים שכעת מכילים הטיות ושקודם לכן לא היו קיימים.

למנהיגים שחושבים שהם מקבלים ארוחת צהריים חינם על ידי הנפת שרביט קסמים כדי להחליף עובדים אנושיים מוטים ב-AI, צפויה להם התעוררות גסה מאוד. ראה את הדיון שלי על החשיבות של העצמת מנהיגים עם מצוות האתיקה של AI ב הקישור כאן.

בשלב זה של הדיון הזה, אני מתערב שאתה חושק בכמה דוגמאות מהעולם האמיתי שעשויות להראות את החידה של החלפת (או לא) הטיות אנושיות לא נעימות בהטיות לא נעימות מבוססות בינה מלאכותית.

אני שמח ששאלת.

יש מכלול מיוחד ופופולארי של דוגמאות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות מציאותיות המציגות דילמות אתיות בינה מלאכותית, כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות בינה מלאכותית זו הוא הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות אמיתיות בנהיגה עצמית מבוססות בינה מלאכותית מאירה משהו לגבי הטיות לא רצויות בבינה מלאכותית, ואם כן, מה זה מציג לראווה?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

כהבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שה- AI מניע את המכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לחלוק במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות שחולקות בשיתוף את משימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAS (Advanced Driver-Assistance Systems).

אין עדיין מכונית נהיגה עצמית אמיתית ברמה 5, שאנחנו עדיין לא יודעים אם ניתן יהיה להשיג זאת, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מכוניות בנהיגה עצמית ובינה מלאכותית עם הטיות לא נעימות

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני סומך על כך שמספק מספיק הסתייגויות כדי לבסס את מה שאני עומד להתייחס אליו.

אנו מוכנים כעת לעשות צלילה עמוקה לתוך מכוניות בנהיגה עצמית והאפשרויות האתיות בינה מלאכותית הכרוכה בחקירה של בינה מלאכותית והטיות לא רצויות.

בואו נשתמש בדוגמה פשוטה. מכונית עם נהיגה עצמית מבוססת בינה מלאכותית נוסעת ברחובות השכונה שלך ונראה שהיא נוסעת בבטחה. בהתחלה הקדשת תשומת לב מיוחדת לכל פעם שהצלחת להציץ במכונית הנוהגת בעצמך. הרכב האוטונומי בלט עם מתלה החיישנים האלקטרוניים שלו שכלל מצלמות וידאו, יחידות מכ"ם, מכשירי LIDAR וכדומה. אחרי שבועות רבים של מכונית בנהיגה עצמית ששייטת ברחבי הקהילה שלך, עכשיו אתה בקושי שם לב לזה. מבחינתך, זו בסך הכל עוד מכונית בכבישים הציבוריים העמוסים ממילא.

כדי שלא תחשוב שזה בלתי אפשרי או בלתי סביר להתמצא במכוניות בנהיגה עצמית, כתבתי לא פעם על האופן שבו המקומות שנמצאים בטווח של נסיונות מכוניות בנהיגה עצמית התרגלו בהדרגה לראות את הרכבים המשובחים, ראה את הניתוח שלי ב קישור זה כאן. רבים מהמקומיים עברו בסופו של דבר מהסתערות נלהבת פעורת פיות לפלוט כעת פיהוק נרחב של שעמום כדי לחזות במכוניות המתפתלות בנהיגה עצמית.

כנראה שהסיבה העיקרית כרגע שהם עלולים להבחין ברכבים האוטונומיים היא בגלל גורם הגירוי והעצבנות. מערכות הנהיגה המופיעות ב-AI מוודאות שהמכוניות מצייתות לכל מגבלות המהירות וכללי הדרך. לנהגים אנושיים קדחתניים במכוניות המסורתיות המונעות על ידי אדם, אתה מתעצבן לפעמים כשאתה תקוע מאחורי המכוניות המבוססות על בינה מלאכותית לחלוטין.

זה משהו שכולנו צריכים אולי להתרגל אליו, בצדק או שלא.

בחזרה לסיפור שלנו.

מסתבר ששתי חששות לא נאות מתחילות להתעורר בנוגע למכוניות הנוהגות בעצמן המבוססות על בינה מלאכותית, ובאופן כללי מתקבלות בברכה, בפרט:

א. המקום שבו הבינה המלאכותית מסתובבת במכוניות הנוהגות בעצמן לאיסוף נסיעות הפכה לדאגה מדאיגה בקהילה בכללותה

ב. איך ה-AI מתייחס להולכי רגל הממתינים שאין להם זכות קדימה היא גם בעיה שעולה

בהתחלה, הבינה המלאכותית שוטטת במכוניות בנהיגה עצמית ברחבי העיר כולה. לכל מי שרצה לבקש נסיעה במכונית בנהיגה עצמית היה בעצם סיכוי שווה לברך אחת. בהדרגה, הבינה המלאכותית החלה להשאיר בעיקר את המכוניות הנוהגות בעצמן לשוטט בחלק אחד בלבד של העיר. החלק הזה היה מייצר כסף גדול יותר ומערכת הבינה המלאכותית תוכנתה לנסות ולמקסם את ההכנסות כחלק מהשימוש בקהילה.

חברי הקהילה בחלקים העניים של העיירה נטו פחות לזכות בנסיעה ממכונית בנהיגה עצמית. הסיבה לכך הייתה שהמכוניות בנהיגה עצמית היו רחוקות יותר ונדדו בחלק הרווחים הגבוה יותר של המקום. כאשר הגיעה בקשה מאזור מרוחק של העיר, כל בקשה ממקום קרוב יותר שהיה צפוי באזור ה"מוערך" של העיר תקבל עדיפות גבוהה יותר. בסופו של דבר, הזמינות להשיג מכונית בנהיגה עצמית בכל מקום אחר מלבד החלק העשיר יותר של העיר הייתה כמעט בלתי אפשרית, למרבה הצער עבור אלה שחיו באותם אזורים מורעבים כעת.

אתה יכול לטעון שה-AI די נחת על סוג של אפליה של פרוקסי (המכונה לעתים קרובות גם אפליה עקיפה). הבינה המלאכותית לא תוכננה כדי להימנע משכונות עניות יותר. במקום זאת, הוא "למד" לעשות זאת באמצעות השימוש ב-ML/DL.

העניין הוא שנהגים אנושיים של שיתוף נסיעות היו ידועים בכך שהם עושים את אותו הדבר, אם כי לא בהכרח רק בגלל זווית הרווחים. היו כמה מהנהגים האנושיים שחולקו נסיעות שהייתה להם משוא פנים לגבי איסוף רוכבים בחלקים מסוימים של העיר. זו הייתה תופעה ידועה במידת מה והעירייה נקטה גישת ניטור כדי לתפוס נהגים אנושיים שעושים זאת. נהגים אנושיים עלולים להסתבך בגלל ביצוע שיטות בחירה לא נעימות.

ההנחה הייתה שה-AI לעולם לא ייפול לאותו סוג של חול טובעני. לא הוגדר ניטור מיוחד כדי לעקוב אחר לאן נוסעות המכוניות בנהיגה עצמית מבוססות בינה מלאכותית. רק לאחר שחברי הקהילה החלו להתלונן, הבינו ראשי העיר מה קורה. למידע נוסף על סוגים אלה של נושאים עירוניים שרכבים אוטונומיים ומכוניות בנהיגה עצמית עומדים להציג, ראה את הסיקור שלי ב- קישור זה כאן ואשר מתאר מחקר בהנחיית הרווארד שהייתי שותף בכתיבתו בנושא.

דוגמה זו של היבטי הנדידה של מכוניות בנהיגה עצמית מבוססות בינה מלאכותית ממחישה את האינדיקציה המוקדמת יותר שיכולים להיות מצבים הכרוכים בבני אדם עם הטיות לא רצויות, שלגביהן מתקינים בקרות, וכי הבינה המלאכותית המחליפה את אותם נהגים אנושיים נותרה סקוטית- חינם. למרבה הצער, הבינה המלאכותית יכולה להיות שקועה בהטיות דומות בהדרגה ולעשות זאת ללא מעקות בטיחות מספיקים במקום.

דוגמה שנייה כוללת את הבינה המלאכותית הקובעת אם לעצור בהמתנה להולכי רגל שאין להם זכות קדימה לחצות רחוב.

ללא ספק נהגתם ונתקלתם בהולכי רגל שחיכו לחצות את הכביש ובכל זאת לא הייתה להם זכות קדימה לעשות זאת. זה אומר שהיה לך שיקול דעת אם לעצור ולתת להם לעבור. אתה יכול להמשיך מבלי לתת להם לחצות ועדיין להיות בגדר כללי הנהיגה החוקיים של עשיית זאת.

מחקרים על האופן שבו נהגים אנושיים מחליטים לעצור או לא לעצור עבור הולכי רגל כאלה, העלו שלפעמים הנהגים האנושיים בוחרים על סמך הטיות לא רצויות. נהג אנושי עלול להביט בהולך הרגל ולבחור לא לעצור, למרות שהיה עוצר לו היה להולך הרגל מראה שונה, כגון על סמך גזע או מין. בדקתי את זה ב הקישור כאן.

תארו לעצמכם שהמכוניות לנהיגה עצמית מבוססות בינה מלאכותית מתוכנתות להתמודד עם השאלה האם לעצור או לא לעצור להולכי רגל שאין להם זכות קדימה. כך החליטו מפתחי AI לתכנת משימה זו. הם אספו נתונים ממצלמות הווידאו של העיירה המוצבות בכל רחבי העיר. הנתונים מציגים נהגים אנושיים שעוצרים להולכי רגל שאין להם זכות קדימה ונהגים אנושיים שאינם עוצרים. הכל נאסף למערך נתונים גדול.

על ידי שימוש ב- Machine Learning ו-Deep Learning, הנתונים מיוצרים במודל חישובי. מערכת הנהיגה בינה מלאכותית משתמשת במודל זה כדי להחליט מתי לעצור או לא לעצור. באופן כללי, הרעיון הוא שמה שהמנהג המקומי מורכב ממנו, כך ה-AI מכוון את המכונית הנוהגת בעצמה.

להפתעתם של מנהיגי העיר והתושבים, ברור שה-AI בחרה לעצור או לא להפסיק על סמך המראה של הולך הרגל, כולל הגזע והמינו. החיישנים של המכונית הנוהגת בעצמה היו סורקים את הולך הרגל הממתין, יזינו את הנתונים הללו לדגם ML/DL, והדגם ישדר ל-AI אם לעצור או להמשיך. למרבה הצער, בעיר כבר היו הרבה הטיות של נהגים אנושיים בהקשר הזה וה-AI חיקה עכשיו את אותו הדבר.

החדשות הטובות הן שזה מעלה בעיה שכמעט אף אחד לא ידע על קיומה. החדשות הרעות היו שמאז שה-AI נתפס עושה זאת, הוא קיבל את רוב האשמה. דוגמה זו ממחישה שמערכת בינה מלאכותית עשויה רק ​​לשכפל את ההטיות הבלתי רצויות שכבר קיימות מראש של בני אדם.

סיכום

ישנן דרכים רבות לנסות ולהימנע מלהמציא בינה מלאכותית שמא מחוץ לשער יש הטיות לא רצויות או שלאורך זמן מלקט הטיות. גישה אחת כרוכה להבטיח שמפתחי בינה מלאכותית יהיו מודעים לקרות זה ובכך לשמור אותם על קצות האצבעות כדי לתכנת את ה-AI כדי למנוע את העניין. דרך נוספת מורכבת מפיקוח עצמי של ה-AI על התנהגויות לא אתיות (ראה הדיון שלי ב הקישור כאן) ו/או שיש לך חלק אחר של בינה מלאכותית שמנטרת מערכות בינה מלאכותיות אחרות עבור התנהגויות שעלולות להיות לא אתיות (סיקרתי את זה ב- הקישור כאן).

לסיכום, עלינו להבין שלבני אדם יכולות להיות הטיות לא נעימות ושאיכשהו הם צריכים לדעת את המגבלות שלהם. כמו כן, ל-AI יכולות להיות הטיות לא רצויות, ואיכשהו אנחנו צריכים לדעת את המגבלות שלהן.

לאלו מכם שמאמצים בשקיקה את אתיקה של AI, אני רוצה לסיים עכשיו עם עוד שורה מפורסמת שכולם כבר חייבים להכיר. כלומר, המשך להשתמש ולשתף את החשיבות של AI אתי. ועל ידי כך, הייתי אומר בחוצפה את זה: "קדימה, תעשה לי את היום."

מקור: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/