בינה מלאכותית אתית בתקווה שבינה מלאכותית תלמד התנהגות אתית בעצמה, כמו המקרה של בינה מלאכותית במכוניות אוטונומיות לנהיגה עצמית

אריסטו קבע כי חינוך הנפש ללא חינוך הלב אינו חינוך כלל.

אתה יכול לפרש את הערת התובנה הזו כדי להצביע על כך שלמידה על אתיקה והתנהגות מוסרית היא חיונית ביותר עבור המין האנושי. בוויכוח הקלאסי של הטבע לעומת טיפוח, יש לשאול כמה מהמוסר האתי שלנו הוא יליד אינסטינקטיבי ואילו כמה נלמד במהלך ימי חיינו. פעוטות מתבוננים בבני אדם אחרים, וככל הנראה מלקטים את היסודות האתיים שלהם על סמך מה שהם רואים ושומעים. אותו דבר אפשר לומר על בני נוער. למבוגרים בעלי ראש פתוח, גם הם ימשיכו להסתגל ולהתקדם בחשיבה האתית שלהם כתוצאה מהתנסות בעולם היומיום.

כמובן, לימוד מפורש של מישהו על אתיקה הוא גם שווה ערך לקורס. אנשים חייבים ללמוד על דרכים אתיות באמצעות השתתפות בשיעורים בנושא או אולי על ידי יציאה לאירועים ומנהגים המעניינים אותם. ניתן לזהות ערכים אתיים בצורה ברורה ולשתף אותם כאמצעי לסייע לאחרים בגיבוש מבנה האתיקה שלהם. בנוסף, האתיקה עשויה להיות מוסתרת בעדינות בתוך סיפורים או אופני הדרכה אחרים שבסופו של דבר נושאים מסר של ממה מורכבת התנהגות אתית.

כך נראה שבני אדם חודרים אתיקה.

מה לגבי בינה מלאכותית (AI)?

אני מבין ששאלה כזו עשויה להיראות מוזרה. אנחנו בהחלט מצפים מבני אדם לשלב אתיקה ולצעוד בחיים עם מראית עין של קוד מוסרי. זוהי עובדה פשוטה וברורה. מצד שני, נראה שמכונה או מחשב אינם מתאימים לאותה מסגרת התייחסות. תגובת הבטן שלך עשויה להיות שזה מופרך או מוזר להתייחס לבינה מלאכותית כבעלת התגלמות של אתיקה וקודים מוסריים.

הדבר הטוב ביותר שנראה כי נוכל לעשות בנוגע לבינה מלאכותית הוא לתכנן אותו כך שלא יחרוג מהתנהגות אתית. מפתחי בינה מלאכותית ואלו העוסקים בבינה מלאכותית יישאו באחריות להבטיח שה-AI כפי שתוכנן וכאשר הוא מיושם כבר עומד בדרישות האתיות. מחוץ לשער, כביכול, הבינה המלאכותית אמורה להיות כבר בתולית ומוכנה לצאת לדרך כמוצר מוסרי ראוי לחלוטין.

אין ספק שאתה צודק במחשבה שמערכות בינה מלאכותית אכן צריכות להיות מעוצבות כך שיתאימו כבר לחלוטין לבסיס אתי. החברה די התרגשה כאשר הגל האחרון של מערכות בינה מלאכותית שוחרר לראשונה ונראה שהדגים שאנו נמצאים בעידן של AI לתמיד. בינה מלאכותית תסייע בפתרון רבות מהבעיות המאתגרות ביותר בעולם. ההתקדמות בטכנולוגיה נרתמה כדי להשלים את היכולות האנושיות עם מתקנים דומים לקוגניטיביים, אם כי הרשו לי להדגיש שעדיין אין לנו שום AI חיוני ואיננו יודעים אם AI תחושתי תושג.

הבעיה עם הבהלה של מחלת הבינה המלאכותית להביא AI לעולם חשפה בהדרגה את הבטן המכוערת של בינה מלאכותית הידועה בשם AI למען הרע. היו הרבה כותרות על מערכות בינה מלאכותית שעושות שימוש בקבלת החלטות אלגוריתמית (ADM) גדושה בהטיות וחוסר שוויון. נוסף על כך, חלק גדול מה-AI העכשווי סובל מחוסר שקיפות, נוטה להיות בלתי מוסבר במונחים של הסבר החלטות חישוביות, מפגין לעתים קרובות חוסר הוגנות, ואפשר לחלקם להסיט את האחריות האנושית שלהם על ידי הפניית אצבעות לעבר AI.

סיקרתי בהרחבה בינה מלאכותית אתית ואת האתיקה של בינה מלאכותית בכתבי, כולל הקישור כאן ו הקישור כאן, רק כדי שם כמה.

איך יכול להיות AI למען הרע אם ניקח כמבנה מוצהר שבינה מלאכותית צריכה להיות מעוצבת מההתחלה כדי להימנע מפעולות לא אתיות?

התשובה היא מרובה.

ראשית, מפתחי בינה מלאכותית וחברות רבות העוסקות בבינה מלאכותית אינן יודעות לגבי החשיבות של עיצוב הבינה המלאכותית שלהן כדי להישאר בגבולות האתיים. הרעיון בכלל לא נמצא ברדאר שלהם. הפיתוי של להרוויח כסף מהיר גורם לחלקם לדחוף קדימה בכל רעיון AI פרוע שהם רוצים לייצר בכוונה. לא צריך להבין שום דבר אתי. פשוט בנה את הבינה המלאכותית ותצא לדרך.

שנית, יש מי שמייצרים בינה מלאכותית שמייפים מודעות מוחלטת להשלכות האתיות, אך הם מפחיתים באופן גלוי או מתעלמים במידת מה משיקולי ה- AI האתי. נקודת מבט נפוצה אחת היא המנטרה הקלאסית הטכנית של הכוונה להיכשל מהר ולהיכשל לעתים קרובות. פשוט תמשיך לחזור על הדברים עד שהעניינים יסתדרו כראוי. הסיכוי לסחוט כל שילוב שיטתי ומתחשב של אתיקה של בינה מלאכותית באותם מאמצי AI מהירים קלושים למרבה הצער. אני דן בצורך בהעצמת מנהיגות כלפי AI אתי ב הקישור כאן.

שלישית, הרבה עכירות קיימת לגבי מעקות בטיחות אתיים שצריך לבדר בעת תכנון AI. בטח, יש כיום הרבה הנחיות אתיקה של AI, ראה את הסיקור שלי ב הקישור כאן, למרות שקשה להפוך את המצוות התיאורטיות השימושיות הללו לפרטים ספציפיים עבור מערכת AI נתונה שנבנית. ציינתי כי לאט לאט נראה הופעת כלים ומתודולוגיות לבניית בינה מלאכותית הכוללות שיטות קידוד בינה מלאכותית אתית, שעוזרות לסגור את הפער בין ההיבטים המופשטים לבין היבטי הגומי-פוגש את הדרך הפתגמית.

רביעית, לפי ההדגשה כאן, אנו חוקרים את המקרה המושפע של AI, שגם אם הוא מורכב בתחילה בתוך גבולות אתיים, ולאחר מכן בזמן השימוש מתפתל מעבר לפרמטרים המקודדים האתיים.

אנחנו צריכים לפרוק את זה.

חלק גדול מה-AI של היום עושה שימוש ב-Machine Learning (ML) ו-Deep Learning (DL). אלו הן טכניקות וטכנולוגיות של התאמת דפוסים חישוביים. באופן כללי, הרעיון הוא שאתה אוסף יחד המון נתונים רלוונטיים לכל מה שה-AI אמור להיות מסוגל לעשות, אתה מזין את הנתונים האלה לתוך תואם הדפוסים החישוביים הנבחר, והתאמת הדפוסים מנסה למצוא דפוסים שימושיים מבחינה מתמטית. שימו לב שאין שום תחושה מצד ה-AI הזה (ששוב, דבר כזה עדיין לא קיים). גם אין שום היגיון הגיוני מעורב. הכל מתמטיקה וחישובים.

יכול להיות שהנתונים המוזנים ל-ML/DL כבר חדורים הטיות ואי-שוויון. במקרה כזה, רוב הסיכויים שהתאמת הדפוסים החישוביים רק תחקה את אותן נטיות. אם תספק נתונים שמעדיפים גזע אחד על פני אחר או מעדיפים מגדר אחד על פני השני, יש סיכוי גדול שהתאמת הדפוס תיצמד לזה בתור הדפוס שהתגלה.

בעיה גדולה עם סוג זה של נעילה היא שאולי יהיה לנו קשה להבין שהדפוסים מבוססים על היבט זה של הנתונים. המתמטיקה הקוצנית והמורכבת עלולה להפוך את הצצה של דפוסים כאלה לבעייתיים למדי. אפילו בדיקת ה-AI לא בהכרח תחשוף את הנטיות הללו, בהתאם לטווח ולעומק של הבדיקות המיושמות.

אז בוא נניח שבנית מערכת בינה מלאכותית והכנת את שיעורי הבית שלך על ידי ניסיון קודם להימנע משימוש בנתונים שהיו להם הטיות קיימות. לאחר מכן, לאחר שבוצעו למידה ממוחשבת ולמידה עמוקה, בדקתם את התוצאות כדי לראות אם התעוררו איכשהו הטיות או אי-שוויון. הבה נניח שאינך מסוגל למצוא נטיות לא רצויות כאלה.

בסך הכל, האור הירוק ניתן כעת להמשיך ולהכניס את ה-AI לשימוש. אנשים יתחילו להשתמש בבינה מלאכותית וסביר להניח להניח שהיא נכונה מבחינה אתית. גם המפתחים חושבים כך. החברה העוסקת ב-AI חושבת כך. משם כולנו הולכים.

הנה מה שיכול לקרות.

רמז על הטיה שלא נמצאה בנתונים המקוריים ושלא נתפסה במהלך בדיקת ה-AI, אולי מופעלת. אולי זה קורה רק לעתים רחוקות. אתה עשוי להאמין שכל עוד זה נדיר, הכל בסדר. עם זאת, אני בספק אם אלה הפגיעים להטיה האמורה מוכנים לראות את הדברים כך. אני מעז לומר שמערכת הבינה המלאכותית ואלו שגיבשו אותה עומדים להתמודד עם השלכות, בין אם בבתי המשפט המשפטיים ובין אם בבית המשפט הפתוח של דעת החברה.

וריאציה נוספת היא הרעיון הפתגמי של לקחת סנטימטר ולתפוס מייל. הדימוי עשוי להיות זעיר בהתחלה. במהלך השימוש ב-AI, ייתכן שה-AI תוכנן כדי לשנות את עצמו ככל שהדברים מתקדמים. סוג זה של "למידה" או "למידה עצמית" יכול להיות שימושי למדי. במקום לדרוש ממפתחי AI אנושיים לשנות ולהתאים ללא הרף את מערכת ה-AI, ה-AI בנוי לעשות זאת בעצמו. ללא עיכובים, ללא עבודה יקרה וכו'.

החיסרון של התאמה עצמית שימושית זו הוא שהרעיון יכול להתעלות להיות גדול יותר ויותר בהיקף השימוש של ה-AI. בעוד שההטיה הייתה אולי בפינה קטנה וצפופה, כעת ניתן לה מקום להתרחב. ל-AI אין מראית עין שזה "שגוי" והוא רק מרחיב מבחינה חישובית משהו שנראה שעובד.

אם זה גורם לשיער לעמוד על הראש שלך, תצטרך לשבת לגרסה הבאה.

נניח שההטיה לא הייתה קיימת מההתחלה ויש לנו את כל האמונה המנומקת שה-AI נטול הטיות לחלוטין. או שהתמזל מזלנו או שאולי וידאנו באופן שיטתי שאין הטיות בשום מקום בנתונים ואף אחת מהן לא נוצרה באמצעות התאמת הדפוסים החישוביים. למרות אנחת הרווחה הזו, הבינה המלאכותית רשאית להסתגל בזמן השימוש. הדלת של פנדורה נפתחת וה-AI בוחר להימשך מבחינה חישובית לעבר הטיות שנמצאות במהלך כל מה שה-AI עושה.

הטיה חדשה נבלעת לתוך ה-AI, ואף אחד לא חכם במיוחד שזה קרה. איכס, יצרנו מפלצת, פרנקנשטיין אמיתי.

כיצד ניתן למנוע או לפחות לסמן הופעה זו?

גישה אחת שהולכת וצוברת אחיזה מורכבת מבניית מרכיב הלקט אתי לתוך ה-AI. ה-AI בנוי כך שיכלול אלמנטים אתיים של AI. האלמנטים האלה צופים או עוקבים אחר שאר ה-AI בזמן שה-AI מתכוונן לאורך זמן. כאשר נראה כי הבינה המלאכותית חרגה מהמצוות האתיות המתוכנתות, הבינה המלאכותית האתית מנסה לשלב את ההתאמות הללו או מזהירה את המפתחים שמשהו השתבש.

אתה יכול לנסות לתכנת את יכולת הפיקוח על AI אתי ולקוות שהיא תנצח בזמן שה-AI נמצא בשימוש.

זווית נוספת שנויה במחלוקת במקצת תהיה שימוש ב-Machine Learning ו-Deep Learning כדי לאמן את היבטי AI אתיים למערכת AI.

מה אמרת?

כן, התפיסה אולי הלא שגרתית היא שבמקום שמתכנת אנושי יקודד ישירות קבוצה של מצוות אתיקה של בינה מלאכותית, הבינה המלאכותית מעוצבת לנסות "ללמוד" אותן במקום זאת. נזכיר שציינתי בקצרה שהשימוש ב-ML/DL מסתמך בדרך כלל על הזנת נתונים לתוך האלגוריתמים ומתבצעת התאמת דפוס חישובי. שאלת מיליון הדולר היא האם אנחנו יכולים להשתמש באותו מנגנון כדי להחדיר ערכים אתיים למערכת AI.

אני מניח שתוכל להשוות את זה לדיון שלי בפתיחה על האופן שבו בני אדם הופכים מודעים לעקרונות אתיים, אם כי בבקשה אל תנסה לאנתרופומורפיז את הבינה המלאכותית של היום כדומה לחשיבה האנושית (זה לא כך, ואני אחזור על ההמלצה הזו בקרוב). ניתן לתכנת את ה-AI "מולד" עם מצוות AI אתיות. או שה-AI יכול "ללמוד" מצוות AI אתיות. אתה יכול לעשות את שניהם, כמובן, וזה משהו שכיסתי במקום אחר, תראה הקישור כאן.

קחו רגע להרהר בתפיסה המדהימה לכאורה לפיה בינה מלאכותית עשויה "ללמוד" אתיקה ובעצם כנראה לציית להתנהגויות אתיות.

חוקרים אלה משתמשים בדוגמה של מערכת בינה מלאכותית שמגלה את הטמפרטורה הרצויה בבית כדי להמחיש כיצד זה יכול לעבוד: "היא תחילה 'צפתה' בהתנהגות האנשים במשקי בית שונים במשך שבוע בלבד והסיקה מסקנות לגבי העדפותיהם. לאחר מכן הוא השתמש בחיישן זיהוי תנועה כדי לקבוע אם מישהו נמצא בבית. כשהבית היה ריק, התרמוסטט החכם נכנס למצב חיסכון גבוה באנרגיה; כאשר אנשים היו בבית, התרמוסטט התאים את הטמפרטורה בהתאם להעדפותיהם. תרמוסטט זה עונה בבירור על שתי הדרישות של בוט אתיקה, אם כי פשוט מאוד. הוא מעריך את העדפותיהם של אנשים ומטיל אותן על הבקרות של מערכת החימום והקירור. אפשר לשאול מה זה קשור לערכי מוסר חברתיים. תרמוסטט זה מאפשר לאנשים עם ערכים שונים לקבל את הגדרות הטמפרטורה שהם מעדיפים. דיירי הבית לא צריכים לאפס את התרמוסטט כל יום בבואם וביציאה. בוט האתיקה הפשוט הזה גם מקטין את טביעת הרגל האנרגטית הכוללת של הקהילה" (לפי המאמר של אמיתי עציוני ואורן עציוני בשם "אתיקה בסיוע AI" בכרך על אתיקה וטכנולוגיית מידע).

לפני שאחפור יותר בפיתולים של בינה מלאכותית ש"לומדת" התנהגות אתית, ברצוני לומר עוד משהו על מעמדה של בינה מלאכותית.

AI יכול להיות מורכב מהמצבים האפשריים הבאים:

1. בינה מלאכותית רגילה-ישנה של היום

2. AI חיוני באיכות אנושית (אין לנו את זה עדיין)

3. בינה מלאכותית חיונית שהיא סופר אינטליגנטית (קטע מעבר למספר 2)

אני מתכוון להתמקד במצב הקיים שהוא בינה מלאכותית רגילה עתיקת יומין. חלק ניכר ממה שאתה עשוי לקרוא על AI אתי מכסה לפעמים את ה-AI הרגיש ולכן הוא ספקולטיבי ביותר. אני אומר שזה ספקולטיבי כי אף אחד לא יכול להצמיד את הזנב לחמור מה יהיה בינה מלאכותית. אפילו מעבר לתחום של בינה מלאכותית חיה באיכות אנושית נמצאת ה-AI הסופר-אינטליגנטית הרבה. יש הרבה סיפורי מדע בדיוני וחששות לגבי האופן שבו הטעמים האלה של AI עשויים להחליט לשעבד את המין האנושי, או אולי פשוט למחוק את כולנו. זה ידוע בתור הסיכון הקיומי של AI. לפעמים, הדילמה מנוסחת גם כסיכון הקטסטרופלי של AI.

יש הטוענים שאולי נהיה בסדר כל עוד נשמור בינה מלאכותית על הבינה המלאכותית הפשוטה והישנה שיש לנו היום. הבה נניח שאיננו יכולים להגיע לבינה מלאכותית. תארו לעצמכם שלא משנה כמה אנחנו מנסים ליצור AI חיוני, אנחנו נכשלים בכך. כמו כן, נניח לצורך הדיון שבינה מלאכותית חיה אינה נוצרת על ידי תהליך ספונטני מסתורי כלשהו.

האם איננו בטוחים אם כך שבינה מלאכותית זו, שהיא הסוג האפשרי היחיד המדומיין, יהיה בשימוש?

לא באמת.

פחות או יותר, אותן בעיות כלליות צפויות להתעורר. אני לא מציע שה-AI "חושב" את דרכו לרצות להשמיד אותנו. לא, הבינה המלאכותית הרגילה הרגילה, הרגילה, מוצבת רק בעמדות כוח שגורמות לנו לשקוע בהרס עצמי. לדוגמה, הכנסנו בינה מלאכותית שאינה חושנית בנשק להשמדה המונית. הנשק האוטונומי הזה לא מסוגל לחשוב. יחד עם זאת, בני אדם לא נשמרים באופן מלא. כתוצאה מכך, הבינה המלאכותית כצורה של אוטומציה אוטונומית בסופו של דבר גורמת בשוגג לתוצאות קטסטרופליות, אם על ידי פקודה אנושית לעשות זאת, או על ידי באג או שגיאה, או על ידי עשיית רוע מושתלת, או על ידי התאמות עצמיות שמובילות את העניינים למטה שביל מכוער וכו'.

אני טוען שהבעיה האתיקה של בינה מלאכותית קיימת עבור כל שלוש המדינות שנקבעו בבינה מלאכותית, כלומר שיש לנו בעיות אתיות בינה מלאכותית עם בינה מלאכותית רגילה, ועם בינה מלאכותית רגילה שהיא רק רמה אנושית או הבינה המלאכותית הנמתחת שמגיעה. רמת מודיעין העל עטורת השבחים.

בהתחשב בהצהרה המפוכחת הזו, אנו בוודאי יכולים לדון בגודל ובקושי הקשורים לבעיות האתיות בכל אחת מהרמות המתאימות של AI. נקודת המבט המקובלת היא שמצוקת האתיקה של בינה מלאכותית היא פחות בלתי ניתנת להתגבר על הבינה המלאכותית הלא-חושנית, קשוחה יותר ברמת הבינה המלאכותית השווה לאדם, ומגרדת ראש אמיתית בשלב העניינים הסופר-אינטליגנטי של הבינה המלאכותית.

ככל שה-AI הופך טוב יותר, כך הבעיה האתיקה של AI הופכת גרועה יותר.

אולי זה חוק טבע בלתי ניתן להפרה.

אם נחזור להתמקד בבינה מלאכותית של היום, הניסיון לגרום לבינה מלאכותית "ללמוד" התנהגויות אתיות באמצעות למידת מכונה ולמידה עמוקה עכשווית טומנת בחובה חששות ובעיות מסובכות. נניח שה-AI לא מצליח ללקט את המצוות האתיות הרצויות? איך נדע בוודאות שהוא התערער בכך? כמו כן, האם חלקים אחרים של מערכת בינה מלאכותית עשויים לעקוף את המבנים האתיים שליקטו? הוסף לכך שאם הבינה המלאכותית מתכווננת תוך כדי תנועה, ההתאמות עלולות לדלל את ההיבטים האתיים או להציף אותם בטעות.

כדי להחמיר את המצב, ה"למידה" עשויה להוביל לכך שה-AI נוחת על התנהגויות לא אתיות באמת. בעוד שחשבנו שאנחנו עושים את הדבר הנכון בכך שדרבנו את הבינה המלאכותית להיות אתית, מסתבר שבינה מלאכותית החליקה להתאמת דפוסים בהיבטים הלא אתיים במקום זאת. מדברים על לירות ברגל שלנו, זה בהחלט יכול לקרות.

בשלב זה של הדיון הזה, אני מתערב שאתה מעוניין בכמה דוגמאות נוספות בעולם האמיתי שיכולות להדגיש כיצד AI ה"למידה" של אתיקה עשויה לחול על AI של היום (מלבד הטיזר הטעים של דוגמה התרמוסטט).

אני שמח ששאלת.

יש מכלול מיוחד ופופולארי של דוגמאות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות מציאותיות המציגות דילמות אתיות בינה מלאכותית, כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות בינה מלאכותית זו הוא הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות נהיגה עצמית אמיתיות מבוססות בינה מלאכותית מאירה משהו לגבי יכולת הבינה המלאכותית "ללמוד" מצוות בינה מלאכותית אתית, ואם כן, מה זה מציג לראווה?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

כהבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שה- AI מניע את המכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לחלוק במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות שחולקות בשיתוף את משימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAS (Advanced Driver-Assistance Systems).

אין עדיין מכונית נהיגה עצמית אמיתית ברמה 5, שאנחנו עדיין לא יודעים אם ניתן יהיה להשיג זאת, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מכוניות בנהיגה עצמית וחיסון בינה מלאכותית אתית

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני סומך על כך שמספק מספיק הסתייגויות כדי לבסס את מה שאני עומד להתייחס אליו.

אנו מוכנים כעת לעשות צלילה עמוקה לתוך מכוניות בנהיגה עצמית ואפשרויות בינה מלאכותית אתית הכרוכה בטענה מרימה גבות שאנו יכולים לגרום לבינה מלאכותית "ללמוד" על התנהגויות אתיות בעצמה.

בואו נשתמש בדוגמה פשוטה. מכונית עם נהיגה עצמית מבוססת בינה מלאכותית נוסעת ברחובות השכונה שלך ונראה שהיא נוסעת בבטחה. בהתחלה הקדשת תשומת לב מיוחדת לכל פעם שהצלחת להציץ במכונית הנוהגת בעצמך. הרכב האוטונומי בלט עם מתלה החיישנים האלקטרוניים שלו שכלל מצלמות וידאו, יחידות מכ"ם, מכשירי LIDAR וכדומה. אחרי שבועות רבים של מכונית בנהיגה עצמית ששייטת ברחבי הקהילה שלך, עכשיו אתה בקושי שם לב לזה. מבחינתך, זו בסך הכל עוד מכונית בכבישים הציבוריים העמוסים ממילא.

כדי שלא תחשוב שזה בלתי אפשרי או בלתי סביר להתמצא במכוניות בנהיגה עצמית, כתבתי לא פעם על האופן שבו המקומות שנמצאים בטווח של נסיונות מכוניות בנהיגה עצמית התרגלו בהדרגה לראות את הרכבים המשובחים, ראה את הניתוח שלי ב קישור זה כאן. רבים מהמקומיים עברו בסופו של דבר מהסתערות נלהבת פעורת פיות לפלוט כעת פיהוק נרחב של שעמום כדי לחזות במכוניות המתפתלות בנהיגה עצמית.

כנראה שהסיבה העיקרית כרגע שהם עלולים להבחין ברכבים האוטונומיים היא בגלל גורם הגירוי והעצבנות. מערכות הנהיגה המופיעות ב-AI מוודאות שהמכוניות מצייתות לכל מגבלות המהירות וכללי הדרך. לנהגים אנושיים קדחתניים במכוניות המסורתיות המונעות על ידי אדם, אתה מתעצבן לפעמים כשאתה תקוע מאחורי המכוניות המבוססות על בינה מלאכותית לחלוטין.

זה משהו שכולנו צריכים אולי להתרגל אליו, בצדק או שלא.

בחזרה לסיפור שלנו. יום אחד, נניח שמכונית בנהיגה עצמית בעיר או בעיר שלך נוסעת ומגיעה למצב שבו הולך רגל ממתין לחצות את הכביש. נניח שאין להולך הרגל זכות קדימה כשלעצמה. מכונית המונעת על ידי אדם עלולה לחלוף על פני הולך הרגל ולהיות חוקית לחלוטין בכך. כמו כן, מערכת הנהיגה בינה מלאכותית מסוגלת באופן חוקי לעבור את הולך הרגל הממתין.

ההחלטה אם לעצור ולתת להולך הרגל לעבור את הכביש נתונה לשיקול דעתו של הנהג, ללא קשר אם הוא נהג אנושי או מערכת נהיגה בינה מלאכותית.

אני בטוח שנתקלת במצב כזה אינספור פעמים. אולי אתה ממהר, אז אל תעצור לתת להולך הרגל לחצות. בהזדמנות אחרת, יש לך מספיק זמן להגיע ליעד שלך, ולכן אתה בוחר לעצור ולאפשר לאדם הממתין לעבור את הרחוב. מצב הרוח שלך והנסיבות המסוימות מכתיבות מה תבחר לעשות.

שום דבר בתרחיש הזה לא נראה חריג או מטריד.

לפני שאבחן את צד הבינה המלאכותית של הדברים, אולי יעניין אותך לדעת שההיבט המסוים הזה של שיקול דעת המאפשר להולך רגל לחצות רחוב נחקר מקרוב. חוקרים זיהו שלפעמים הבחירה של הנהג עשויה להיות תלויה ככל הנראה בהטיות גזעיות או מגדריות. נהג אנושי עשוי להגדיל את גודלו של הולך הרגל הממתין ולבחור לאפשר לאדם לחצות אותו כפי שנראה על סמך ההטיות הטבועות של הנהג. האם הנהג בכלל מבין שהם עושים זאת הוא עניין של מחקר מתמשך. ראה את הסיקור שלי ב קישור זה כאן.

הכנתי את הבמה לחקירה שלנו מה עשויה מערכת נהיגה בינה מלאכותית לעשות במצב של מעבר הולכי רגל.

תכנות קונבנציונלי של הבינה המלאכותית עשוי לגרום לכך שמפתחי הבינה המלאכותית יחליטו שמערכת הנהיגה של הבינה המלאכותית תיעצר תמיד ותיתן להולך הרגל לעבור. נראה שזה הדבר הראוי או האזרחי לעשות מבחינה אתית. המכונית הנוהגת בעצמה דוחה את האדם הממתין שרוצה לחצות את הרחוב.

אני מעז לומר, אם היית נוסע בתוך מכונית נהיגה עצמית וה-AI תמיד עצר לכל שיקול דעת שממתין להולכי רגל, אתה עלול להשתגע. הנסיעה המהירה שלך למכולת עשויה להימשך פי כמה זמן. זכרו גם שאנחנו לא מתכוונים להולכי רגל שיש להם את זכות הקדימה החוקית האדוקה לחצות, מכיוון שבמקרים האלה כבר יש להניח שה-AI מתוכנת כך שיאפשר תמיד. אנו מתמקדים רק בנסיבות שיקול הדעת.

יש עוד חסרונות להכרזה הזו של עצירה תמיד כדי לתת להולכי רגל שיקול דעת לחצות את הרחוב.

אלה שמייצרים ומציגים מכוניות בנהיגה עצמית מבוססות בינה מלאכותית רוצים שאנשים ייסעו בהן. הרעיון הוא שעל ידי שימוש במכוניות בנהיגה עצמית, נוכל להפחית את מספר תאונות הדרכים השנתיות, אשר מייצרות כיום כ-40,000 הרוגים שנתיים ו-2.5 מיליון פציעות בארצות הברית בלבד, ראה את אוסף הנתונים הסטטיסטיים שלי ב- קישור זה כאן. מלבד המטרה החברתית הנערצת הזו, יצרני הרכב ויצרני הטכנולוגיה האוטומטיים מקווים להרוויח כסף גם מיצירות הבינה המלאכותית שלהם, כמובן.

אני מעלה את זה כי אנשים עשויים להחליט לא לנסוע במכוניות בנהיגה עצמית אם מערכת הנהיגה בינה מלאכותית עושה דברים ללא צורך בסופו של דבר מעכב נסיעות. כל אדם רגיל היה חושב שבמקום זאת יבחר בנהג אנושי, הנסיעה עשויה להיות מהירה יותר, ולמעשה בחירה במכונית AI בנהיגה עצמית לטיול עשויה להגיע למקום נמוך מאוד ברשימת הבחירות שלו. זה בתורו אומר שלא תהיה לנו את ההפחתה המבוקשת בתאונות דרכים, וגם שהיצרנים ימצאו את מרכולתם כבלתי רווחית.

בהתחשב בקבוצה הזו של טיעונים, ייתכן שתתפתל לחשוב שה-AI לעולם לא צריך להפסיק כאשר מתרחש מקרה שיקול דעת של הולך רגל שרוצה לחצות את הרחוב. פשוט תכנת את מערכת הנהיגה בינה מלאכותית לעשות כל מה שהוא חוקי בהחלט. אם אין דרישה חוקית לתת להולך רגל לחצות, אז מזל קשה להולך הרגל הממתין. אולי האדם צריך לעשות את דרכו לנקודת חצייה שאכן מאפשרת בסיס חוקי של AI לעצור את המכונית הנוהגת בעצמה.

אתה יכול לדמיין את הזעקה על זה?

אנשים בעיר או בעיר שלך מגלים בהדרגה שמכוניות בינה מלאכותית בנהיגה עצמית לעולם לא יאפשרו להולך רגל לעבור שיקול דעת. הבינה המלאכותית המזעזעת הזו! זה כאילו הבינה המלאכותית חוטפת את אפו בבני אדם. פרחח לא מנומס של חתיכת אוטומציה לא טובה. כדי לסיים את זה, דמיינו שיש נסיבות מתועדות של הולכי רגל שזקוקים נואשות לחצות וה-AI לא יפסיק בכלל.

בינתיים, נהגים אנושיים עצרו ברצון כדי לתת לאנשים "נואשים" לעבור בבטחה את הרחוב.

כתוצאה מהזעם הזה, מכוניות בנהיגה עצמית בינה מלאכותית כבר לא מתקבלות בברכה ברחובות ובדרכים של המקום שלך. ההיתרים שניתנו על ידי ראשי העיר בוטלים. הורדת החתורים הכפויים מהכבישים שלנו היא הרעש הקולי.

בסדר, נראה שאנחנו בין הפטיש לסדן. ה-AI לא תמיד צריך לתת להולך הרגל על ​​פי שיקול דעתו לחצות (לא תמיד לעצור). הבינה המלאכותית לא צריכה תמיד למנוע מהולכי רגל על ​​פי שיקול דעת לחצות (אל תתקוף תמיד מעבר). מה לעשות?

התשובה הברורה תהיה לתכנת את ה-AI כך שיפעל באופן שיקול דעת.

אני מבקש מכם להרהר ב-ADM (קבלת החלטות אלגוריתמית) שממנו זה אמור להיות מורכב. האם ה-AI ינסה לזהות את אופיו של הולך הרגל ולהשתמש במאפיינים המובחנים כבסיס להחלטה אם לעצור את המכונית הנוהגת בעצמה או לא? אולי מישהו מבוגר יותר למראה היא הדרך לבחור. אבל האם זו אפליה בגיל בהתהוות? וכולי.

אולי מערכת הנהיגה בינה מלאכותית מתוכנתת לעצור במהלך שעות היום ולעולם לא לעצור במהלך הלילה. ההיגיון עשוי להיות שלפי הנראה בטוח יותר עבור הרוכבים במכונית האוטונומית, שהרכב האוטונומי נעצר בשעות היום, אך לא בשעות הערב.

זה אולי נשמע הגיוני. חלק מהבעיה יהיו הציפיות של הולכי הרגל. להלן כוונתי. הולכי רגל רואים את המכוניות הנוהגות בעצמן בינה מלאכותית עוצרות למעברים לפי שיקול דעת, המתרחשים באור יום. הולכי הרגל אינם יודעים באילו קריטריונים משתמש הבינה המלאכותית כדי להחליט לעצור. ההנחה של חלק מהולכי הרגל היא שה-AI תמיד יפסיק (לא מבין שאור יום לעומת לילה הוא הקובע האמיתי). כתוצאה מכך, אותם הולכי רגל המאמינים שהמכונית הנוהגת בעצמה תמיד תעצור, יסתכנו ויתחילו לחצות כאשר מערכת הנהיגה בינה מלאכותית כלל לא שואפת לעצור (שסביר להניח שה-AI ייעצר אם הולך הרגל נכנס לרחוב, אם כי זה יכול להיות בעייתי והפיזיקה עשויה למנוע מה-AI לעצור את המכונית הנוהגת בעצמה, אין מספיק זמן כדי להימנע מפגיעה בהולך הרגל שנראה "שוטה").

נניח שמפתחי הבינה המלאכותית והחברות שמרכיבות את המכוניות הנוהגות בעצמך בעיר שלך אינן בטוחות כיצד לעדכן את הבינה המלאכותית בנושא זה.

הם מחליטים "לאמן" את ה-AI על נתונים שנאספו מכל האזור. מסתבר שיש שפע של מצלמות עירוניות שתפסו את יציאתן ויציאתן של מכוניות ברחבי העיירה. נתונים אלו מציגים מקרים רבים של הולכי רגל המבקשים לחצות את הרחוב באופן שיקול דעת. כל הנתונים מוזנים למערכת למידת מכונה ו-Deep Learning כדי להפיק את מה שנחשב למקובל באותה תחום שיפוט.

האם אנו מאמנים את הבינה המלאכותית לעשות את מה שהמוסרים האתיים המקומיים מציגים לעשות?

במילים אחרות, אם לעיירה נתונה הייתה תרבות מקומית יותר של נטייה לעצור ולתת להולכי רגל לעבור שיקול דעת, כפי שמעידים פעולות של נהג אנושי, ה-ML/DL עשוי להבחין בדפוס זה מבחינה חישובית. לאחר מכן ה-AI יוכשר לעשות את אותו הדבר. בקצה השני, אם הנהגים האנושיים ממעטים לעצור, הבינה המלאכותית עשויה לקבל את ה"לקח" הזה מניתוח חישובי של הנתונים. הבינה המלאכותית תעשה כמו בני אדם, בערך.

הקביעה היא שההתנהגויות האתיות של בני אדם נתפסות בנתונים ושה-AI עומד להחדיר את אותן מצוות אתיות על ידי ניתוח חישובי. אתיקאי יתאר זאת בדרך כלל כגישה קומוניטארית לאתיקה. הערכים המשותפים של הקהילה באים לידי ביטוי במאמצים של הקהילה בכללותה.

זה עשוי להיראות כמו פתרון מטורף.

למרבה הצער, יש הרבה מלכודות.

בעיה אחת אולי ברורה היא שייתכן שהנהגים האנושיים כבר מפעילים צורה כלשהי של הטיות בבחירה לעצור או לא לעצור (כפי שהוזכר קודם לכן). ה-AI אז יהיה העתק של ההטיות הללו. האם אנחנו רוצים שזה יהיה המצב?

שקול בעיה אחרת. נניח שנהגים אנושיים אינם מקבלים בקלות את האופן שבו פועלות המכוניות בנהיגה עצמית בינה מלאכותית. רק בגלל שנהגים אנושיים היו נניח מוכנים לעצור, זה לא יכול להיות משוער באותה מידה עבור מכוניות בנהיגה עצמית. יכול להיות שנהגים אנושיים מתעצבנים מהמכוניות הנוהגות בעצמן בינה מלאכותית שממשיכות לעצור עבור הולכי רגל לפי שיקול דעת, למרות שאותו דבר קורה בידי נהגים אנושיים, אבל נראה שזה לא מפריע לנהגים אנושיים.

מלבד היותו מטריד, אתה יכול גם להעלות על הדעת את האפשרות של נהגים אנושיים שלא בכוונה יגרמו לאחור מכוניות בנהיגה עצמית. אם נהג אנושי לא ציפה שהמכונית הנוהגת בעצמה תעצור להולך רגל, ואם המכונית המונעת על ידי אדם נמצאת ישירות מאחורי המכונית הנוהגת בעצמה, עלולה להיווצר חוסר התאמה חמור של ציפיות. מערכת הנהיגה בינה מלאכותית מביאה את המכונית הנוהגת בעצמה לעצירה. הנהג האנושי לא צפה את הפעולה הזו. הנהג האנושי מתנגש במכונית הנוהגת בעצמה. כתוצאה מכך נגרמו פציעות ואולי הרוגים.

בכוונה הצבעתי על הסיכויים לפגיעה אנושית.

הולך הרגל שחוצה את הרחוב עשוי להיראות במבט חטוף כשאלה טריוויאלית. נראה שאף אחד לא יכול להיפגע בכל שיטה שה-AI בוחר לעצור או לא להפסיק. לא נכון! יש סיכוי שהולך הרגל יידרס. קיים סיכוי שמכונית המונעת על ידי אדם תתנגש לתוך המכונית הנוהגת בעצמה. נהג ונוסעי המכונית המונעת על ידי אדם עלולים להיפגע. הרוכבים בתוך המכונית הנוהגת בעצמה עלולים להיפגע. תמורות נוספות של פגיעה אנושית אפשרית נראות בקלות.

סיכום

אם כבר מדברים על פגיעה אנושית, אני אתן לך משהו אחר כדי לגרום למחשבותיך לשוטט על חידת הבינה המלאכותית האתית הזו.

ידיעה חדשותית דיווחה כי אדם נסע במכונית לצומת והיה לו אור ירוק לעשות זאת. מכונית אחרת המונעת על ידי אדם בחרה לנסוע ברמזור האדום של הצומת ונכנסה לצומת באופן בלתי חוקי ולא בטוח, תוך איימה לפגוע במכונית שהתנהלה כחוק.

הנהג אמר לעיתונאים שעליו לבחור בין לקיחת המכה, או שהוא יכול לסטות את מכוניתו כדי לקוות להימנע מפגיעה, אבל היו הולכי רגל בקרבת מקום ופעולת הסטייה עלולה לסכן את האנשים האלה. מה היית עושה? אתה יכול לבחור להיפגע מהמכונית המתקרבת הזו ואולי לחיות כדי לספר את הסיפור. לחלופין, אתה יכול לנסות להימנע מפגיעה אבל בינתיים אולי לדרוס הולכי רגל תמימים.

לחלק גדול מהנהיגה היומיומית שלנו יש החלטות עצומות ומיידיות מהסוג הזה. דיברתי על זה בהרחבה, יחד עם התייחסות להחלטות הנהיגה על חיים או מוות לבעיית הטרולי המפורסמת או הידועה לשמצה, ראה פירוט שלי ב- הקישור כאן.

החלף את הנהג האנושי בתרחיש זה במערכת נהיגה בינה מלאכותית.

מה אתה רוצה שה-AI יעשה?

זו שאלה מביכה.

גישה אחת היא לתכנת את הבינה המלאכותית לבצע פעולות נהיגה ישר קדימה בלבד, ובכך אפילו לא לשקול אפשרויות חישוביות אחרות כמו סטייה מהתאונה האפשרית. הייתי צופה שרוכבים במכוניות בנהיגה עצמית הולכים להיות מוטרדים לגלות שה-AI לא תוכנן לעשות שום דבר מלבד לחטוף את המכה. אפשר לצפות לתביעות ולמהומה.

גישה אחרת תהיה לנסות ולתכנת את ה-AI לשקול את האפשרויות השונות. מי בכל זאת זוכה להקים את ה-ADM שמחליט לאיזה כיוון תלך מערכת הנהיגה בינה מלאכותית? נראה שלאפשר למפתחי בינה מלאכותית לקבל החלטות כה כבדות משקל בעצמם טומן בחובו חששות רבים.

אתה יכול לנסות לתת ל-AI "ללמוד" מנתוני נהיגה אנושיים שנאספו לפי מצבי תנועה יומיומיים. זה דומה לדילמת מעבר הולכי הרגל ולרעיון שהוצע קודם לכן להשתמש בנתונים שנאספו כדי לגרום לבינה המלאכותית ללקט את מה שהמוסר האתי המקומי נראה. יש הרבה אזהרות לגבי זה, כמו האם דפוסי ה-ML/DL שהתגלו מתאימים או לא וכו'.

גם הזהרתי מראש שיש סיכוי שה-AI ילקט אולי התנהגות לא אתית, תלוי במוסר האתי המעורב. לדוגמה, נניח שה-AI נחת איכשהו על דפוס חישובי לכוון תמיד אל הולכי הרגל בכל פעם שמכונית אחרת מאיימת לפגוע במכונית הנוהגת בעצמה.

וואו, היזהרו מהולכי רגל, אתם הולכים להיות מטרות מוכנות.

הגיע הזמן לסגור את הדיון לעת עתה ולעשות זאת במחשבה אחרונה מלבבת.

אתה אולי מודע לכך שיצחק אסימוב הציע את "שלושת חוקי הרובוטיקה" שלו ב-1950, ואנחנו עדיין מאוהבים עד היום מהכללים שהוכרזו. למרות שנראה שהכללים ניתנים לקיום, כגון שמערכת בינה מלאכותית או רובוט לא יפגעו באדם ולא יאפשרו לאדם לפגוע, יש הרבה ניואנסים מכריעים שהופכים את זה למורכב ולעיתים בלתי נסבל, ראה הניתוח שלי בְּ- הקישור כאן.

בכל מקרה, הנה עוד משהו שאסימוב ידוע גם בו, אם כי פחות: "לעולם אל תיתן לחוש המוסר שלך להפריע לעשות את מה שנכון."

עבור הבינה המלאכותית האתית שכולנו מקווים להמציא, עלינו לזכור שהאתיקה של הבינה המלאכותית המוטבעת עשויה להיות לא מה שציפינו ושאיכשהו הבינה המלאכותית עדיין תצטרך לעשות כל מה שנכון. אסימוב אמר את זה טוב. הרבה לפני כן, נראה היה שאריסטו חשב רגשות דומים למדי.

מקור: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- המקרה-עם-ai-במכוניות-אוטונומיות-נהיגה עצמית/