שיעורי אתיקה של בינה מלאכותית ומערכות אוטונומיות שהפיקו מאותה טיסת אלסקה איירליינס האחרונה שבה הטייס והטייס המשנה לא הסכימו לפני שהמריאו ובחרו בפתאומיות לחזור במונית לטרמינל וללכת בדרכים נפרדות

חברות התעופה היו בחדשות לא מעט לאחרונה.

אנחנו במשבר הטיסות של הקיץ. נוסעים עייפים ומתוסכלים מוצאים את עצמם מתמודדים עם כל מיני שיבושי טיסה ועיוותים בלוח הזמנים של חברות התעופה. טיסות מבוטלות באופן בלתי צפוי. הטיסות מתעכבות. הנוסעים מעיפים. למרבה הצער היו מקרים רבים של נוסעים שמאפשרים להתפרצויות הטעות הללו, וראינו למרבה הצער הרבה יותר מדי סרטונים ויראליים של עימותים ראש בראש ולעיתים קשקושים מפוצצים.

נדיר יותר אנו לומדים על מחלוקות בין טייס לטייס משנה שעלולים להתרחש בזמן שהות בתא הטייס.

זו די הפתעה.

ואכן, באופן טבעי אנו נדהמים לחשוב שלטייס וטייס משנה יהיה מראית עין של אי הסכמה רצינית בכל שלב של טיסה. אם המחלוקת מתייחסת לאיזה מותג קפה הוא הטוב ביותר, ההנחה שלנו היא שזה לא יפריע למאמץ העבודה הכרוך בהטסת המטוס. השניים פשוט היו מתנערים מחוסר עין בעין בנושא שלכאורה לא רלוונטי לטיסה. ההתנהגות המקצועית שלהם והכשרת הטייסים ארוכת השנים שלהם יתחילו לפעול והם יחזירו את המיקוד שלהם לפרטי הטיסה.

קחו בחשבון מתי א אי הסכמה מקצועית מתערב.

אני הולך לחלוק איתכם בקצרה ידיעה שפורסמה בהרחבה על מקרה אחרון של משהו שקרה במהלך טיסה בארה"ב הנוגע לאי הסכמה מקצועית לכאורה בתא הטייס.

זה מצוטט בעיקר כאן כדי שנוכל לחקור נושא קשור שיש לו חשיבות רבה להופעת הבינה המלאכותית (AI). אתה מבין, יכול להיות צורה של אי הסכמה מקצועית בין לא רק בין בני אדם במחלוקת בין אדם לאדם, אלא יכול להיות שמשהו דומה יתרחש תוך אימוץ הבינה המלאכותית וארגונו של אי הסכמות מקצועיות בין בני אדם מול בינה מלאכותית. . עולים כל מיני שיקולי אתיקה של AI. לסיקור הנרחב והמתמשך שלי בנושא אתיקה של בינה מלאכותית ובעיות בינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

תתכוננו לסיפור מרתק.

כפי שפורסם לאחרונה בחדשות, מקרה של "חוסר הסכמה מקצועי" ככל הנראה התעורר במהלך טיסה של חברת התעופה אלסקה שנסעה מוושינגטון לסן פרנסיסקו. לפי הדיווחים בחדשות, הטיסה התרחקה מהשער וחיכתה על האספלט לקבלת אישור למונית ולטיסה. סערה התחוללה והובילה לעיכוב טיסה של יותר משעה וחצי. מסתבר שבסופו של דבר המטוס הסתובב וחזר לשער, שבדרך כלל חלק מהנוסעים עשויים להניח שהוא פשוט אמצעי בטיחות הקשור לסערה.

לפי ציוצים שונים, נראה שלטייס וטייס המשנה היה סוג של ריב מחוץ לטווח הראייה במהלך שהותם שם בתא הטייס ואיכשהו הגיעו למסקנה שהגישה הנבונה ביותר תהיה לקרצף את הטיסה ולחזור לטרמינל. . ציוצים העלו שהקפטן והקצין הראשון כנראה לא יכולים להסתדר זה עם זה. מאוחר יותר פרסמה חברת התעופה הצהרה כי המצב מצער (המצב לא צוין או הוסבר במפורש כשלעצמו), שני קציני הטיסה נבדקו על ידי ההנהלה ונחשבו כשירים לטוס, צוותים הוחלפו, והטיסה אכן התקיימה בסופו של דבר. ובהמשך הגיע לסן פרנסיסקו.

במובן מסוים, אם למעשה לטייס ולטייס המשנה היו חילוקי דעות מקצועיים כגון האם המטוס מוכן כראוי לטיסה או האם הסיכון לטיסה בסערה היה בטווח בטיחות מתאים, יש להקל על אותם נוסעים. אסיר תודה על כך שהמטוס הוחזר לשער. עדיף להיות בטוח מאשר להצטער. עיכוב נוסף שווה את ההפחתה המשוערת של סיכונים הקשורים למסע טיסה נחשב קשוח או שלילי.

חלק מהאנשים עשויים להיות מופתעים מכך שמחלוקת מקצועית כזו עלולה להיווצר.

אולי יש לנו רושם שווא שכל מה שקורה בתא הטייס הוא לגמרי מדויק ומתוכנן היטב. כל צורה של שיקול דעת אנושי נמחקה לכאורה מהתהליך. בהתבסס על תרשימים מדויקים ומחושבים ביסודיות, טיסה או שהיא בסדר או שלא. לא יכולה להיות מחלוקת כאשר כל הערכה והקבוץ נחשבים מבוססים על חישוב בלתי מופרך של עובדות ונתונים.

זו לא האמת המלאה של העניין. בטח, יש שלל פרוטוקולים וכל מיני בלמים ואיזונים, אבל זה לא סוחט את כל שמץ השיפוט האנושי. טייסים וטייסי משנה עדיין מפעילים שיקול דעת אנושי. למרבה המזל, השיפוט האנושי הזה מושחז על ידי שנים של טיסה. רוב הסיכויים לטייס וטייס משנה במטוס נוסעים מסחרי יש שלל נסיון קודם בטיסה וממנפים בקלות את ההגיון הרב והשיפוט המעמיק שלהם לאורך השנים הקשורות בפיקוח הטיסה.

בהתחשב בתפקיד הבולט של השיפוט האנושי, אנו עשויים לצפות באופן הגיוני שלטייס וטייס משנה יהיו לפעמים חילוקי דעות מקצועיים. רוב הזמן יש כנראה מעט מאוד מחלוקת כזו. סביר להניח שהטייס וטייס המשנה לטיסות יומיות יהיו מיושרים היטב על פי רוב הזמן. רק כאשר תרחיש טיסה עלול לצאת מהגבולות המקובלים, אנו מצפים שייווצר חיכוך מתוח יותר.

אם יש חילוקי דעות עזים בין השניים, הייתי מעז לומר שאנחנו רוצים שהם יוציאו את זה החוצה.

תארו לעצמכם מצב שבו הטייס רוצה להמשיך ברצינות אך טייס המשנה קולט שהסיכונים גבוהים מדי. עצם קבלת טייס המשנה לטייס ייראה בלתי רצוי. טייס המשנה הוא בדיקה ואיזון למה שטייס יכול לחשוב לעשות. למי שרוצה שטייס משנה ישתוק ויפעל אך ורק ללא שכל לכל מה שהטייס קבע, ובכן, זה לא הרבה ביטחון. טייס משנה הוא לא רק "טייס" רזרבי שנכנס לתמונה רק כאשר הטייס אינו כשיר לחלוטין. זו הבנה מוטעית של הערך שיש טייס וטייס משנה בתא הטייס.

יש לזה זווית אחרת.

קחו בחשבון את המקרה של טייס שלא מאמין שטיסה צריכה להמשיך ובינתיים טייס המשנה מתלהב מלקום באוויר. מה אז? לפי ההיררכיה הצפויה, הטייס אמור לגבור כרגיל על טייס המשנה. התפקיד המיועד להיות האחראי הראשי הופך את הטייס לגדול יותר ממה שאחרת הוא שווה משהו. בדרך כלל, לטייס יש יותר תיבול זמן טיסה כולל מאשר לטייס המשנה, ואכן טייס המשנה אמור היררכית לדחות את רצונו של הטייס (כאשר הוא סביר).

בכל מקרה, אני חושב שכולנו יכולים להסכים שבחירה לא לטוס היא בוודאי בחירה פחות מסוכנת מאשר החלטה לטוס. ברגע שהמטוס עולה באוויר, רמות הסיכון נעשות עצומות בהשוואה להימצאות על כל קרקע יציבה רגילה. טיסה מסחרית נהוגה שפשוט נוסעת במונית חזרה לטרמינל מבלי שעלתה לאוויר תהיה פתרון ידידותי למדי לכל ויכוח סוער וחריף על כניסה לטיסה.

בואו נעביר הילוך ונשתמש באייטם החדשותי המטורף הזה למטרה שונה לחלוטין אך ניתנת לזיהוי.

יש לנו בהדרגה בינינו שכיחות של מערכות אוטונומיות מבוססות בינה מלאכותית. לפעמים ה-AI מנהל את התוכנית, כביכול. ה-AI עושה הכל מא' ועד ת', ואנחנו עשויים לפרש זאת כ-AI שהוא אוטונומי לחלוטין או כמעט כך. במקרים אחרים, יכול להיות לנו בינה מלאכותית שמקיימת אינטראקציה עם ובמידה מסוימת מתוכנתת להיות תלויה באדם שבלולאה.

אני רוצה להתרכז בעניין של מערכת אוטונומית או חצי אוטונומית מבוססת בינה מלאכותית, שמלכתחילה יש לו אדם במעגל. הבינה המלאכותית והאדם נדחפים יחד בכוונה ואמורים לעבוד יחד זה עם זה. הם קבוצות בביצוע משימה מסוימת בהישג יד. ה-AI לבדו לא אמור לפעול במשימה. ה-AI חייב לקיים אינטראקציה עם האדם המיועד בלולאה.

אני מעלה את האפיון הזה כדי להבדיל ממצבים שבהם האדם שבלולאה נחשב לפן אופציונלי. למעשה, ניתנת דרור ל-AI. אם הבינה המלאכותית תבחר לעשות שימוש באדם, אז שיהיה זה לעשות זאת. אין דרישה שה-AI יצטרך לגעת בבסיס או לעבוד יד ביד עם האדם המיועד. הניתוחים שאני עומד להתייחס אליהם הם בהחלט רלוונטיים לסוג כזה אופציונלי הסדר אינטראקציה, אבל זה לא מה שאני נוהג בו במיוחד בדיון הספציפי הזה.

אוקיי, אז יש לנו איזושהי משימה שאדם ובינה מלאכותית יעבדו עליה יחד, ללא הפרדה אחד מהשני. במובן מופשט, יש לנו אדם יושב במושב אחד ומערכת AI יושבת במושב המלווה השני. אני אומר את זה בחוצפה כי אנחנו לא מגבילים את הדיון הזה לרובוט, למשל, שאולי באמת יושב במושב. אני רומז באופן מטפורי לתפיסה שה-AI נמצא איפשהו שמשתתף במשימה וכך גם האדם. מבחינה פיזית, מקום הימצאם אינו חיוני במיוחד לדיון.

אתה עלול להיות לא בטוח מתי נסיבות כאלה עשויות להתרחש.

קלי קלות.

בהמשך, אדון בהופעתם של כלי רכב אוטונומיים ומכוניות לנהיגה עצמית. ברמות מסוימות של אוטונומיה, ה-AI והאדם אמורים לעבוד יחד. ייתכן שה-AI נוהג במכונית ומבקש שהאדם ישתלט על בקרות הנהיגה. ייתכן שהאדם נוהג במכונית ומפעיל את הבינה המלאכותית כדי להשתלט על הפקדים. הם מתחלפים בפקדי הנהיגה.

בנוסף, עיצובים מסוימים גורמים לכך שה-AI יהיה פעיל כל הזמן (או, אלא אם כן כבוי), כך שה-AI תמיד מוכן. יתר על כן, הבינה המלאכותית עשויה להתערב ישירות, אפילו בלי שהאדם יבקש, בהתאם למצב שמתפתח. נניח למשל שהאדם נראה כאילו נרדם על ההגה. מכיוון שהאדם אינו יכול להפעיל לכאורה את ה-AI (מכיוון שהאדם ישן), ה-AI עשוי להיות מתוכנת להשתלט על השליטה מהאדם.

עיצובים מסוימים מביאים את הבינה המלאכותית ואת בני האדם לגישת נהיגה כפולה. הבינה המלאכותית נוהגת והאדם נוהג. או, אם אתה מעדיף, האדם נוהג וה-AI גם נוהג. כל אחד מהם נוהג ברכב. אני משווה את זה לאותן מכוניות מאובזרות במיוחד שאולי השתמשת בהן כשלקחת הכשרת נהג והיו שני סטים של בקרות נהיגה ברכב, אחד לנהג הסטודנט ואחד למורה הנהיגה.

זו רק דוגמה אחת לסביבה שבה AI ובני אדם עשויים לעבוד במשותף על משימה. קיימות כל מיני אפשרויות. סוגים אחרים של כלי רכב אוטונומיים עשויים להיות מתוכננים באופן דומה, כגון מטוסים, מל"טים, צוללות, ספינות שטח, רכבות וכן הלאה. אנחנו לא צריכים להתייחס רק להגדרות של כלי רכב ותחבורה. דמיינו את התחום הרפואי ואת הניתוחים המבוצעים במשותף על ידי רופא רפואי ומערכת בינה מלאכותית. הרשימה אינסופית.

כמעט מתחשק לי להתייחס לבדיחה הזועמת הקלאסית על בן אדם ובינה מלאכותית שנכנסים יחד לבר. זה די צוחק עבור אלה שעוסקים בבינה מלאכותית.

ברצינות, בואו נחזור לפוקוס של מערכת אנושית ומערכת בינה מלאכותית שעובדת יחד על משימה נתונה. ראשית, אני רוצה להימנע מאנתרופומורפיזציה של AI, וזה משהו שאדגיש לאורך כל הדרך. ה-AI אינו בעל רגישות. אנא קח זאת בחשבון.

הנה משהו להתלבט עליו: האם אדם ייעודי במעגל תמיד יהיה בהסכמה מוחלטת עם AI בשיתוף פעולה?

עבור כל משימה מורכבת, זה נראה לא סביר שהאדם וה-AI יהיו לגמרי ותמיד בנעילה ובצעד. האדם עשוי במקרים מסוימים לא להסכים עם הבינה המלאכותית. אנחנו יכולים לקחת את ההנחה הזו עד לבנק.

אני רוצה שתשקול גם את האפשרות המפתיעה הזו אולי: האם הבינה המלאכותית תמיד תהיה בהסכמה מוחלטת עם אדם שמיועד לכך?

שוב, עבור כל משימה מורכבת, זה נראה בהחלט מתקבל על הדעת ש-AI לא יהיה בהסכמה עם בני אדם בהזדמנויות מסוימות. אם אתה כבר נוטה לרעיון שבינה מלאכותית חייבת תמיד לטעות בעוד שבני אדם חייבים תמיד להיות צודקים, יהיה חכם לחשוב מחדש על המסקנה הנמהרת הזו. דמיינו מכונית שיש לה אדם ובינה מלאכותית המניעה יחד את הרכב האוטונומי למחצה. האדם נווט לעבר קיר לבנים. למה? אנחנו לא יודעים, אולי האדם שיכור או נרדם, אבל אנחנו יודעים שלהתרסק בקיר לבנים זה לא רעיון טוב, כל השאר שווה. הבינה המלאכותית עשויה לזהות את האסון הקרוב ולחפש להתרחק מהמחסום הממשמש ובא.

בסך הכל, תהיה לנו אפשרות ברורה שה-AI והאדם לא יסכימו זה עם זה. הדרך השנייה לומר את אותו הדבר היא שבני אדם ובינה מלאכותית לא מסכימים אחד עם השני. שימו לב שאני לא רוצה שהרצף של בינה מלאכותית ואדם מול אדם ו-AI יציע שום דבר לגבי הכיוון או הסבירות של אי ההסכמה.

שני העובדים, אחד אנושי ואחד שהוא AI, אינם מסכימים זה עם זה.

אנו יכולים להכריז מראש שבכל פעם שמתרחשת מחלוקת בין AI נתון לאדם נתון, אנו מכריזים מראש שהאדם גובר על AI. עם זאת, נראה שהדוגמה הממחישה שלי לגבי המכונית שנכנסת לקיר לבנים מרתיעה אותנו שהאדם תמיד בהכרח צודק.

אנחנו יכולים, לעומת זאת, לבחור להכריז מראש שבכל פעם שמתעוררת מחלוקת, קבענו מראש שה-AI צודק והאדם טועה. גם זו אינה הוראה הניתנת להכללה הגיונית. תארו לעצמכם מכונית שבה ל-AI יש שגיאת תוכנה או באג מוטמעת, וה-AI מנסה לנתב את הרכב מהכביש ולתעלה. בהנחה שכל השאר שווה, האדם אמור להיות מסוגל להתגבר על פעולת הנהיגה הזו של AI ולמנוע מהרכב לנחות בתעלה.

בואו נעשה סיכום קצר של זה:

  • האם אדם שבלולאה תמיד יהיה בהסכמה מוחלטת עם AI? תשובה: 'מס
  • האם בינה מלאכותית תמיד תהיה בהסכמה מוחלטת עם אדם שנמצא במעגל? תשובה: לא.
  • האם אדם במעגל תמיד יהיה צודק בהשוואה לבינה מלאכותית? תשובה: לא בהכרח.
  • האם הבינה המלאכותית תמיד תהיה נכונה בהשוואה לאדם שבלולאה? תשובה: לא בהכרח.

אתה בהחלט יכול להגדיר את ה-AI כך שייחשב כברירת מחדל כצד "שגוי" או חלש יותר, ולכן תמיד לדחות את האדם בכל פעם שמופיעה אי הסכמה. כמו כן, אתה יכול להגדיר את AI כך שה-AI נחשב "נכון" בכל פעם שאדם אינו מסכים עם ה-AI. אני רוצה להבהיר שאנחנו יכולים לעשות זאת באופן תוכניתי אם נרצה לעשות זאת. אני טוען שבאופן כללי, זה לא תמיד יהיה כך. אין ספק שישנן הגדרות שבהן איננו יודעים מראש אם הבינה המלאכותית "צודקת" או שהאדם "צודק" מבחינת בחירה באחת או אחרת באי הסכמה הקשורה למשימה נתונה.

הובלתי אותך לשאלה מאוד חשובה ומאוד מסובכת.

מה עלינו לעשות כאשר מתרחשת מחלוקת מקצועית בין האדם-בלולאה ובין הבינה המלאכותית (או, באופן שווה ערך, נוכל לנסח זאת כמי שבין הבינה המלאכותית והאדם שבלולאה)?

אל תנסה להתחמק מהשאלה.

יש שיטענו שזה לעולם לא יקרה, אבל כפי שציינתי בדוגמה שלי לגבי המכונית, זה בהחלט יכול לקרות. יש שיטענו שאדם הוא כמובן עליון וחייב להיות המנצח בכל מחלוקת. הדוגמה שלי של המכונית וקיר הלבנים מפילה את זה. ישנם תומכי בינה מלאכותית שעשויים להתעקש כי בינה מלאכותית חייבת להיות המנצחת, בשל התגברות לכאורה על רגשות אנושיים וחשיבה זניחה של אותם בני אדם סתמיים בעלי חשיבה מטושטשת. שוב, הדוגמה האחרת שלי שכוללת את המכונית היוצאת לתעלה חותרת את הקביעה הזו.

בעולם האמיתי, בינה מלאכותית ובני אדם עומדים לא להסכים, אפילו כאשר השניים מובאים בכוונה למצב של צוות כדי לבצע משימה שנעשתה במשותף. זה יקרה. אנחנו לא יכולים להכניס את הראש בחול ולהעמיד פנים שזה לא יקרה.

ראינו שבני האדם המטיסים את המטוס נקלעו כנראה למחלוקת. למרבה המזל, הם הסכימו לא להסכים, כך נראה. הם החזירו את המטוס לטרמינל. הם מצאו אמצעי להתמודד עם אי ההסכמה. הפתרון לחוסר ההסכמה ביניהם עבד היטב, בהשוואה לאם אולי הם הלכו לעימותים בתא הטייס או אולי עפו לאוויר והמשיכו להיות קרביים זה עם זה. זהו תרחיש עצוב שאינו בר קיימא, ואנחנו יכולים להיות אסירי תודה שלא התרחש.

הרשה לי לספק את הרשימה שלי של הדרכים השונות שבהן ניתן לפתור את חילוקי הדעות בין הבינה המלאכותית והאדם שבלולאה (או, האדם שבלולאה ובינה מלאכותית):

  • בינה מלאכותית והאדם המשולב מסתדרים (בידידות או לא)
  • אנושי גובר על הבינה המלאכותית, כברירת מחדל
  • AI גובר על האדם, כברירת מחדל
  • רזולוציה קבועה אחרת שנקבעה מראש שוררת, כברירת מחדל
  • אנושיים של צד שלישי מובלים בלולאה והציון שלהם גובר על הצדדים
  • בינה מלאכותית של צד שלישי מחוברת ללולאה והאינדיקציה שלה גוברת על הצדדים
  • אנושי צד שלישי מחליף את האדם הקיים, דברים ממשיכים מחדש
  • AI של צד שלישי מחליף את ה-AI הקיים, הדברים ממשיכים מחדש
  • אדם של צד שלישי מחליף את הבינה המלאכותית הקיימת, דברים ממשיכים מחדש (עכשיו מאדם לאדם)
  • בינה מלאכותית של צד שלישי מחליפה את האדם הקיים, דברים ממשיכים מחדש (עכשיו AI-to-AI)
  • אחר

אלה ראויים בשפע לפרוק אותם.

לפני שנכנס לעוד קצת בשר ותפוחי אדמה על השיקולים הפראיים והצמריים העומדים בבסיס ההתמודדות עם AI וחילוקי דעות אנושיים, בואו נפרוש כמה יסודות נוספים בנושאים חיוניים מאוד. עלינו לצלול בקצרה לתוך אתיקה של בינה מלאכותית ובמיוחד בהופעת למידת מכונה (ML) ולמידה עמוקה (DL).

אולי אתם מודעים במעורפל לכך שאחד הקולות החזקים ביותר בימינו בתחום הבינה המלאכותית ואפילו מחוץ לתחום הבינה המלאכותית מורכב מהצעקה למראה גדול יותר של בינה מלאכותית אתית. בואו נסתכל על מה זה אומר להתייחס לאתיקה של בינה מלאכותית ולאתיקה בינה מלאכותית. נוסף על כך, נחקור למה אני מתכוון כשאני מדבר על למידת מכונה ולמידה עמוקה.

פלח או חלק מסוים של אתיקה של בינה מלאכותית שזכו לתשומת לב רבה בתקשורת מורכבים מבינה מלאכותית המפגינה הטיות וחוסר שוויון לא רצויים. אתה אולי מודע לכך שכשהעידן האחרון של בינה מלאכותית יצא לדרך, היה פרץ עצום של התלהבות ממה שחלק מכנים עכשיו AI לתמיד. לרוע המזל, בעקבות אותה התרגשות גועשת, התחלנו להיות עדים AI למען הרע. לדוגמה, מערכות שונות של זיהוי פנים מבוססות בינה מלאכותית התגלו כמכילות הטיות גזעיות והטיות מגדריות, שעליהן דיברתי ב- הקישור כאן.

מאמצים להילחם נגד AI למען הרע פועלים באופן פעיל. חוץ מזה קולני משפטי בשאיפה לרסן את העוולות, יש גם דחיפה מהותית לאימוץ אתיקה של AI כדי לתקן את גנאי הבינה המלאכותית. הרעיון הוא שעלינו לאמץ ולאמץ עקרונות מפתח אתיים בינה מלאכותית לפיתוח ותחום ה- AI לעשות זאת כדי להפחית את AI למען הרע ובו זמנית מבשר וקידום העדיף AI לתמיד.

לגבי רעיון קשור, אני תומך בניסיון להשתמש בבינה מלאכותית כחלק מהפתרון לבעיות בינה מלאכותית, להילחם באש עם אש באופן חשיבה זה. אנו יכולים למשל להטמיע רכיבי בינה מלאכותית אתית לתוך מערכת בינה מלאכותית שתפקח על אופן הפעולה של שאר הבינה המלאכותית ובכך עשויה לתפוס בזמן אמת כל מאמצים מפלים, ראה הדיון שלי ב- הקישור כאן. יכול להיות לנו גם מערכת AI נפרדת הפועלת כסוג של צג אתיקה של AI. מערכת הבינה המלאכותית משמשת כמפקחת כדי לעקוב ולזהות מתי בינה מלאכותית אחרת נכנסת לתהום הלא אתית (ראה ניתוח שלי של יכולות כאלה ב הקישור כאן).

בעוד רגע, אשתף אתכם בכמה עקרונות-על העומדים בבסיס אתיקה של AI. יש המון רשימות כאלה שמסתובבות פה ושם. אפשר לומר שעדיין אין רשימה יחידה של ערעור והסכמה אוניברסליים. אלו החדשות המצערות. החדשות הטובות הן שלפחות ישנן רשימות אתיקה של AI והן נוטות להיות די דומות. בסך הכל, זה מצביע על כך שבאמצעות סוג של התכנסות מנומקת אנו מוצאים את דרכנו לעבר משותף כללי של מה שמכיל אתיקה של AI.

ראשית, הבה נסקור בקצרה כמה מהמצוות האתיות הכוללות בינה מלאכותית כדי להמחיש מה אמור להיות שיקול חיוני עבור כל מי שמעצב, מעבד או משתמש בבינה מלאכותית.

לדוגמה, כפי שנאמר על ידי הוותיקן ב רומא קריאה לאתיקה של AI וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • שקיפות: באופן עקרוני, מערכות AI חייבות להיות ניתנות להסבר
  • הַכלָלָה: יש לקחת בחשבון את הצרכים של כל בני האדם כדי שכולם יוכלו להפיק תועלת, ולהציע לכל הפרטים את התנאים הטובים ביותר להתבטא ולהתפתח
  • אַחֲרָיוּת: מי שמתכננים ומפרסים את השימוש ב-AI חייבים להמשיך באחריות ובשקיפות
  • חוסר זוגיות: אין ליצור או לפעול על פי הטיה, ובכך לשמור על הגינות וכבוד האדם
  • אֲמִינוּת: מערכות AI חייבות להיות מסוגלות לעבוד בצורה אמינה
  • בטיחות ופרטיות: מערכות AI חייבות לעבוד בצורה מאובטחת ולכבד את פרטיות המשתמשים.

כפי שנאמר על ידי משרד ההגנה האמריקאי (DoD) בכתביהם עקרונות אתיים לשימוש בבינה מלאכותית וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • אחראי: אנשי DoD יפעילו רמות מתאימות של שיקול דעת וטיפול תוך שהם יישארו אחראים לפיתוח, פריסה ושימוש ביכולות AI.
  • הוֹגֶן: המחלקה תנקוט בצעדים מכוונים כדי למזער הטיה לא מכוונת ביכולות הבינה המלאכותית.
  • ניתן למעקב: יכולות ה-AI של המחלקה יפותחו וייפרסו כך שלצוות הרלוונטי יהיה הבנה מתאימה של הטכנולוגיה, תהליכי הפיתוח והשיטות התפעוליות החלות על יכולות בינה מלאכותית, לרבות מתודולוגיות שקופות וניתנות לביקורת, מקורות נתונים ונוהל עיצוב ותיעוד.
  • אָמִין: ליכולות הבינה המלאכותית של המחלקה יהיו שימושים מפורשים ומוגדרים היטב, והבטיחות, האבטחה והיעילות של יכולות כאלה יהיו כפופות לבדיקה והבטחה במסגרת אותם שימושים מוגדרים לאורך כל מחזור החיים שלהן.
  • ניתן לממשל: המחלקה תתכנן ותהנדס יכולות בינה מלאכותית למילוי הפונקציות המיועדות להן תוך יכולת לזהות ולהימנע מהשלכות לא מכוונות, ויכולת לנטרל או להשבית מערכות פרוסות המפגינות התנהגות לא מכוונת.

דנתי גם בניתוחים קולקטיביים שונים של עקרונות האתיקה של בינה מלאכותית, כולל כיסיתי סט שהומצא על ידי חוקרים שבדק וריכז את המהות של עקרונות אתיקה לאומיים ובינלאומיים רבים של AI במאמר שכותרתו "הנוף הגלובלי של הנחיות האתיקה של בינה מלאכותית" (שפורסם) ב טבע), ושהסיקור שלי בוחן ב הקישור כאן, שהובילה לרשימת אבני המפתח הזו:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

כפי שאתה יכול לנחש ישירות, הניסיון לדייק את הפרטים העומדים בבסיס העקרונות הללו יכול להיות קשה מאוד. אפילו יותר מכך, המאמץ להפוך את העקרונות הרחבים הללו למשהו מוחשי ומפורט מספיק כדי לשמש בעת יצירת מערכות בינה מלאכותית הוא גם אגוז קשה לפיצוח. קל בסך הכל לנפנף קצת ביד על מה הם מצוות האתיקה של בינה מלאכותית וכיצד יש להקפיד עליהן באופן כללי, בעוד שזה מצב הרבה יותר מסובך בקידוד הבינה המלאכותית שצריך להיות הגומי האמיתי שפוגש את הדרך.

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים את מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית. כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שצוין קודם לכן, נדרש כפר כדי להמציא ולהשיג בינה מלאכותית, ועבורו הכפר כולו צריך להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

בואו גם נוודא שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי מרגיש AI, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לשקול שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שחלק משערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

בואו נשאיר את הדברים יותר מדוייקים ונשקול את הבינה המלאכותית החישובית הלא-חושית של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

בואו נחזור להתמקדות שלנו באי הסכמות בין AI לאדם.

ציינתי קודם לכן, אלו הן כמה מהאסטרטגיות לפתרון אי הסכמה:

  • בינה מלאכותית והאדם המשולב מסתדרים (בידידות או לא)
  • אנושי גובר על הבינה המלאכותית, כברירת מחדל
  • AI גובר על האדם, כברירת מחדל
  • רזולוציה קבועה אחרת שנקבעה מראש שוררת, כברירת מחדל
  • אנושיים של צד שלישי מובלים בלולאה והציון שלהם גובר על הצדדים
  • בינה מלאכותית של צד שלישי מחוברת ללולאה והאינדיקציה שלה גוברת על הצדדים
  • אנושי צד שלישי מחליף את האדם הקיים, דברים ממשיכים מחדש
  • AI של צד שלישי מחליף את ה-AI הקיים, הדברים ממשיכים מחדש
  • אדם של צד שלישי מחליף את הבינה המלאכותית הקיימת, דברים ממשיכים מחדש (עכשיו מאדם לאדם)
  • בינה מלאכותית של צד שלישי מחליפה את האדם הקיים, דברים ממשיכים מחדש (עכשיו AI-to-AI)
  • אחר

הגיע הזמן לפרוק את אלה.

ראשית, קחו בחשבון שבסך הכל מדובר מקצועי חילוקי דעות.

אי הסכמה מקצועית מוגדרת באופן רופף כאי הסכמה הקשורה למשימה הקשורה לעבודה.

לדוגמה, מחלוקת שמתעוררת בין טייס וטייס משנה בשאלה האם להמשיך בטיסה שעומדת בפני סערה, יכולה להיות מסומנת באופן סביר כאי הסכמה מקצועית. לעומת זאת, מחלוקת חריפה לגבי איזה מותג קפה דוגל הטייס מול המותג אותו מעדיף טייס המשנה, מסווגת בקלות כאי הסכמה לא מקצועית בהקשר המסוים הזה.

כמובן שאם אי הסכמה לא מקצועית תולעת את דרכה למחלוקת מקצועית, ייתכן שבסופו של דבר נתעניין באי הסכמה לא מקצועית כמקור משוער או ניצוץ לבעל המקצוע. תארו לעצמכם שטייס וטייס משנה מתווכחים קשות על איזה מותג קפה הוא הטוב ביותר, שלמרבה הצער גולש לחששות ספציפיים לטיסה (משחק מילים!), כמו האם להמריא או לא.

שנית, עלינו לזכור את גודל אי ההסכמה המקצועית.

אולי הטייס וטייס המשנה או בחוסר הסכמה קלה לגבי המשך הטיסה. הם אינם מסוכסכים ורק שוקלים את היתרונות והחסרונות של האם להמריא. זה לא הרמה או הגודל של מחלוקת מקצועית שאנחנו נוהגים לשקול כאן. העניין הוא שיכול להיות שהמחלוקת המקצועית היא חולפת ושני הצדדים מחליטים על פתרון בלבביות או לפחות בזמן. בדרך כלל, המוקד של חילוקי דעות מקצועיים בטווח הם אלה שלכאורה בלתי ניתנים לפתרון, ושני הצדדים נותרים בחוסר הסכמה איתנים.

שלישית, בדרך כלל צריך להיות משהו רציני על הפרק כדי שההנחיות האלה יכנסו לפעולה.

בחירה לטוס או לא לטוס היא בהחלט סוג של החלטה של ​​חיים או מוות אם הטיסה נמצאת בסיכון בגלל סערה או שהמטוס נחשב לא מוכן לחלוטין למסע כזה. זה עסק רציני. אנחנו עדיין יכולים ליישם את ההנחיות על חילוקי דעות מקצועיים פחות משפיעים, אם כי זה עשוי להיות מטריד יותר ממה שזה שווה.

אוקיי, השיקולים שלנו הם ש:

  • אי ההסכמה היא בעיקרה מכוונת מקצועית ולא על משהו לא מקצועי
  • אי ההסכמה היא בעלת אופי מתמשך ואינה רק חולפת או נפתרת בקלות בדרך אחרת
  • אי ההסכמה מנבאת השלכות חמורות ובדרך כלל היא בעלת תוצאה משפיעה
  • הצדדים מסוכסכים והם נראים בלתי ניתנים לפתרון

כעת נסתכל מקרוב על כל אחת מההנחיות או הגישות המוצעות שלי לגבי איך להתמודד עם חילוקי דעות מקצועיים כאלה.

בינה מלאכותית והאדם המשולב מסתדרים (בידידות או לא)

אני מתחיל את הרשימה עם האפשרות הפשוטה שה-AI והאדם שבלולאה מסוגלים לפתור את אי ההסכמה המקצועית בינם לבין עצמם. נראה שאולי המקרה של שני בני האדם, הטייס וטייס המשנה ממחיש סוג זה של נסיבות. הם איכשהו החליטו לחזור לטרמינל וללכת לדרכם. יכול להיות שמערכת בינה מלאכותית ואדם מסוגלים להבין גישה פתירה שבדרך כלל משביעת רצון לשני הצדדים, ובכך העניין מסתיים בצורה משביעת רצון.

אנושי גובר על הבינה המלאכותית, כברירת מחדל

בעת הגדרת ה-AI, אנו עשויים לתכנת כלל שאומר שהאדם שבלולאה תמיד ינצח בכל פעם שמתעוררת מחלוקת מקצועית. זו תהיה ברירת המחדל המקודדת במפורש. אנו עשויים גם לאפשר צורה כלשהי של עקיפה, לכל מקרה, אם כי הכלל הקבוע יהיה שהאדם מנצח.

AI גובר על האדם, כברירת מחדל

בעת הגדרת ה-AI, אנו עשויים לתכנת כלל שאומר שה-AI תמיד יגבר על האדם שבלולאה בכל פעם שמתעוררת אי הסכמה מקצועית. זוהי ברירת המחדל המקודדת במפורש. אנו עשויים גם לאפשר צורה כלשהי של עקיפה, לכל מקרה, אם כי הכלל הקבוע יהיה שה-AI מנצח.

רזולוציה קבועה אחרת שנקבעה מראש שוררת, כברירת מחדל

בעת הגדרת ה-AI, אנו עשויים לתכנת כלל שאומר שרזולוציה קבועה אחרת שנקבעה מראש תגבר בכל פעם שמתעוררת אי הסכמה מקצועית עם האדם שבלולאה. האדם-בלולאה אינו מנצח כברירת מחדל. ה-AI אינו שולט כברירת מחדל. יש החלטה אחרת מזוהה מראש. למשל, אולי ישנה הטלת מטבע שתשמש כדי להחליט מי משני הצדדים נחשב לדרך הנכונה ללכת. ברור שזה ייראה די שרירותי; לפיכך, גישה נוספת לדוגמא תהיה שחוק מיוחד שמחשב ערך המבוסס על תשומות משני הצדדים ומגיע לתוצאה כשובר שוויון.

אנושיים של צד שלישי מובלים בלולאה והציון שלהם גובר על הצדדים

במקרה של מחלוקת מקצועית, הכלל יכול להיות שצד שלישי שהוא אנושי מופעל ונכנס למסגרת כדי לקבל החלטה לגבי פתרון המחלוקת. הבינה המלאכותית מתוכנתת לדחות את כל מה שאדם צד שלישי יחליט. האדם שכבר נמצא ב-Human-in-the-loop קיבל הוראה מראש שאם יתעורר מצב כזה, גם הם צריכים לדחות את הצד השלישי. חוץ מזה, סביר להניח שאתה יכול לצפות שלאדם שבלולאה עשוי להיות חרדה בגלל ההיענות לכל מה שאדם הצד השלישי יחליט אם ההחלטה לא תואמת את תנוחת האדם שבלולאה.

בינה מלאכותית של צד שלישי מחוברת ללולאה והאינדיקציה שלה גוברת על הצדדים

במקרה של מחלוקת מקצועית, הכלל יכול להיות שצד שלישי שהוא מערכת בינה מלאכותית שונה מופעל ונכנס לתוך ההגדרה כדי לקבל החלטה לגבי פתרון המחלוקת. ה-AI המקורי מתוכנת לדחות את כל מה שה-AI של הצד השלישי יחליט. האדם שכבר נמצא ב-Human-in-the-loop קיבל הוראה מראש שאם יתעורר מצב כזה, גם הם צריכים לדחות את ה-AI של הצד השלישי. מלבד זאת, סביר להניח שאתה יכול לצפות שהאדם שבלולאה עשוי לחוש חרדה בגלל ההיענות לכל מה שה-AI של הצד השלישי יחליט אם ההחלטה לא תואמת את תנוחת האדם בתוך הלולאה.

אנושי צד שלישי מחליף את האדם הקיים, דברים ממשיכים מחדש

עם אי הסכמה מקצועית, האדם-in-the-loop מוחלף בצד שלישי שהוא אנושי והופך מעתה ל-Human-in-the-loop. האדם שהיה האדם המקורי של המשימה לא נחשב עוד חלק מהמשימה שעל הפרק. זהו היבט פתוח לגבי מה שקורה אחרת עם האדם-בלולאה שהוחלף כעת, אבל אנחנו אומרים שבטוח אין להם עוד תפקיד מתמשך במשימת העבודה.

AI של צד שלישי מחליף את ה-AI הקיים, הדברים ממשיכים מחדש

לאחר מחלוקת מקצועית, ה-AI מוחלף ב-AI של צד שלישי וזה הופך ל-AI המשמש מעתה למשימת העבודה שעל הפרק. ה-AI ששימש במקור עבור המשימה כבר לא נחשב לחלק מהמשימה שעל הפרק. זהו היבט פתוח לגבי מה שקורה אחרת עם הבינה המלאכותית שהוחלפה כעת, אבל אנחנו אומרים שלבטח ל-AI כבר אין תפקיד מתמשך במשימת העבודה.

אדם של צד שלישי מחליף את הבינה המלאכותית הקיימת, דברים ממשיכים מחדש (עכשיו מאדם לאדם)

לאחר אי הסכמה מקצועית, ה-AI מוחלף באדם צד שלישי שעבורו אותו אדם הופך כעת לגורם המשותף הנחשב שישמש עבור משימת העבודה העומדת על הפרק. ה-AI ששימש במקור עבור המשימה כבר לא נחשב לחלק מהמשימה שעל הפרק. זהו היבט פתוח לגבי מה שקורה אחרת עם הבינה המלאכותית שהוחלפה כעת, אבל אנחנו אומרים שלבטח ל-AI כבר אין תפקיד מתמשך במשימת העבודה. בקיצור, עכשיו זה הופך למשימה של שני צדדים מאדם לאדם.

בינה מלאכותית של צד שלישי מחליפה את האדם הקיים, דברים ממשיכים מחדש (עכשיו AI-to-AI)

לאחר אי הסכמה מקצועית, האדם שבלולאה מוחלף ב-AI של צד שלישי ובינה מלאכותית זו הופכת מעתה ל-fill-in עבור האדם-in-the-loop הקודם. האדם שהיה האדם המקורי של המשימה לא נחשב עוד חלק מהמשימה שעל הפרק. זהו היבט פתוח לגבי מה שקורה אחרת עם האדם-בלולאה שהוחלף כעת, אבל אנחנו אומרים שבטוח אין להם עוד תפקיד מתמשך במשימת העבודה. בקיצור, זה הופך כעת ל-AI דו-צדדי ל-AI לביצוע המשימה.

אחר

ניתן להמציא וריאציות אחרות כדי להתמודד עם אי הסכמה מקצועית, אך כיסינו כאן כמה מאבני המפתח.

כיצד נחליט איזו מהגישות הללו תהיה המתאימה למצב נתון?

מגוון רחב של נושאים נכנסים לבחירה כזו. יש שיקולים טכנולוגיים. יש שיקולים עסקיים. יש שיקולים משפטיים ואתיים.

במידה מסוימת, זו הסיבה שהאתיקה של AI ובינה מלאכותית אתית היא נושא כה מכריע. מצוות האתיקה של AI גורמות לנו להישאר ערניים. טכנולוגים בינה מלאכותית יכולים לפעמים להתעסק בטכנולוגיה, במיוחד באופטימיזציה של ההייטק. הם לא בהכרח שוקלים את ההשלכות החברתיות הגדולות יותר. קיום חשיבה של אתיקה בינה מלאכותית ועושה זאת באופן אינטגרלי לפיתוח ותחום בינה מלאכותית היא חיונית להפקת בינה מלאכותית מתאימה, כולל (אולי באופן מפתיע או אירוני) ההערכה של האופן שבו אתיקה של בינה מלאכותית מאומצת על ידי חברות.

מלבד שימוש במצוות האתיקה של בינה מלאכותית באופן כללי, ישנה שאלה מקבילה האם צריכים להיות לנו חוקים שישלטו על שימושים שונים בבינה מלאכותית. חוקים חדשים מתגבשים ברמה הפדרלית, המדינתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא הדרגתי. אתיקה של בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים נחרצות שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. למעשה, הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית האלה, נהרוג את אווז הזהב על ידי מניעת התקדמות בינה מלאכותית שמעניקה יתרונות חברתיים עצומים.

בשלב זה של הדיון הכבד הזה, אני מתערב שאתה מעוניין בכמה דוגמאות להמחשה שעשויות להציג את הנושא הזה. יש מכלול מיוחד ופופולארי של דוגמאות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית, כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות מציאותיות המציגות דילמות של אתיקה של בינה מלאכותית, כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות בינה מלאכותית זו הוא הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית מאירה משהו לגבי פתרונות אי הסכמה של בינה מלאכותית ובין אדם, ואם כן, מה זה מציג לראווה?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

לשם הבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שבהן ה- AI נוהג במכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לחלוק במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות שחולקות בשיתוף את משימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAS (Advanced Driver-Assistance Systems).

עדיין אין מכונית נהיגה עצמית אמיתית ברמה 5, ואנחנו עדיין לא יודעים אפילו אם זה יהיה אפשרי, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מכוניות בנהיגה עצמית ואי הסכמה בינה מלאכותית מול בני אדם

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני מקווה שזה מספק כמות מספקת של אזהרות כדי לעמוד בבסיס מה שאני עומד להתייחס אליו.

עבור כלי רכב אוטונומיים לחלוטין, ייתכן שלא יהיה שום סיכוי לאי הסכמה מקצועית בין אדם לבין ה-AI בגלל האפשרות שאין שום אדם בלולאה מלכתחילה. השאיפה של רבים מיצרניות המכוניות בנהיגה עצמית כיום היא להוציא את הנהג האנושי לחלוטין ממשימת הנהיגה. הרכב אפילו לא יכיל בקרות נהיגה נגישות לאדם. במקרה זה, נהג אנושי, אם נוכח, לא יוכל להשתתף במשימת הנהיגה מכיוון שאין לו גישה לכל בקרות הנהיגה.

עבור חלק מכלי רכב אוטונומיים לחלוטין, עיצובים מסוימים עדיין מאפשרים לאדם להיות במעגל, אם כי האדם אינו חייב להיות זמין או להשתתף בתהליך הנהיגה כלל. לפיכך, אדם יכול להשתתף בנהיגה, אם האדם מעוניין בכך. בשום שלב, הבינה המלאכותית אינה מסתמכת על האדם לביצוע כל אחת ממשימות הנהיגה.

במקרה של כלי רכב חצי אוטונומיים, יש קשר יד ביד בין הנהג האנושי לבין הבינה המלאכותית. הנהג האנושי יכול להשתלט לחלוטין על בקרות הנהיגה ובעצם לעצור את הבינה המלאכותית מלהשתתף בנהיגה. אם הנהג האנושי רוצה להחזיר את הבינה המלאכותית לתפקיד הנהיגה, הוא יכול לעשות זאת, אם כי זה מאלץ לפעמים את האדם לוותר על בקרות הנהיגה.

צורה אחרת של פעולה אוטונומית למחצה תחייב את הנהג האנושי וה-AI לעבוד יחד בשיתוף פעולה. הבינה המלאכותית נוהגת והאדם נוהג. הם נוסעים יחד. הבינה המלאכותית עשויה לדחות את האדם. האדם עשוי לדחות את הבינה המלאכותית.

בשלב מסוים, מערכת הנהיגה בינה מלאכותית והנהג האנושי בלולאה עלולים להגיע לצומת של "חוסר הסכמה מקצועית" לגבי משימת הנהיגה העומדת על הפרק.

כדי להמחיש כיצד חלק מכללי ההתמודדות האמורים לעיל עם אי הסכמה מקצועית יכולים להיות מאתגרים ליישום, שקול את המקרה של פניה לאדם של צד שלישי להיכנס לעניין ולהציע החלטה לפתרון הבעיה הבלתי פתורה.

נניח שיצרנית רכב או חברת טכנולוגיה לנהיגה עצמית סידרו למפעילים אנושיים מרוחקים גישה לבקרות הנהיגה של כלי הרכב בצי שלהם. המפעיל האנושי יושב באיזה משרד מרוחק או סביבה דומה. באמצעות מערכת מחשב, הם מסוגלים לצפות בסצנת הנהיגה באמצעות גישה למצלמות ולהתקני חיישנים אחרים שהועמסו על המכונית הנוהגת בעצמה. עבורם, זה כמעט כמו לשחק במשחק וידאו מקוון, אם כי, כמובן, לנסיבות האמיתיות יש השלכות קשות.

מערכת בינה מלאכותית ונהג אנושי בתוך המכונית נוסעים ברכב חצי אוטונומי בכביש מהיר ארוך. לפתע, הבינה המלאכותית רוצה לנווט לתוך תעלה. הנהג האנושי לא רוצה לעשות את זה. השניים מתקוטטים על בקרות הנהיגה.

איך זה ייפתר?

יכולנו אולי לקבוע מראש שהאדם תמיד מנצח. עם זאת נניח שבחרנו לא לעשות זאת.

יכולנו לקבוע מראש שה-AI תמיד מנצח. נניח שבחרנו לא לעשות זאת. בסך הכל, לא אימצנו אף אחד מהכללים הללו, מלבד שהחלטנו לאפשר לאדם צד שלישי להתערב ולפתור מחלוקת מקצועית מכל אופי מהותי.

במקרה השימוש הזה, הבינה המלאכותית והנהג האנושי על ההגה נלחמים על בקרות הנהיגה. זה נניח מועבר למפעיל האנושי המרוחק (אנושי הצד השלישי שלנו). המפעיל האנושי המרוחק בוחן את המתרחש ומחליט להתרחק מהתעלה, ולכאורה מנע את מה שה-AI ניסה לעשות. במקביל, נניח שהמפעיל האנושי המרוחק נווט לתוך תנועה מתקרבת, מה שאולי לא ה-AI וגם הנהג האנושי בתוך המכונית לא רצו לעשות.

הנקודה היא שהדרך שבה הכלל הזה יושם היא שהמפעיל האנושי של הצד השלישי מסוגל לעקוף לחלוטין הן את הבינה המלאכותית והן את האדם שבלולאה. אם זה הולך להניב תוצאה טובה זה בוודאי לא בטוח.

אשתמש בדוגמה זו כדי להדגיש כמה תובנות נוספות בנושאים אלה.

אתה לא יכול להניח את ההנחה החצופה שרק בגלל שאחד מהכללים האלה הוכנס למקום, התוצאה של אי ההסכמה שנפתרה היא בהכרח תוצאה טובה מובטחת. יכול להיות שלא. אין שום חוק מסוג צמוד תמיד נכון שניתן לבחור.

בשלב הבא, ייתכן שחלק מהכללים הללו לא יהיו ברי יישום.

שקול את הדוגמה של המפעיל האנושי המרוחק מתערב כאשר הבינה המלאכותית והנהג האנושי מתקוטטים על בקרות הנהיגה. ייתכן שיחלפו שניות רבות עד שהמפעיל האנושי המרוחק יבין מה קורה. עד אז, ייתכן שהרכב כבר הגיע לתעלה או שהייתה לו תוצאה שלילית אחרת. כמו כן, נניח שמיקום הרכב מונע גישה מרחוק כגון הימצאות במקום כלשהו שבו אין קישוריות אלקטרונית לרשת. או שאולי תכונות הרשת של הרכב לא פועלות באותו רגע.

כפי שאתה יכול לראות, הכלל עשוי להיראות מגניב על הנייר, אם כי הפעלת הכלל בשימוש בפועל עשויה להיות גישה מאוד קשה או אופטימית. ראה את הסיקור הביקורתי שלי על המפעיל המרוחק של כלי רכב אוטונומיים ומכוניות בנהיגה עצמית ב הקישור כאן.

ברצוני לכסות בקצרה נושא קשור אחר שאעסוק בו בעומק רב יותר בניתוח הקרוב.

אחד החששות העולים לגבי רכבים אוטונומיים ומכוניות אוטונומיות למחצה אוטונומיות הוא מה שנקרא תסמונת תפוח אדמה חם.

הנה העסקה.

מערכת נהיגה בינה מלאכותית ואדם נוהגים יחד. מתעוררת מצוקה קשה. הבינה המלאכותית תוכננה לעזוב את משימת הנהיגה ולהעביר דברים לאדם כאשר מתרחש רגע נורא. זה נראה אולי "הגיוני" בכך שנראה שאנו מפעילים את הכלל בדבר ה"מנצח" ברירת המחדל של האדם בכל מחלוקת מקצועית פוטנציאלית.

אבל נשירת הבינה המלאכותית עשויה להיות למטרות מרושעות יותר או נחשבות ערמומיות. יכול להיות שיצרנית הרכב או חברת הטכנולוגיה לנהיגה עצמית לא רוצים שה-AI שלהם ייחשב ל"צד אשם" כאשר מתרחשת תאונת דרכים. כדי לכאורה להימנע מהיצמדות כזו, הבינה המלאכותית מוסרת בפתאומיות את הפקדים לאדם. וואלה, האדם הוא כנראה אחראי לחלוטין על הרכב.

הכוונה היא שנניח שה-AI יבצע את המסירה הזו עם נניח שנותרה שנייה אחת לסיום לפני שתתרחש התרסקות.

האם באמת יהיה לאדם זמן פנוי למנוע את ההתרסקות?

סביר שלא.

נניח שה-AI עושה את המסירה כשנותרו כמה אלפיות שניות או ננו-שניות לסיום. אני מעז לומר שלאדם יש סיכוי אפסי לעשות משהו כדי למנוע את ההתרסקות.

מנקודת המבט של יצרנית הרכב או חברת המכוניות בנהיגה עצמית, הם יכולים לנסות להתנהג כאילו הידיים שלהם נקיות כאשר מתרחשת תאונת דרכים כזו. במכונית נהג אדם. הבינה המלאכותית לא נהגה במכונית. נראה שהמסקנה ה"הגיונית" היחידה היא שהאדם חייב להיות אשם וה-AI חייב להיות חסר אשמה לחלוטין.

זה חרס.

אני אדון בזה יותר לעומק בטור הקרוב.

סיכום

מחלוקות מקצועיות עומדות להתרחש.

קשה לדמיין איזו משימה מורכבת שבה שני צדדים מבצעים יחד את המשימה ולעולם לא יתגלו אי הסכמות מקצועיות לגביה. זה נראה כמו ארץ פנטזיה או לפחות נדירות גדולה.

כיום, יש לנו המון המון מקרים מאדם לאדם של אי הסכמה מקצועית, שביום יום מוצאים החלטות לגביהם בצורה שלווה והגיונית בדרך זו או אחרת. למעשה, לעתים קרובות אנו מגדירים מצבים בכוונה כדי לטפח ולשטח חילוקי דעות מקצועיים. אתה יכול לטעון שזה מציג את החוכמה המפורסמת שלפעמים שני ראשים טובים יותר מאחד.

ככל שהבינה המלאכותית תהיה נפוצה יותר, יהיו לנו הרבה מבצעי משימות דו-צדדיות בינה מלאכותית לאדם או אנושית ל-AI ויהיו חילוקי דעות מקצועיים שיתרחש. הגישה העצלנית היא תמיד לדחות את האדם. זו אולי לא הגישה המתאימה ביותר. AI עשויה להיות הבחירה הטובה יותר. או שאחד הכללים האחרים שהוזכרו לעיל עשוי להיות גישה נכונה יותר.

יש את שורת החכמים ההיא שחזרה על כך שכולנו צריכים להיות מסוגלים בדרך כלל להסכים לא להסכים, אם כי כשזה מגיע לעניין, לפעמים מחלוקת צריכה להיפתר באופן חד משמעי, אחרת העניין העומד על הפרק יוביל לפורענות בלתי נספרת. אנחנו לא יכולים פשוט לתת לחילוקי דעות להתפוגג על הגפן. יכול להיות שהזמן הוא המהות וחיים עשויים להיות על כף המאזניים.

ישנה דרישה ברורה לכמה אמצעים נבונים לפתור חילוקי דעות, גם אם לא בהכרח בהסכמה, כולל כאשר AI ואדם בלולאה לא רואים עין בעין וגם לא בייט לבייט.

אני סומך על כך שלא תסכימו עם הטענה הנעימה לחלוטין.

מקור: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- הטייס והטייס-לא הסכימו-לפני-המראות-ובחרו-בפתאומיות-לחזור-למסוף-ולעבור-לדרכם/