אתיקה של בינה מלאכותית סקפטית לגבי קביעת חוקי בינה מלאכותית כביכול דגל אדום לקריאת אלגוריתמים מוטים במערכות בינה מלאכותית אוטונומיות

בואו נדבר על חוקי הדגל האדום.

אתה ללא ספק יודע שהרעיון של חוקי הדגל האדום זוכה לסיקור נרחב בחדשות לאחרונה. כותרות המכסות את הנושא בשפע. תשוקות ודיונים נלהבים בנושאים כאלה נמצאים בראש מעייניהם כדאגה חברתית וכרוכים בהווה ובמהירות של חוקי אקדח דגל אדום.

עם זאת הייתי מעז לומר שאולי אינך מכיר חוקי דגל אדום אחרים שנחקקו בסוף המאה ה-1800, הנוגעים לכלי רכב ממונעים ולמבשרי המכוניות המודרניות היומיומיות של ימינו. כן, זה נכון, חוקי הדגל האדום חוזרים אחורה בהיסטוריה, אם כי מכסים נושאים אחרים בהשוואה להתמקדות העכשווית של היום. אלה מכונים בדרך כלל חוקי תנועה של דגל אדום.

חוקים אלה בני מאה שנה וחסרי כל תוקף דרשו שכל כרכרה או מנוע ממונעים המונעים בקיטור היו באותו זמן שאדם מבוגר יקדים את הרכב ויישא דגל אדום למטרות אזהרה. הרעיון היה שבעלי חיים עלולים להיבהל מאותם חפצים רועשים ותזזיתיים שהתנפלו באיטיות ובאופן לא אחיד לאורך כבישי העפר או הכבישים הסלולים בשוליים, ובכך שמישהו ילך מול המתחם תוך כדי נפנוף נמרץ בדגל אדום יכול לקוות למנוע אסונות. אם תהיתם, מסילות רכבת ורכבות נחשבו לא נכללות מאותם חוקים שכן היו כלי רכב הקשורים באופן אינטגרלי למסילות והיו להם חוקים אחרים המכסים את פעולותיהם.

תארו לעצמכם שצריך להניף דגלים אדומים היום כדרישה לכל מכונית בכבישים הציבוריים שלנו.

לדוגמה, נהג רגיל שיגיע ברחוב השכונתי שלך יצטרך להבטיח שאדם מבוגר מניף דגל אדום יהיה נוכח ויצעד מול המכונית הנוסעת. זה יצטרך להתקיים עבור כל רכב ורכב שעובר ברחוב שלך. אולי אנשים יהפכו לג'ובניקים של דגל אדום ששכרו לנהגי מכוניות חולפים שאחרת לא היה להם חבר או קרוב משפחה שיכול היה ללכת לפניהם ולעשות את פעולת הניפוף שנקבעה.

כיום אנו נוטים לקשר את הנפת הדגל האדום הקשור לכבישים מהירים עם אתרי בניית כבישים. כאשר אתה מתקרב לכביש חפור, העובדים יחזיקו דגל אדום כדי למשוך את תשומת לבך. זה אומר לך להאט ולהיות בכוננות. יכול להיות דחפור שהולך לעלות על הנתיב שלך. חור ענק עשוי להיות מלפנים ותצטרך לחצות אותו בזהירות.

אבל בואו נחזור לשימוש של 1800 בדגלים אדומים.

תאמינו או לא, הנפת הדגל האדום הייתה אמורה להתקדם לפחות בשמינית קילומטר לפני המכונה הממונעת הקרובה. זה נראה כמו מרחק די ארוך. עם זאת, אפשר להניח שזה היה הגיוני מאוד באותם ימים. הרעשים המבהילים של המנוע ואולי עצם המראה של הרכב עשויים להספיק כדי להטריד בעלי חיים. חלק מחוקי הדגל האדום של אותה תקופה דרשו גם שאור אדום בוהק יוחזק למעלה במהלך הלילה, כך שניתן יהיה לראות אזהרת זהירות אדומה נראית לעין ממרחק מוחשך.

באופן כללי, אני חושב שזה הוגן לטעון שאנחנו כחברה נוטים לשייך דגל אדום כסוג של איתות או שילוט שמשהו עלול להיות לא בסדר או לפחות צריך את תשומת הלב האדוקה שלנו.

התכוננו לטוויסט קטן על תופעת הדגל האדום הזה.

ישנה טענה שעלינו לדרוש הוראות דגל אדום כשמדובר בבינה מלאכותית (AI).

זה קצת מבהיל וקונספט מפתיע שגורם להרבה ראשים להתגרד. אתה עלול להיות מבולבל לגבי איך או למה צריך להיות מה שנקרא חוקי AI עם דגל אדום. אנא שים לב שאני מתייג את זה כחוקי בינה מלאכותית של הדגל האדום כדי להבדיל את העניין מחוקי התעבורה של הדגל האדום (כגון אלה של סוף המאה ה-1800) וגם כדי להבדיל אותם מחוקי האקדחים האדומים הנפוצים יותר כיום.

האם אנו באמת זקוקים לחוקי בינה מלאכותית של דגל אדום המכוונים באופן מובהק ובלעדית לענייני בינה מלאכותית?

אלה שמצדדים בגישה המוצעת יתעקשו שאנו זקוקים לחלוטין להוראות משפטיות שיסייעו בלחיצה על בינה מלאכותית המכילה הטיות מיותרות ופועלות בדרכים מפלות. נכון לעכשיו, הבנייה והפריסה של בינה מלאכותית דומות לסיטואציה של המערב הפרוע. המאמצים לרסן את הבינה המלאכותית הגרועה תלויים כעת בניסוח ובאימוץ של הנחיות האתיקה של בינה מלאכותית. לסיקור המתמשך והנרחב שלי על אתיקה של בינה מלאכותית ובינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

חוקים שמתאגרפים בבינה מלאכותית גרועה מתגבשים ונחקקים לאט, ראה הסיקור שלי ב הקישור כאן. יש שחוששים שהמחוקקים לא הולכים מהר מספיק. נראה ששערי ההצפה של מתן אפשרות לטפח בינה מלאכותית מוטה בעולם פתוחים ברובם לרווחה כרגע. לחיצת יד אומרת שעד שהחוקים החדשים ייכנסו לספרים, השד המרושע כבר ייצא מהבקבוק.

לא כל כך מהר, טיעוני הנגד הולכים. החששות הן שאם חוקים ייקבעו מהר מדי, נהרוג את אווז הזהב, כביכול, ובכך יתייבשו מאמצי הבינה המלאכותית ולא נקבל את היתרונות המחזקים מבחינה חברתית של מערכות בינה מלאכותית חדשות. מפתחי בינה מלאכותית וחברות שרוצות להשתמש בבינה מלאכותית עלולים להיבהל אם מערך ביזנטי של חוקים חדשים המסדירים בינה מלאכותית יוכנסו לפתע ברמה הפדרלית, המדינתית והמקומית, שלא לדבר על החוקים הבינלאומיים הקשורים לבינה מלאכותית שצועדים גם הם קדימה.

לתוך הפרשה המבולגנת הזו נכנסת הקריאה לחוקי AI Red Flag.

לפני שנכנס לעוד קצת בשר ותפוחי אדמה על השיקולים הפראיים והצמריים העומדים בבסיס חוק ה-Red Flag AI המיוחל, בואו נבסס כמה יסודות נוספים בנושאים חיוניים מאוד. עלינו לצלול בקצרה לתוך אתיקה של בינה מלאכותית ובמיוחד בהופעת למידת מכונה (ML) ולמידה עמוקה (DL).

אולי אתם מודעים במעורפל לכך שאחד הקולות החזקים ביותר בימינו בתחום הבינה המלאכותית ואפילו מחוץ לתחום הבינה המלאכותית מורכב מהצעקה למראה גדול יותר של בינה מלאכותית אתית. בואו נסתכל על מה זה אומר להתייחס לאתיקה של בינה מלאכותית ולאתיקה בינה מלאכותית. נוסף על כך, נחקור למה אני מתכוון כשאני מדבר על למידת מכונה ולמידה עמוקה.

פלח או חלק מסוים של אתיקה של בינה מלאכותית שזכו לתשומת לב רבה בתקשורת מורכבים מבינה מלאכותית המפגינה הטיות וחוסר שוויון לא רצויים. אתה אולי מודע לכך שכשהעידן האחרון של בינה מלאכותית יצא לדרך, היה פרץ עצום של התלהבות ממה שחלק מכנים עכשיו AI לתמיד. לרוע המזל, בעקבות אותה התרגשות גועשת, התחלנו להיות עדים AI למען הרע. לדוגמה, מערכות שונות של זיהוי פנים מבוססות בינה מלאכותית התגלו כמכילות הטיות גזעיות והטיות מגדריות, שעליהן דיברתי ב- הקישור כאן.

מאמצים להילחם נגד AI למען הרע פועלים באופן פעיל. חוץ מזה קולני משפטי בשאיפה לרסן את העוולות, יש גם דחיפה מהותית לאימוץ אתיקה של AI כדי לתקן את גנאי הבינה המלאכותית. הרעיון הוא שעלינו לאמץ ולאמץ עקרונות מפתח אתיים בינה מלאכותית לפיתוח ותחום ה- AI לעשות זאת כדי להפחית את AI למען הרע ובו זמנית מבשר וקידום העדיף AI לתמיד.

לגבי רעיון קשור, אני תומך בניסיון להשתמש בבינה מלאכותית כחלק מהפתרון לבעיות בינה מלאכותית, להילחם באש עם אש באופן חשיבה זה. אנו יכולים למשל להטמיע רכיבי בינה מלאכותית אתית לתוך מערכת בינה מלאכותית שתפקח על אופן הפעולה של שאר הבינה המלאכותית ובכך עשויה לתפוס בזמן אמת כל מאמצים מפלים, ראה הדיון שלי ב- הקישור כאן. יכול להיות לנו גם מערכת AI נפרדת הפועלת כסוג של צג אתיקה של AI. מערכת הבינה המלאכותית משמשת כמפקחת כדי לעקוב ולזהות מתי בינה מלאכותית אחרת נכנסת לתהום הלא אתית (ראה ניתוח שלי של יכולות כאלה ב הקישור כאן).

בעוד רגע, אשתף אתכם בכמה עקרונות-על העומדים בבסיס אתיקה של AI. יש המון רשימות כאלה שמסתובבות פה ושם. אפשר לומר שעדיין אין רשימה יחידה של ערעור והסכמה אוניברסליים. אלו החדשות המצערות. החדשות הטובות הן שלפחות ישנן רשימות אתיקה של AI והן נוטות להיות די דומות. בסך הכל, זה מצביע על כך שבאמצעות סוג של התכנסות מנומקת אנו מוצאים את דרכנו לעבר משותף כללי של מה שמכיל אתיקה של AI.

ראשית, הבה נסקור בקצרה כמה מהמצוות האתיות הכוללות בינה מלאכותית כדי להמחיש מה אמור להיות שיקול חיוני עבור כל מי שמעצב, מעבד או משתמש בבינה מלאכותית.

לדוגמה, כפי שנאמר על ידי הוותיקן ב רומא קריאה לאתיקה של AI וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • שקיפות: באופן עקרוני, מערכות AI חייבות להיות ניתנות להסבר
  • הַכלָלָה: יש לקחת בחשבון את הצרכים של כל בני האדם כדי שכולם יוכלו להפיק תועלת, ולהציע לכל הפרטים את התנאים הטובים ביותר להתבטא ולהתפתח
  • אַחֲרָיוּת: מי שמתכננים ומפרסים את השימוש ב-AI חייבים להמשיך באחריות ובשקיפות
  • חוסר זוגיות: אין ליצור או לפעול על פי הטיה, ובכך לשמור על הגינות וכבוד האדם
  • אֲמִינוּת: מערכות AI חייבות להיות מסוגלות לעבוד בצורה אמינה
  • בטיחות ופרטיות: מערכות AI חייבות לעבוד בצורה מאובטחת ולכבד את פרטיות המשתמשים.

כפי שנאמר על ידי משרד ההגנה האמריקאי (DoD) בכתביהם עקרונות אתיים לשימוש בבינה מלאכותית וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • אחראי: אנשי DoD יפעילו רמות מתאימות של שיקול דעת וטיפול תוך שהם יישארו אחראים לפיתוח, פריסה ושימוש ביכולות AI.
  • הוֹגֶן: המחלקה תנקוט בצעדים מכוונים כדי למזער הטיה לא מכוונת ביכולות הבינה המלאכותית.
  • ניתן למעקב: יכולות ה-AI של המחלקה יפותחו וייפרסו כך שלצוות הרלוונטי יהיה הבנה מתאימה של הטכנולוגיה, תהליכי הפיתוח והשיטות התפעוליות החלות על יכולות בינה מלאכותית, לרבות מתודולוגיות שקופות וניתנות לביקורת, מקורות נתונים ונוהל עיצוב ותיעוד.
  • אָמִין: ליכולות הבינה המלאכותית של המחלקה יהיו שימושים מפורשים ומוגדרים היטב, והבטיחות, האבטחה והיעילות של יכולות כאלה יהיו כפופות לבדיקה והבטחה במסגרת אותם שימושים מוגדרים לאורך כל מחזור החיים שלהן.
  • ניתן לממשל: המחלקה תתכנן ותהנדס יכולות בינה מלאכותית למילוי הפונקציות המיועדות להן תוך יכולת לזהות ולהימנע מהשלכות לא מכוונות, ויכולת לנטרל או להשבית מערכות פרוסות המפגינות התנהגות לא מכוונת.

דנתי גם בניתוחים קולקטיביים שונים של עקרונות האתיקה של בינה מלאכותית, כולל כיסיתי סט שהומצא על ידי חוקרים שבדק וריכז את המהות של עקרונות אתיקה לאומיים ובינלאומיים רבים של AI במאמר שכותרתו "הנוף הגלובלי של הנחיות האתיקה של בינה מלאכותית" (שפורסם) ב טבע), ושהסיקור שלי בוחן ב הקישור כאן, שהובילה לרשימת אבני המפתח הזו:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

כפי שאתה יכול לנחש ישירות, הניסיון לדייק את הפרטים העומדים בבסיס העקרונות הללו יכול להיות קשה מאוד. אפילו יותר מכך, המאמץ להפוך את העקרונות הרחבים הללו למשהו מוחשי ומפורט מספיק כדי לשמש בעת יצירת מערכות בינה מלאכותית הוא גם אגוז קשה לפיצוח. קל בסך הכל לנפנף קצת ביד על מה הם מצוות האתיקה של בינה מלאכותית וכיצד יש להקפיד עליהן באופן כללי, בעוד שזה מצב הרבה יותר מסובך בקידוד הבינה המלאכותית שצריך להיות הגומי האמיתי שפוגש את הדרך.

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים את מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית. כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שצוין קודם לכן, נדרש כפר כדי להמציא ולהשיג בינה מלאכותית, ועבורו הכפר כולו צריך להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

בואו גם נוודא שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי מרגיש AI, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לשקול שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שחלק משערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

בואו נשאיר את הדברים יותר מדוייקים ונשקול את הבינה המלאכותית החישובית הלא-חושית של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

בואו נחזור להתמקדות שלנו בחוקי בינה מלאכותית של דגל אדום.

התפיסה הבסיסית היא שאנשים יוכלו להרים דגל אדום בכל פעם שהם האמינו שמערכת בינה מלאכותית פועלת בצורה מוטה או מפלה יתר על המידה. לא היית מרימה דגל פיזי כשלעצמו, ובמקום זאת פשוט תשתמש באמצעים אלקטרוניים כדי להבהיר את החששות שלך. החלק האדום של התוכנית או הגישה הוא יותר מטפורה מאשר התגלמות פיזית.

העמד פנים שאתה מבקש הלוואת דירה. אתה בוחר להשתמש בשירות בנקאות מקוון כדי להגיש בקשה להלוואה. לאחר הזנת נתונים אישיים, אתה מחכה לרגע למערכת הבינה המלאכותית המשמשת כדי להחליט אם אתה ראוי להלוואה או לא. ה-AI אומר לך שסירבו לך לקבל את ההלוואה. לאחר בקשת הסבר מדוע נדחתה, נראה שהנרטיב הטקסטואלי מרמז לך שה-AI השתמש בגורמים מוטים מופרזים כחלק מאלגוריתם קבלת ההחלטות.

הגיע הזמן להרים דגל אדום על הבינה המלאכותית.

איפה בדיוק יתנופף הדגל האדום הזה?

זו שאלה של מיליון דולר.

נקודת מבט אחת היא שעלינו להקים מסד נתונים ארצי שיאפשר לאנשים לסמן את הדגלים האדומים הרלוונטיים ל-AI שלהם. יש אומרים שזה צריך להיות מוסדר על ידי הממשלה הפדרלית. סוכנויות פדרליות יהיו אחראיות לבחון את הדגלים האדומים ולצאת לעזרת הציבור הרחב לגבי האמיתות וההתמודדות עם כנראה "בינה מלאכותית גרועה" שהניעה את דיווחי הדגל האדום.

חוק AI לאומי של דגל אדום ייקבע לכאורה על ידי הקונגרס. החוק יפרט מהו דגל אדום רלוונטי לבינה מלאכותית. החוק יתאר כיצד הונפו הדגלים האדומים המטריפים בינה מלאכותית. וכן הלאה. זה יכול להיות גם שמדינות בודדות עשויות גם לבחור ליצור חוקי AI משלהן בדגל אדום. אולי הם עושים זאת במקום יוזמה לאומית, או שהם עושים זאת כדי להעצים פרטים שמושכים במיוחד את מדינתם הספציפית.

מבקרים של תוכנית AI פדרלית או כל תוכנית בגיבוי ממשלתי של Red Flag יטענו שזה משהו שהתעשייה הפרטית יכולה לעשות ואנחנו לא צריכים שהאח הגדול יבוא לידי ביטוי. התעשייה יכולה להקים מאגר מקוון שבו אנשים יכולים לרשום דגלים אדומים על מערכות בינה מלאכותית. פעולת שיטור עצמי של התעשייה תתמודד מספיק עם הנושאים הללו.

חשש לגבי גישת התעשייה לכאורה היא שנראה שהיא נוטפת מקורבות. האם חברות יהיו מוכנות לציית למסד נתונים בניהול פרטי של Red Flag AI? חברות רבות עלולות להתעלם מהדגלים האדומים המסומנים לגבי הבינה המלאכותית שלהן. לא יהיו שיניים חדות כדי לגרום לחברות להתמודד עם הדגלים האדומים שהוכנסו.

היי, תומכי הגישה של המגזר הפרטי נשמעים מופרכים, זה יהיה דומה לשירות לאומי דמוי Yelp. צרכנים יכולים להסתכל על הדגלים האדומים ולהחליט בעצמם אם הם רוצים לעשות עסקים עם חברות שצברו שלל דגלים אדומים מוכווני בינה מלאכותית. בנק שקיבל טונות של דגלים אדומים על הבינה המלאכותית שלו יצטרך לשים לב ולחדש את מערכות הבינה המלאכותית שלו, אז ההיגיון אומר, אחרת הצרכנים ימנעו מהחברה כמו המגיפה.

אם כל הגישה הזו מבוצעת על ידי הממשלה או על ידי התעשייה היא רק קצה הקרחון בשאלות קוצניות העומדות בפני הנחיית החוקים המוצעים של דגל אדום בינה מלאכותית.

הכנס את עצמך לנעליה של חברה שפיתחה או משתמשת בבינה מלאכותית. יכול להיות שצרכנים ירימו דגלים אדומים למרות שלא היה בסיס ראוי לעשות זאת. אם אנשים יכלו לפרסם דגל אדום על הבינה המלאכותית בחופשיות, הם עלולים להתפתות לעשות זאת מתוך גחמה, או אולי כדי לנקום בחברה שאחרת לא עשתה שום דבר רע כלפי הצרכן.

בקיצור, יכולים להיות הרבה דגלים אדומים חיוביים כוזבים לגבי AI.

שיקול נוסף הוא הגודל או הגודל העצום של הדגלים האדומים שנוצרו. יכולים בקלות להיות מיליונים על מיליונים של דגלים אדומים. מי הולך לעקוב אחר כל הדגלים האדומים האלה? מה תהיה העלות לעשות זאת? מי ישלם עבור מאמצי המעקב בדגל האדום? וכו.

אם הייתם אומרים שכל מי שנרשם או מדווח על דגל אדום על AI צריך לשלם אגרה, נכנסתם לתחום עכור וערמומי. החשש יהיה שרק העשירים יוכלו להרשות לעצמם להרים דגלים אדומים. זה בתורו מרמז שהעניים לא יוכלו להשתתף באותה מידה בפעילויות הדגל האדום ולמעשה אין להם מקום להתריע על AI שלילי.

רק עוד טוויסט נוסף לעת עתה, כלומר שסוג זה של חוקי דגל אדום או הנחיות לגבי AI נראה לאחר מעשה במקום לשמש אזהרה מראש.

אם נחזור לחוקי התעבורה של הדגל האדום, הדגש בשימוש בדגל אדום היה למנוע אסון מלכתחילה. הנפת הדגל האדום הייתה אמורה להקדים בהרבה את המכונית הקרובה. בהיותם מקדימים את הרכב, החיות היו מתריעות ואלו ששמרו על החיות ידעו שעליהם לנקוט באמצעי זהירות עקב המקור המטריד שיגיע בקרוב.

אם אנשים רק מסוגלים להרים דגל אדום על בינה מלאכותית שלכאורה כבר פגעה או פגעה בזכויותיהם, הסוס הפתגם כבר יצא מהאסם. כל מה שנראה שזה משיג הוא שבתקווה שאנשים אחרים שיגיעו יידעו כעת להיזהר ממערכת הבינה המלאכותית הזו. בינתיים, האדם שנעשה לכאורה עוול כבר סבל.

חלקם מציעים שאולי נוכל לאפשר לאנשים להרים דגלים אדומים על AI שהם חָשׁוּד עלולים להיות מוטים, גם אם הם לא השתמשו ב-AI ולא הושפעו ישירות מה-AI. לפיכך, הדגל האדום מתנופף לפני שהנזק נעשה.

איכס, נאמר בתשובה, אתה באמת הולך להפוך את הדגלים האדומים המתמודדים עם בינה מלאכותית לעניין בלתי ניתן לניהול וכאוטי לחלוטין. אם מישהו מכל סיבה שהיא יכול להרים דגל אדום על מערכת בינה מלאכותית, למרות שלא עשה שום דבר עם הבינה המלאכותית הזו, אתה תהיה מוצף בדגלים אדומים. גרוע מכך, לא תוכל להבחין בין החיטה למוץ. כל גישת הדגל האדום תקרוס תחת משקלה, ותוריד את טוב הרעיון על ידי מתן אפשרות למשט ולרפרף להטביע את הספינה כולה.

מסחרר ומבלבל.

בשלב זה של הדיון הכבד הזה, אני מתערב שאתה מעוניין בכמה דוגמאות להמחשה שעשויות להציג את הנושא הזה. יש מכלול מיוחד ופופולארי של דוגמאות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית, כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות מציאותיות המציגות דילמות של אתיקה של בינה מלאכותית, כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות בינה מלאכותית זו הוא הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית מאירה משהו על חוקי AI Red Flag, ואם כן, מה זה מציג לראווה?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

לשם הבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שבהן ה- AI נוהג במכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לחלוק במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות שחולקות בשיתוף את משימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAS (Advanced Driver-Assistance Systems).

עדיין אין מכונית נהיגה עצמית אמיתית ברמה 5, ואנחנו עדיין לא יודעים אפילו אם זה יהיה אפשרי, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מכוניות בנהיגה עצמית וחוקי בינה מלאכותית של דגל אדום

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני מקווה שזה מספק כמות מספקת של אזהרות כדי לעמוד בבסיס מה שאני עומד להתייחס אליו.

בואו נשרטט תרחיש שעשוי למנף חוק AI Red Flag.

אתה נכנס למכונית בנהיגה עצמית מבוססת בינה מלאכותית ומעוניין שהרכב האוטונומי יסיע אותך לחנות המכולת המקומית שלך. במהלך המסע הקצר יחסית, הבינה המלאכותית לוקחת מסלול שנראה לך קצת שגוי. במקום ללכת בדרך הישירה ביותר, הבינה המלאכותית מנווטת לרחובות לא מהדרך, מה שגורם לזמן הנסיעה להיות גבוה יותר ממה שהוא יכול להיות בדרך כלל.

מה קורה?

בהנחה שאתה משלם על השימוש במכונית הנוהגת בעצמך, ייתכן שאתה חושד שה-AI תוכנת לנסוע במסלול ארוך יותר כדי לנסות להעלות את התעריף או העלות של הנסיעה. כל מי שלקח אי פעם מונית קונבנציונלית המונעת על ידי אדם יודע על התחבולות שיכולה להתרחש כדי לקבל יותר בצק על המונה. כמובן, כשאנשים עם GPS בסמארטפונים שלהם בזמן נסיעה במונית או שווה ערך, אתה יכול בקלות לתפוס נהג אנושי שנראה כמי שנוסע בדרכים ארוכים שלא לצורך.

מסתבר שיש לך עוד דאגה לגבי בחירת המסלול, משהו שממש מכרסם בך.

נניח שהניתוב נעשה כדי להימנע מחלקים מסוימים של העיר בשל היבטים גזעיים. ישנם מקרים מתועדים של נהגים אנושיים שנתפסו בביצוע בחירות מסוג זה, ראה הדיון שלי ב הקישור כאן. אולי הבינה המלאכותית תוכננה לרעה.

אתה מחליט להרים דגל אדום.

בואו נניח לצורך הדיון שחוקק חוק AI Red Flag שמכסה את תחום השיפוט שלכם. זה יכול להיות חוק מקומי, חוק מדינה, חוק פדרלי או בינלאומי. לניתוח שכתבתי יחד עם יוזמת מדיניות הרכב האוטונומית (AVPI) של הרווארד על החשיבות העולה של מנהיגות מקומית כאשר קהילות מאמצות את השימוש במכוניות בנהיגה עצמית, ראה הקישור כאן.

אז, אתה נכנס לאינטרנט למסד נתונים של Red Flag AI. במאגר האירועים מכניסים את המידע על הנסיעה ברכב בנהיגה עצמית. זה כולל את התאריך והשעה של טרק הנהיגה, יחד עם המותג והדגם של המכונית בנהיגה עצמית. לאחר מכן אתה נכנס למסלול הניווט שנראה חשוד, ואתה מציע או אולי טוען בגלוי שה-AI נוצר מתוך כוונה ויכולות מוטות או מפלות.

נצטרך להעלות השערות לגבי הפרטים האחרים של חוק ה-Red Flag AI לגבי מה שקורה אחר כך בתרחיש המסוים הזה. בתיאוריה, תהיה הוראה שמישהו יבדוק את הדגל האדום. יש להניח שהם יבקשו לגרום ליצרנית הרכב או לחברת הטכנולוגיה לנהיגה עצמית להסביר את נקודת המבט שלהם על הדגל האדום שנרשם. כמה עוד דגלים אדומים כאלה נרשמו? אילו תוצאות הביאו הדגלים האדומים האלה?

וכך הלאה זה ימשיך.

סיכום

מגוחך, כמה ספקנים ממליצים.

אנחנו לא צריכים חוקי בינה מלאכותית של הדגל האדום, הם מתאמצים בחומרה. ביצוע כל דבר מסוג זה יעודד את העבודה בכל הנוגע לקצב ולהתקדמות של AI. כל חוק כזה יהיה מסורבל. היית יוצר בעיה שלא פותרת בעיה. ישנן דרכים אחרות להתמודד עם AI גרועות. אל תתפוס באופן עיוור בקשיות כדי להתמודד עם AI מוטה.

מעבירים הילוך, כולנו יודעים שלוחמי השוורים משתמשים בכפפות אדומות כדי למשוך כנראה את תשומת הלב של השור הזועם. למרות שאדום הוא הצבע שאנחנו הכי מקשרים לתרגול הזה, אולי תופתעו לדעת שמדענים אומרים ששורים אינם קולטים את הצבע האדום של המולטה (הם עיוורי צבעים לאדום). התוכנית הפופולרית MythBusters עשה בדיקה די משעשעת בעניין הזה. תנועת הגלימה היא מרכיב המפתח ולא הצבע הנבחר.

עבור אלה שמבטלים את הצורך בחוקי בינה מלאכותית של דגל אדום, טענה נגדית היא שאנו זקוקים למשהו בעל אופי דרמטי ובלתי ניתן לטעות בו כדי לוודא שמפתחי בינה מלאכותית וחברות פורסות בינה מלאכותית יתרחקו מ-AI מוטה או גרוע. אם לא דגל אדום, אולי שכמייה מתנופפת או בעצם כל סוג של גישה התרעה עשויה להיות בתחום של קבלת שיקול דעת ראוי.

אנחנו יודעים בוודאות שקיים בינה מלאכותית רעה ושהרבה יותר בינה מלאכותית גרועה עומדת לכיוון שלנו. מציאת דרכים להגן על עצמנו מפני AI שלילי היא חיונית. כמו כן, הגדרת מעקות בטיחות כדי לנסות ולמנוע AI גרוע מלהיכנס לעולם חשובה לא פחות.

ארנסט המינגווי הצהיר באופן מפורסם שאף אחד לא חי את חייו עד הסוף חוץ מלוחמי שוורים. אנחנו צריכים לוודא שבני אדם יכולים לחיות את חייהם לאורך כל הדרך, למרות כל רעה בינה מלאכותית או טירוף שהוכרז עלינו.

מקור: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- מוטים-אלגוריתמים-במערכות-AI-אוטונומיות/