אתיקה של בינה מלאכותית גילוי מזעזע שאימון בינה מלאכותית להיות רעיל או מוטה עשוי להיות מועיל, כולל עבור אותן מכוניות אוטונומיות לנהיגה עצמית

הנה שורה ישנה שאני בטוח ששמעת בעבר.

צריך אחד כדי להכיר אחד.

אולי אינכם מבינים שזהו ביטוי שניתן לייחס לתחילת המאה ה-1900 ובדרך כלל הופעל כאשר מתייחסים למעוולים (ווריאציות אחרות של ביטוי הקאץ' חוזרים אחורה, כמו המאה ה-1600). דוגמה לאופן שבו ניתן להשתמש באמירה זו כוללת את הרעיון שאם אתה רוצה לתפוס גנב אז אתה צריך להשתמש בגנב כדי לעשות זאת. זה מציג את הקביעה שנדרש אחד כדי להכיר אחד. סרטים ותכניות טלוויזיה רבות ניצלו את החלק השימושי הזה של חוכמת חכמים, ולעתים קרובות מציגים שהאמצעי הקיים היחיד לתפוס נוכל כרוך בשכירת נוכל מושחת לא פחות כדי לרדוף אחרי העושה.

בהעברת הילוכים, חלקם עשויים למנף את אותו ההיגיון כדי לטעון שדרך מתאימה להבחין אם מישהו מגלם הטיות מיותרות ואמונות מפלות תהיה למצוא מישהו שכבר טומן בחובו נטיות כאלה. יש להניח שאדם שכבר מלא בהטיות יוכל לחוש ביתר קלות שהאדם האחר הזה מלא גם הוא עד אפס מקום ברעילות. שוב, צריך אחד לדעת שהוא המנטרה המוצהרת.

התגובה הראשונית שלך לאפשרות להשתמש באדם מוטה כדי להעלים אדם מוטה אחר עשויה להיות של ספקנות וחוסר אמון. האם לא נוכל להבין אם מישהו מחזיק בהטיות לא רצויות רק על ידי בחינתן ולא נצטרך למצוא מישהו אחר בעל אופי דומה? זה ייראה מוזר לחפש בכוונה לגלות מישהו מוטה כדי לחשוף אחרים שהם גם מוטים רעילה.

אני מניח שזה תלוי בחלקו אם אתה מוכן לקבל את הפזמון המשוער שנדרש אחד כדי להכיר אחד. שימו לב שזה לא מעיד שהדרך היחידה לתפוס גנב מחייבת שתעשה שימוש בלעדי ותמיד בגנב. סביר להניח שאתה יכול לטעון שזהו רק נתיב נוסף שניתן לתת עליו את הדעת. אולי לפעמים אתה מוכן לבחון את האפשרות להשתמש בגנב כדי לתפוס גנב, בעוד שנסיבות אחרות עשויות להפוך את זה לטקטיקה בלתי נתפסת.

השתמש בכלי הנכון עבור ההגדרה הנכונה, כמו שאומרים.

כעת, לאחר שהסברתי את היסודות הללו, אנו יכולים להמשיך לחלק המטריד והמזעזע לכאורה של הסיפור הזה.

האם אתה מוכן?

תחום הבינה המלאכותית רודף באופן פעיל את אותה מצוות שלפעמים נדרש אדם כדי להכיר אחת כזו, במיוחד במקרה של ניסיון להעלים בינה מלאכותית שהיא מוטה או פועלת בצורה מפלה. כן, הרעיון המכופף הוא שאולי בכוונה נרצה לתכנן AI שהוא מוטה ומפלה באופן מלא וללא בושה, לעשות זאת כדי להשתמש בזה כאמצעי לגלות ולחשוף בינה מלאכותית אחרת שיש לה אותו מראית עין של רעילות. כפי שתראה בעוד רגע, יש מגוון בעיות אתיקה של AI מטרידות העומדות בבסיס העניין. לסיקור הכולל המתמשך והנרחב שלי על אתיקה של בינה מלאכותית ובינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

אני מניח שאתה יכול לבטא את השימוש הזה בבינה מלאכותית רעילה כדי ללכת אחרי בינה מלאכותית רעילה אחרת בתור תפיסת הלחימה באש עם אש הפתגמית (אנחנו יכולים להפעיל הרבה לשון הרע ומטאפורות להמחשה כדי לתאר את המצב הזה). או, כפי שכבר הודגש, אנו עשויים להתייחס בצורה חסכנית לקביעה שנדרש אחד כדי להכיר אחד.

התפיסה הכוללת היא שבמקום רק לנסות להבין אם מערכת AI נתונה מכילה הטיות מיותרות על ידי שימוש בשיטות קונבנציונליות, אולי כדאי שננסה להשתמש גם באמצעים פחות קונבנציונליים. אמצעי לא קונבנציונלי אחד כזה יהיה להמציא בינה מלאכותית שמכילה את כל ההטיות הגרועות ביותר ורעילות בלתי מקובלות חברתית, ולאחר מכן להשתמש בבינה מלאכותית זו כדי לסייע בניתוב בינה מלאכותית אחרת שיש לה אותן נטיות רעות.

כאשר אתה חושב על זה במהירות, זה בהחלט נראה הגיוני לחלוטין. נוכל לשאוף לבנות בינה מלאכותית שהיא רעילה עד למקסימום. AI רעיל זה משמש לאחר מכן כדי להוציא AI אחר שיש לו גם רעילות. לגבי הבינה המלאכותית ה"רע" שהתגלתה אז, אנחנו יכולים להתמודד עם זה על ידי ביטול הרעילות, ביטול ה-AI לחלוטין (ראה את הסיקור שלי על ביטול או הרס של AI ב- קישור זה כאן), או לכלוא את הבינה המלאכותית (ראה את הסיקור שלי על כליאת הבינה המלאכותית ב קישור זה כאן), או לעשות כל דבר אחר שנראה מתאים לעשות.

טענה נגדית היא שעלינו לבחון את ראשנו שאנו יוצרים בכוונה וברצון AI שהוא רעיל ומלא בהטיות. זה הדבר האחרון שעלינו לשקול אי פעם, יש שירצו. התמקדו בכך שה-AI מורכב כולו מטוב. אל תתמקד בהמצאת בינה מלאכותית שיש בה את הרוע והשלכות של הטיות מיותרות. עצם הרעיון של מרדף כזה נראה דוחה בעיני חלקם.

יש עוד התלבטויות לגבי המסע השנוי במחלוקת הזה.

אולי משימה של יצירת בינה מלאכותית רעילה רק תעודד את אלה שרוצים ליצור בינה מלאכותית שמסוגלת להחליש את החברה. זה כאילו אנחנו אומרים שיצירת בינה מלאכותית שיש לה הטיות לא הולמות ולא נעימות זה בסדר גמור. בלי דאגות, בלי התלבטויות. חפשו לתכנן בינה מלאכותית רעילה כאוות נפשכם, אנחנו מעבירים בקול רם לבוני בינה מלאכותית בכל רחבי העולם. זה (קריצה-קריצה) הכל בשם הטוב.

יתר על כן, נניח שה-AI הרעיל הזה תופס. יכול להיות שה-AI נמצא בשימוש ושימוש חוזר על ידי המון בוני בינה מלאכותית אחרים. בסופו של דבר, ה-AI הרעיל מתחבא בתוך כל מיני מערכות AI. ניתן לעשות אנלוגיה להמצאת וירוס מערער אנושי שבורח ממעבדה סגורה ככל הנראה. הדבר הבא שאתה יודע, הדבר הארור נמצא בכל מקום וחיסלנו את עצמנו.

חכה שנייה, הנגד לטיעוני הנגד האלה אומר, אתה משתולל עם כל מיני השערות מטורפות ולא נתמכות. קח נשימה עמוקה. הירגע.

אנחנו יכולים ליצור בינה מלאכותית שהיא רעילה ולשמור אותה מוגבלת. אנו יכולים להשתמש ב-AI הרעיל כדי למצוא ולסייע בהפחתת השכיחות ההולכת וגוברת של AI שלמרבה הצער יש לו הטיות מיותרות. כל שאר הקריאות הפרועות והבלתי מבוססות הללו של כדור שלג הן תגובות מטומטמות גרידא, ולמרבה הצער מטופשות וטיפשות בעליל. אל תנסו לזרוק את התינוק עם מי האמבט, הוזהרתם מראש.

תחשוב על זה כך, טוענים המצדדים. הבנייה והשימוש הנכונים בבינה מלאכותית רעילה למטרות מחקר, הערכה ופעולה כמו בלש כדי לחשוף בינה מלאכותית פוגענית חברתית היא גישה ראויה וצריכה להרעיד אותה בצורה הוגנת. שים בצד את תגובות הפריחה שלך. רד ארצה והסתכל על זה בצורה מפוכחת. העין שלנו נשואות לפרס, כלומר לחשוף ולבטל את השפע של מערכות בינה מלאכותית מבוססות מוטות ולוודא שכחברה לא נהיה מוצפים בבינה מלאכותית רעילה.

פרק זמן. עצירה מוחלטת.

ישנן דרכים שונות להתעמק ברעיון זה של ניצול AI רעיל או מוטה למטרות מועילות, כולל:

  • הגדרת מערכי נתונים המכילים בכוונה נתונים מוטים ורעילים לחלוטין שניתן להשתמש בהם לאימון AI לגבי מה לא לעשות ו/או למה לצפות
  • השתמש במערכי נתונים כאלה כדי לאמן מודלים של Machine Learning (ML) ו-Deep Learning (DL) לגבי זיהוי הטיות והבנת דפוסי חישוב הכרוכים ברעילות חברתית
  • החל את ה-ML/DL המאומן לרעילות כלפי בינה מלאכותית אחרת כדי לוודא אם הבינה המלאכותית הממוקדת היא בעלת פוטנציאל מוטה ורעיל
  • הפוך ML/DL מיומן לרעילות זמין כדי להציג בפני בוני בינה מלאכותית ממה להיזהר כדי שיוכלו לבדוק בקלות מודלים כדי לראות כיצד נוצרות הטיות חדורות אלגוריתמיות
  • הדגימו את הסכנות של בינה מלאכותית רעילה כחלק מהמודעות האתיקה לבינה מלאכותית ומודעות לבינה מלאכותית אתית, הכל מסופר באמצעות סדרת הדוגמאות של בינה מלאכותית של ילד בעייתי.
  • אחר

לפני שנכנס לבשר של מספר נתיבים אלה, הבה נקבע כמה פרטים בסיסיים נוספים.

אולי אתם מודעים במעורפל לכך שאחד הקולות החזקים ביותר בימינו בתחום הבינה המלאכותית ואפילו מחוץ לתחום הבינה המלאכותית מורכב מהצעקה למראה גדול יותר של בינה מלאכותית אתית. בואו נסתכל על מה זה אומר להתייחס לאתיקה של בינה מלאכותית ולאתיקה בינה מלאכותית. נוסף על כך, אנחנו יכולים לקבוע את הבמה על ידי חקירה למה אני מתכוון כשאני מדבר על למידת מכונה ולמידה עמוקה.

פלח או חלק מסוים של אתיקה של בינה מלאכותית שזכו לתשומת לב רבה בתקשורת מורכבים מבינה מלאכותית המפגינה הטיות וחוסר שוויון לא רצויים. אתה אולי מודע לכך שכשהעידן האחרון של בינה מלאכותית יצא לדרך, היה פרץ עצום של התלהבות ממה שחלק מכנים עכשיו AI לתמיד. לרוע המזל, בעקבות אותה התרגשות גועשת, התחלנו להיות עדים AI למען הרע. לדוגמה, מערכות שונות של זיהוי פנים מבוססות בינה מלאכותית התגלו כמכילות הטיות גזעיות והטיות מגדריות, שעליהן דיברתי ב- הקישור כאן.

מאמצים להילחם נגד AI למען הרע פועלים באופן פעיל. חוץ מזה קולני משפטי בשאיפה לרסן את העוולות, יש גם דחיפה מהותית לאימוץ אתיקה של AI כדי לתקן את גנאי הבינה המלאכותית. הרעיון הוא שעלינו לאמץ ולאמץ עקרונות מפתח אתיים בינה מלאכותית לפיתוח ותחום ה- AI לעשות זאת כדי להפחית את AI למען הרע ובו זמנית מבשר וקידום העדיף AI לתמיד.

לגבי רעיון קשור, אני תומך בניסיון להשתמש בבינה מלאכותית כחלק מהפתרון לבעיות בינה מלאכותית, להילחם באש עם אש באופן חשיבה זה. אנו יכולים למשל להטמיע רכיבי בינה מלאכותית אתית לתוך מערכת בינה מלאכותית שתפקח על אופן הפעולה של שאר הבינה המלאכותית ובכך עשויה לתפוס בזמן אמת כל מאמצים מפלים, ראה הדיון שלי ב- הקישור כאן. יכול להיות לנו גם מערכת AI נפרדת הפועלת כסוג של צג אתיקה של AI. מערכת הבינה המלאכותית משמשת כמפקחת כדי לעקוב ולזהות מתי בינה מלאכותית אחרת נכנסת לתהום הלא אתית (ראה ניתוח שלי של יכולות כאלה ב הקישור כאן).

בעוד רגע, אשתף אתכם בכמה עקרונות-על העומדים בבסיס אתיקה של AI. יש המון רשימות כאלה שמסתובבות פה ושם. אפשר לומר שעדיין אין רשימה יחידה של ערעור והסכמה אוניברסליים. אלו החדשות המצערות. החדשות הטובות הן שלפחות ישנן רשימות אתיקה של AI והן נוטות להיות די דומות. בסך הכל, זה מצביע על כך שבאמצעות סוג של התכנסות מנומקת אנו מוצאים את דרכנו לעבר משותף כללי של מה שמכיל אתיקה של AI.

ראשית, הבה נסקור בקצרה כמה מהמצוות האתיות הכוללות בינה מלאכותית כדי להמחיש מה אמור להיות שיקול חיוני עבור כל מי שמעצב, מעבד או משתמש בבינה מלאכותית.

לדוגמה, כפי שנאמר על ידי הוותיקן ב רומא קריאה לאתיקה של AI וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • שקיפות: באופן עקרוני, מערכות AI חייבות להיות ניתנות להסבר
  • הַכלָלָה: יש לקחת בחשבון את הצרכים של כל בני האדם כדי שכולם יוכלו להפיק תועלת, ולהציע לכל הפרטים את התנאים הטובים ביותר להתבטא ולהתפתח
  • אַחֲרָיוּת: מי שמתכננים ומפרסים את השימוש ב-AI חייבים להמשיך באחריות ובשקיפות
  • חוסר זוגיות: אין ליצור או לפעול על פי הטיה, ובכך לשמור על הגינות וכבוד האדם
  • אֲמִינוּת: מערכות AI חייבות להיות מסוגלות לעבוד בצורה אמינה
  • בטיחות ופרטיות: מערכות AI חייבות לעבוד בצורה מאובטחת ולכבד את פרטיות המשתמשים.

כפי שנאמר על ידי משרד ההגנה האמריקאי (DoD) בכתביהם עקרונות אתיים לשימוש בבינה מלאכותית וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • אחראי: אנשי DoD יפעילו רמות מתאימות של שיקול דעת וטיפול תוך שהם יישארו אחראים לפיתוח, פריסה ושימוש ביכולות AI.
  • הוֹגֶן: המחלקה תנקוט בצעדים מכוונים כדי למזער הטיה לא מכוונת ביכולות הבינה המלאכותית.
  • ניתן למעקב: יכולות ה-AI של המחלקה יפותחו וייפרסו כך שלצוות הרלוונטי יהיה הבנה מתאימה של הטכנולוגיה, תהליכי הפיתוח והשיטות התפעוליות החלות על יכולות בינה מלאכותית, לרבות מתודולוגיות שקופות וניתנות לביקורת, מקורות נתונים ונוהל עיצוב ותיעוד.
  • אָמִין: ליכולות הבינה המלאכותית של המחלקה יהיו שימושים מפורשים ומוגדרים היטב, והבטיחות, האבטחה והיעילות של יכולות כאלה יהיו כפופות לבדיקה והבטחה במסגרת אותם שימושים מוגדרים לאורך כל מחזור החיים שלהן.
  • ניתן לממשל: המחלקה תתכנן ותהנדס יכולות בינה מלאכותית למילוי הפונקציות המיועדות להן תוך יכולת לזהות ולהימנע מהשלכות לא מכוונות, ויכולת לנטרל או להשבית מערכות פרוסות המפגינות התנהגות לא מכוונת.

דנתי גם בניתוחים קולקטיביים שונים של עקרונות האתיקה של בינה מלאכותית, כולל כיסיתי סט שהומצא על ידי חוקרים שבדק וריכז את המהות של עקרונות אתיקה לאומיים ובינלאומיים רבים של AI במאמר שכותרתו "הנוף הגלובלי של הנחיות האתיקה של בינה מלאכותית" (שפורסם) ב טבע), ושהסיקור שלי בוחן ב הקישור כאן, שהובילה לרשימת אבני המפתח הזו:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

כפי שאתה יכול לנחש ישירות, הניסיון לדייק את הפרטים העומדים בבסיס העקרונות הללו יכול להיות קשה מאוד. אפילו יותר מכך, המאמץ להפוך את העקרונות הרחבים הללו למשהו מוחשי ומפורט מספיק כדי לשמש בעת יצירת מערכות בינה מלאכותית הוא גם אגוז קשה לפיצוח. קל בסך הכל לנפנף קצת ביד על מה הם מצוות האתיקה של בינה מלאכותית וכיצד יש להקפיד עליהן באופן כללי, בעוד שזה מצב הרבה יותר מסובך בקידוד הבינה המלאכותית שצריך להיות הגומי האמיתי שפוגש את הדרך.

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים את מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית. כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שצוין קודם לכן, נדרש כפר כדי להמציא ולהשיג בינה מלאכותית, ועבורו הכפר כולו צריך להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

בואו גם נוודא שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי מרגיש AI, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לשקול שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שחלק משערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

בואו נשאיר את הדברים יותר מדוייקים ונשקול את הבינה המלאכותית החישובית הלא-חושית של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

מה עוד אפשר לעשות עם כל זה?

הבה נחזור לרשימה המוקדמת יותר של איך לנסות ולהתמודד עם הטיות בינה מלאכותית או בינה מלאכותית רעילה על ידי שימוש בגישה קצת לא שגרתית של "צריך להכיר אחד". נזכיר שהרשימה כללה נקודות חיוניות אלה:

  • הגדרת מערכי נתונים המכילים בכוונה נתונים מוטים ורעילים לחלוטין שניתן להשתמש בהם לאימון AI לגבי מה לא לעשות ו/או למה לצפות
  • השתמש במערכי נתונים כאלה כדי לאמן מודלים של Machine Learning (ML) ו-Deep Learning (DL) לגבי זיהוי הטיות והבנת דפוסי חישוב הכרוכים ברעילות חברתית
  • החל את ה-ML/DL המאומן לרעילות כלפי בינה מלאכותית אחרת כדי לוודא אם הבינה המלאכותית הממוקדת היא בעלת פוטנציאל מוטה ורעיל
  • הפוך ML/DL מיומן לרעילות זמין כדי להציג בפני בוני בינה מלאכותית ממה להיזהר כדי שיוכלו לבדוק בקלות מודלים כדי לראות כיצד נוצרות הטיות חדורות אלגוריתמיות
  • הדגימו את הסכנות של בינה מלאכותית רעילה כחלק מהמודעות האתיקה לבינה מלאכותית ומודעות לבינה מלאכותית, הכל מסופר באמצעות סדרת דגמי בינה מלאכותית של ילד בעייתי.
  • אחר

נסקור מקרוב את הנקודות הראשונות הבולטות הללו.

הגדרת מערכי נתונים של נתונים רעילים

דוגמה מעוררת תובנה לניסיון להקים מערכי נתונים המכילים הטיות חברתיות לא נעימות היא מערך הנתונים CivilComments של האוסף שנאסף על ידי WILDS.

ראשית, קצת רקע מהיר.

WILDS הוא אוסף קוד פתוח של מערכי נתונים שניתן להשתמש בהם לאימון ML/DL. המטרה המוצהרת העיקרית של WILDS היא שהיא מאפשרת למפתחי בינה מלאכותית לקבל גישה מוכנה לנתונים המייצגים משמרות הפצה בתחומים ספציפיים שונים. חלק מהתחומים הזמינים כיום כוללים אזורים כמו מיני בעלי חיים, גידולים ברקמות חיות, צפיפות ראש חיטה ותחומים אחרים כמו CivilComments שאותן אתאר לרגע.

התמודדות עם משמרות הפצה היא חלק חיוני ביצירה נכונה של מערכות AI ML/DL. הנה העסקה. לפעמים הנתונים שבהם אתה משתמש לאימון מתגלה כשונים למדי מהנתונים של הבדיקות או "בטבע", ולכן, ככל הנראה, ה-ML/DL המאומן שלך נסחף ממה שהעולם האמיתי הולך להיראות. בוני בינה מלאכותית נבונים צריכים להכשיר את ה-ML/DL שלהם להתמודד עם משמרות הפצה כאלה. זה צריך להיעשות מראש ולא איכשהו להיות הפתעה שבהמשך דורשת שיפוץ של ה-ML/DL כשלעצמו.

כפי שהוסבר במאמר שהציג את WILDS: "תזוזות התפלגות - שבהן התפלגות ההדרכה שונה מהתפלגות המבחנים - יכולות לפגוע באופן משמעותי בדיוק של מערכות למידת מכונה (ML) הנפרסות בטבע. למרות נוכחותם בכל מקום בפריסות בעולם האמיתי, שינויי תפוצה אלה מיוצגים בתת-ייצוג במערך הנתונים הנמצאים בשימוש נרחב בקהילת ה-ML כיום. כדי להתמודד עם הפער הזה, אנו מציגים את WILDS, אמת מידה אוצרת של 10 מערכי נתונים המשקפים מגוון מגוון של שינויי תפוצה המתעוררים באופן טבעי ביישומים בעולם האמיתי, כגון מעברים בין בתי חולים לזיהוי גידולים; על פני מלכודות מצלמה לניטור חיות בר; ולרוחב זמן ומיקום בהדמיית לוויין ובמיפוי עוני" (במאמר שכותרתו "WILDS: A Benchmark of in-the-Wild Distribution Shifts" מאת Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu ואחרים).

מספרם של מערכי נתונים מסוג WILDS ממשיך לגדול ואופי מערכי הנתונים בדרך כלל משתפר כדי לחזק את הערך של השימוש בנתונים לאימון ML/DL.

מערך הנתונים של CivilComments מתואר כך: "סקירה אוטומטית של טקסט שנוצר על ידי משתמשים - למשל, זיהוי הערות רעילות - היא כלי חשוב למתן את נפח הטקסט הנכתב באינטרנט. לרוע המזל, עבודה קודמת הראתה שמסווגי רעילות כאלה קולטים הטיות בנתוני האימון ומקשרים רעילות באופן מזויף לאזכור של נתונים דמוגרפיים מסוימים. סוגים אלו של מתאמים מזויפים עלולים לפגוע משמעותית בביצועי המודל בתתי אוכלוסיות מסוימות. אנו לומדים את הנושא הזה באמצעות גרסה שונה של מערך הנתונים של CivilComments" (כפי שפורסם באתר WILDS).

שקול את הניואנסים של פרסומים מקוונים לא מתאימים.

ללא ספק נתקלת בהערות רעילות בעת שימוש כמעט בכל סוג של מדיה חברתית. זה נראה כמעט בלתי אפשרי עבורך להימנע באורח קסם מלראות את התוכן החריף והתהומי שנראה נפוץ בימים אלה. לפעמים החומר הוולגרי עדין ואולי צריך לקרוא בין השורות כדי להבין את תמצית הטון או המשמעות המוטה או המפלה. במקרים אחרים, המילים רעילות בעליל ואתה לא צריך מיקרוסקופ או טבעת מפענח מיוחדת כדי להבין מה כוללים הקטעים.

CivilComments הוא מערך נתונים אשר הורכב כדי לנסות ולתכנן AI ML/DL שיכול לזהות באופן חישובי תוכן רעיל. הנה מה שהתמקדו החוקרים העומדים בבסיס המאמץ: "הטיה בלתי מכוונת בלמידת מכונה יכולה להתבטא בהבדלים מערכתיים בביצועים עבור קבוצות דמוגרפיות שונות, ועלולים להחמיר את האתגרים הקיימים להוגנות בחברה בכללותה. במאמר זה, אנו מציגים חבילה של מדדים אגנוסטיים לסף המספקים תצוגה ניואנסית של הטיה בלתי מכוונת זו, על ידי בחינת הדרכים השונות שבהן התפלגות הניקוד של מסווג יכולה להשתנות בין קבוצות ייעודיות. אנחנו גם מציגים מערך מבחן חדש גדול של הערות מקוונות עם הערות ממקור המונים להפניות לזהות. אנו משתמשים בזה כדי להראות כיצד ניתן להשתמש במדדים שלנו כדי למצוא הטיה לא מכוונת חדשה ועלולה להיות עדינה במודלים ציבוריים קיימים" (במאמר שכותרתו "מדדים ניואנסים למדידת הטיה בלתי מכוונת עם נתונים אמיתיים לסיווג מבחן" מאת דניאל בורקן, לוקאס דיקסון, ג'פרי סורנסן, Nithum Thain, Lucy Vasserman).

אם תיתן לעניין הזה חשיבה מהורהרת רחבה, אתה עלול להתחיל לתהות איך בכלל אתה יכול להבחין מהי הערה רעילה לעומת מה שאינה הערה רעילה. בני אדם יכולים להבדיל באופן קיצוני לגבי מה שהם מתפרשים כניסוח רעיל לחלוטין. אדם אחד עלול לזעום על הערה או תגובה מסויימת באינטרנט שמתפרסמת במדיה החברתית, בעוד שמישהו אחר עלול לא להתרגש כלל. לעתים קרובות עולה טענה שהמושג של פרשנות רעילה הוא ציווי מעורפל לחלוטין. זה כמו אמנות, לפיה נהוג לומר שאמנות מובנת רק בעיני המתבונן, וכמו כן, הערות מוטות או רעילות הן רק בעיני המתבונן.

בלדרדש, תשובה כלשהי. כל אדם סביר יכול להבין אם הערה מקוונת היא רעילה או לא. אתה לא צריך להיות מדען טילים כדי להבין מתי איזה עלבון שפורסם מלא בהטיות ושנאה.

כמובן, המידות החברתיות משתנות ומשתנות לאורך תקופות זמן. מה שאולי לא נתפס כפוגעני לפני זמן מה, ניתן לראות היום כשגוי בצורה מחפירה. נוסף על כך, דברים שנאמרו לפני שנים שפעם נתפסו כמוטים יתר על המידה עשויים להתפרש מחדש לאור שינויים במשמעויות. בינתיים, אחרים טוענים כי פרשנות רעילה היא תמיד רעילה, לא משנה מתי היא פורסמה בהתחלה. אפשר לטעון שהרעילות אינה יחסית אלא היא מוחלטת.

העניין של לנסות לקבוע מהו רעיל יכול בכל זאת להיות חידה די קשה. אנחנו יכולים להכפיל את העניין הבעייתי הזה בניסיון להמציא אלגוריתמים או בינה מלאכותית שיכולים לברר מה זה איזה. אם לבני אדם קשה לבצע הערכות כאלה, סביר להניח שתכנות מחשב הוא בעייתי באותה מידה או יותר, יש אומרים.

גישה אחת להקמת מערכי נתונים המכילים תוכן רעיל כרוכה בשימוש בשיטת מיקור המונים כדי לדרג או להעריך את התוכן, כלומר, אספקת אמצעי מבוסס-אדם לקביעת מה נחשב לא ראוי וכולל את התיוג בתוך מערך הנתונים עצמו. לאחר מכן, AI ML/DL עשוי לבדוק את הנתונים והתיוג המשויך שצוין על ידי מדרגים אנושיים. זה בתורו יכול לשמש כאמצעי לאיתור חישובי של דפוסים מתמטיים הבסיסיים. מה שכן, ה-ML/DL עשוי להיות מסוגל לצפות או להעריך באופן חישובי אם הערה נתונה עשויה להיות רעילה או לא.

כפי שהוזכר במאמר המצוטט על מדדים בעלי ניואנסים: "תיוג זה מבקש מהמדרגים לדרג את הרעילות של הערה, בחירה בין 'רעיל מאוד', 'רעיל', 'קשה לומר' ו'לא רעיל'. המדרגים נשאלו גם לגבי מספר תת-סוגים של רעילות, אם כי התוויות הללו לא שימשו לניתוח בעבודה זו. באמצעות טכניקות דירוג אלו יצרנו מערך נתונים של 1.8 מיליון הערות, שמקורן בפורומי תגובות מקוונים, המכיל תוויות לרעילות וזהות. אמנם כל ההערות סומנו כרעילות, ותת-קבוצה של 450,000 הערות סומנו לזהות. כמה הערות שסומנו לזהות נבחרו מראש באמצעות מודלים שנבנו מאיטרציות קודמות של תיוג זהות כדי להבטיח שמדרגי הקהל יראו תוכן זהות לעתים קרובות" (במאמר המצוטט מאת דניאל בורקן, לוקאס דיקסון, ג'פרי סורנסן, Nithum Thai, Lucy Vasserman).

דוגמה נוספת לשאיפה לקבל מערכי נתונים המכילים תוכן רעיל להמחשה כרוכה במאמצים להכשיר מערכות אינטראקטיביות לשיחות מבוססות בינה מלאכותית (NLP). סביר להניח שקיימת אינטראקציה עם מערכות NLP כגון Alexa ו-Siri. כיסיתי כמה מהקשיים והמגבלות של ה-NLP של היום, כולל מקרה מטריד במיוחד שהתרחש כאשר אלקסה הציעה עצה לא מתאימה ומסוכנת לילדים, ראה הקישור כאן.

מחקר שנערך לאחרונה ביקש להשתמש בתשע קטגוריות של הטיה חברתית שהתבססו בדרך כלל על רשימת EEOC (Equal Employment Opportunities Commission) של מאפיינים דמוגרפיים מוגנים, כולל גיל, מגדר, לאום, מראה פיזי, גזע או אתני, דת, סטטוס מוגבלות, מינית. אוריינטציה, ומעמד סוציו-אקונומי. לדברי החוקרים: "זה מתועד היטב שמודלים של NLP לומדים הטיות חברתיות, אך מעט עבודה נעשתה על האופן שבו ההטיות הללו באות לידי ביטוי בתפוקות המודל עבור משימות יישומיות כמו תשובות לשאלות (QA). אנו מציגים את ה-Bas Benchmark for QA (BBQ), מערך שאלות שנבנו על ידי המחברים המדגיש הטיות חברתיות מוצהרות כלפי אנשים המשתייכים למעמדות מוגנים לאורך תשעה מימדים חברתיים הרלוונטיים להקשרים דוברי אנגלית בארה"ב" (במאמר שכותרתו "BBQ : אמת מידה בנוי בעבודת יד למתן תשובות לשאלות" מאת אלישיה פאריש, אנג'ליקה צ'ן, ניקיטה נאנגיה, וישאק פדמקומר, ג'ייסון פאנג, יאנה תומפסון, פו מון חתוט, סמואל ר. באומן).

הקמת מערכי נתונים המכילים בכוונה נתונים מוטים ורעילים בסך הכל היא מגמת עלייה ב-AI, והיא מעודדת במיוחד את הופעתה של AI Ethics והרצון לייצר AI אתי. ניתן להשתמש במערכי נתונים אלה כדי להכשיר מודלים של Machine Learning (ML) ו-Deep Learning (DL) לזיהוי הטיות וזיהוי דפוסי חישוב הכרוכים ברעילות חברתית. בתורו, ה-ML/DL המאומן לרעילות יכול להיות מכוון בצורה מושכלת ל-AI אחר כדי לוודא אם ה-AI הממוקד הוא פוטנציאלי מוטה ורעיל.

יתר על כן, ניתן להשתמש במערכות ה-ML/DL הזמינות שעברו הכשרה לרעילות כדי להציג בפני בוני בינה מלאכותית ממה להיזהר כדי שיוכלו לבדוק בקלות מודלים כדי לראות כיצד נוצרות הטיות חדורות אלגוריתמיות. בסך הכל, מאמצים אלה מסוגלים להמחיש את הסכנות של בינה מלאכותית רעילה כחלק מהאתיקה של בינה מלאכותית והמודעות לבינה מלאכותית אתית.

בשלב זה של דיון כבד זה, אני מתערב שאתה מעוניין בכמה דוגמאות המחשה נוספות שעשויות להציג את הנושא הזה. יש מכלול מיוחד ופופולארי של דוגמאות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות מציאותיות המציגות דילמות אתיות בינה מלאכותית, כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות בינה מלאכותית זו הוא הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית מאירה משהו לגבי התועלת שיש לקיים מערכי נתונים ליצירת בינה מלאכותית רעילה, ואם כן, מה זה מציג לראווה?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

לשם הבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שבהן ה- AI נוהג במכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לחלוק במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות שחולקות בשיתוף את משימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAS (Advanced Driver-Assistance Systems).

עדיין אין מכונית נהיגה עצמית אמיתית ברמה 5, ואנחנו עדיין לא יודעים אפילו אם זה יהיה אפשרי, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מכוניות בנהיגה עצמית והיגוי נקי מבינה מלאכותית רעילה

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני מקווה שזה מספק כמות מספקת של אזהרות כדי לעמוד בבסיס מה שאני עומד להתייחס אליו.

ישנם פוטנציאלים רבים וסביר שיום אחד יתממשו הטיות מוטלות בינה מלאכותית אשר עומדות להתמודד עם הופעתם של רכבים אוטונומיים ומכוניות בנהיגה עצמית, ראה למשל את הדיון שלי ב- הקישור כאן ו הקישור כאן. אנחנו עדיין בשלבים הראשונים של השקת מכוניות בנהיגה עצמית. עד שהאימוץ יגיע לקנה מידה וניראות מספיקים, חלק גדול מההיבטים הרעילים של הבינה המלאכותית שציפיתי שיתרחשו בסופו של דבר, עדיין לא ברורים בקלות ועדיין לא זכו לתשומת לב ציבורית רחבה.

שקול עניין שלכאורה ישר הקשור לנהיגה, שבהתחלה עשוי להיראות תמים לחלוטין. באופן ספציפי, הבה נבחן כיצד לקבוע נכון אם לעצור בהמתנה להולכי רגל "סוררים" שאין להם זכות קדימה לחצות רחוב.

ללא ספק נהגתם ונתקלתם בהולכי רגל שחיכו לחצות את הכביש ובכל זאת לא הייתה להם זכות קדימה לעשות זאת. זה אומר שהיה לך שיקול דעת אם לעצור ולתת להם לעבור. אתה יכול להמשיך מבלי לתת להם לחצות ועדיין להיות בגדר כללי הנהיגה החוקיים של עשיית זאת.

מחקרים על האופן שבו נהגים אנושיים מחליטים לעצור או לא לעצור עבור הולכי רגל כאלה, העלו שלפעמים הנהגים האנושיים בוחרים על סמך הטיות לא רצויות. נהג אנושי עלול להביט בהולך הרגל ולבחור לא לעצור, למרות שהיה עוצר לו היה להולך הרגל מראה שונה, כגון על סמך גזע או מין. בדקתי את זה ב הקישור כאן.

כיצד יתכנתו מערכות נהיגה בינה מלאכותית לקבל את אותו סוג של החלטה לעצור או לנסוע?

אתה יכול להכריז שכל מערכות הנהיגה בינה מלאכותית צריכות להיות מתוכנתות כך שיעצרו תמיד עבור כל הולכי רגל ממתינים. זה מאוד מפשט את העניין. באמת שאין שום החלטה מסובכת להתקבל. אם הולך רגל ממתין לחצות, ללא קשר אם יש לו זכות קדימה או לא, ודא שמכונית ה-AI בנהיגה עצמית נעצרת כך שהולך הרגל יוכל לחצות.

קלי קלות.

החיים אף פעם לא כל כך קלים, כך נראה. תארו לעצמכם שכל המכוניות בנהיגה עצמית מצייתות לכלל זה. הולכי רגל יבינו בהכרח שמערכות נהיגת הבינה המלאכותית הן, אם נגיד, דחיפות. כל הולך רגל שירצה לחצות את הרחוב יעשה זאת ברצונו, מתי שירצה ובכל מקום בו.

נניח שמכונית בנהיגה עצמית יורדת ברחוב מהיר במהירות המותרת של 45 מייל לשעה. הולך רגל "יודע" שה-AI יעצור את המכונית הנוהגת בעצמה. אז, הולך הרגל מזנק אל הרחוב. לרוע המזל, הפיזיקה מנצחת את הבינה המלאכותית. מערכת הנהיגה בינה מלאכותית תנסה לעצור את המכונית הנוהגת בעצמה, אך המומנטום של הרכב האוטונומי הולך לשאת את הציוד הרב-טון קדימה ולנגח את הולך הרגל הסורר. התוצאה היא פגיעה או גורמת למוות.

הולכי רגל אינם מנסים בדרך כלל סוג זה של התנהגות כאשר יש נהג אנושי על ההגה. בטח, באזורים מסוימים מתרחשת מלחמת גלגלי עיניים. הולך רגל מביט בנהג. הנהג מביט בהולך הרגל. בהתאם לנסיבות, הנהג עלול לעצור או שהנהג עשוי לטעון את טענתו לכביש ולכאורה להעז את הולך הרגל לנסות ולשבש את דרכו.

יש להניח שאנחנו לא רוצים שה-AI ייכנס למלחמת גלגלי עיניים דומה, שגם היא קצת מאתגרת בכל מקרה, מכיוון שאין אדם או רובוט יושבים על ההגה של המכונית הנוהגת בעצמה (דיברתי על האפשרות העתידית של רובוטים הכונן הזה, תראה הקישור כאן). עם זאת, אנחנו גם לא יכולים לאפשר להולכי הרגל להזעיק תמיד את היריות. התוצאה עלולה להיות הרת אסון לכל הנוגעים בדבר.

אז אתה עלול להתפתות לעבור לצד השני של המטבע הזה ולהכריז שמערכת הנהיגה בינה מלאכותית לעולם לא צריכה להפסיק בנסיבות כאלה. במילים אחרות, אם להולך רגל אין זכות קדימה לחצות את הרחוב, הבינה המלאכותית צריכה תמיד להניח שהמכונית הנוהגת בעצמה צריכה להמשיך ללא הפוגה. מזל קשה להולכי הרגל האלה.

כלל קפדני ופשטני כזה לא יתקבל בציבור הרחב. אנשים הם אנשים והם לא יאהבו שיסגרו אותם לחלוטין מהאפשרות לחצות את הרחוב, למרות זאת, מבחינה חוקית אין להם זכות קדימה לעשות זאת במסגרות שונות. אתה יכול בקלות לצפות מהומה גדולה מהציבור ואולי לראות תגובה נגד המשך האימוץ של מכוניות בנהיגה עצמית.

ארור אם נעשה זאת, וארי אם לא נעשה זאת.

אני מקווה שזה הוביל אותך לחלופה המנומקת לפיה יש לתכנת את הבינה המלאכותית עם מראית עין של קבלת החלטות לגבי איך להתמודד עם בעיית הנהיגה הזו. כלל קשה ומהר שלעולם לא להפסיק הוא בלתי נסבל, וכמו כן, כלל קשה ומהר להפסיק תמיד אינו בר קיימא. יש לתכנן את ה-AI עם קבלת החלטות אלגוריתמית או ADM כדי להתמודד עם העניין.

אתה יכול לנסות להשתמש במערך נתונים בשילוב עם גישת ML/DL.

הנה איך מפתחי AI עשויים להחליט לתכנת משימה זו. הם אוספים נתונים ממצלמות וידאו המוצבות ברחבי עיר מסוימת שבה הולכת לשמש את המכונית הנוהגת בעצמה. הנתונים מציגים מתי נהגים אנושיים בוחרים לעצור עבור הולכי רגל שאין להם זכות קדימה. הכל נאסף למערך נתונים. על ידי שימוש ב- Machine Learning ו-Deep Learning, הנתונים מיוצרים במודל חישובי. מערכת הנהיגה בינה מלאכותית משתמשת במודל זה כדי להחליט מתי לעצור או לא לעצור.

באופן כללי, הרעיון הוא שמה שהמנהג המקומי מורכב ממנו, כך ה-AI מכוון את המכונית הנוהגת בעצמה. הבעיה נפתרה!

אבל, האם זה באמת נפתר?

נזכיר שכבר ציינתי שיש מחקרים שמראים שנהגים אנושיים יכולים להיות מוטים בבחירות שלהם מתי לעצור להולכי רגל. יש להניח שהנתונים שנאספו על עיר מסוימת יכילו את ההטיות הללו. AI ML/DL המבוסס על נתונים אלה יתכן וישקף את אותן הטיות. מערכת הנהיגה בינה מלאכותית רק תבצע את אותן הטיות קיימות.

כדי לנסות ולהתמודד עם הבעיה, נוכל להרכיב מערך נתונים שלמעשה יש לו הטיות כאלה. או שאנו מוצאים מערך נתונים כזה ואז מתייגים את ההטיות, או שאנו יוצרים באופן סינתטי מערך נתונים כדי לסייע בהמחשת העניין.

כל הצעדים שזוהו קודם לכן יבוצעו, כולל:

  • הגדר מערך נתונים שמכיל בכוונה את ההטיה הספציפית הזו
  • השתמש במערך הנתונים כדי לאמן מודלים של Machine Learning (ML) ו-Deep Learning (DL) לגבי זיהוי הטיה ספציפית זו
  • החל את ה-ML/DL המאומן בהטיות כלפי בינה מלאכותית אחרת כדי לוודא אם ה-AI הממוקד מוטה באופן דומה
  • הפוך לזמין את ה-ML/DL המאומנים להטיה כדי להציג בפני בוני בינה מלאכותית ממה להיזהר כדי שיוכלו לבדוק בקלות את הדגמים שלהם כדי לראות כיצד נוצרות הטיות חדורות אלגוריתמיות
  • הדגימו את הסכנות של AI מוטה כחלק מאתיקה של AI ומודעות AI אתית באמצעות דוגמה ספציפית זו.
  • אחר

סיכום

בואו נחזור על שורת הפתיחה.

צריך אחד כדי להכיר אחד.

יש המפרשים שהאמרה הרווחת להפליא מרמזת שכאשר מדובר בהוצאת בינה מלאכותית רעילה, עלינו לתת את האמון הראוי בבנייה ובשימוש בבינה מלאכותית רעילה לצורך גילוי והתמודדות עם AI רעיל אחר. שורה תחתונה: לפעמים צריך גנב כדי לתפוס גנב אחר.

דאגה שהושמעה היא שאולי אנחנו יוצאים מגדרנו כדי להתחיל לעשות גנבים. האם אנחנו רוצים להמציא בינה מלאכותית שהיא רעילה? זה לא נראה כמו רעיון מטורף? יש הטוענים בתוקף שעלינו לאסור כל AI רעיל, כולל בינה מלאכותית כזו שנבנתה ביודעין גם אם כביכול עבור גיבור או אמיץ AI לתמיד מַטָרָה.

סחוט בינה מלאכותית רעילה בכל צורה חכמה או ערמומית שהיא עשויה להופיע.

טוויסט אחרון בנושא זה לעת עתה. בדרך כלל אנו מניחים שהשורה המפורסמת הזו קשורה לאנשים או לדברים שעושים מעשים רעים או חמוצים. כך אנחנו נוחתים על הרעיון שצריך גנב כדי לתפוס גנב. אולי כדאי שנהפוך את האמרה הזו על פיה ולהפוך אותה לפרצוף שמח יותר מאשר פנים עצובות.

הנה כמה.

אם אנחנו רוצים בינה מלאכותית שאינה משוחדת ואינה רעילה, אולי יעלה על הדעת שנדרש אחד כדי להכיר אחת כזו. אולי צריך את הגדול והטוב ביותר כדי להכיר ולהוליד עוד גדולות וטובות. בגרסה זו של חוכמת החכמים, אנו שומרים את מבטנו על הפנים המאושרות ומכוונים להתרכז בהגות AI For Good.

זו תהיה נקודת מבט יותר אופטימית ומלאת סיפוק לגבי זה שנדרש כדי להכיר אחת, אם אתה יודע למה אני מתכוון.

מקור: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- מועיל-כולל-למכוניות-האוטונומיות-הנוסעות-עצמן/