הנה למה לעסקים יש יחסי אהבה-שנאה סוערים עם מועצות האתיקה של בינה מלאכותית

האם עסק צריך להקים ועדת ייעוץ לאתיקה בינה מלאכותית?

אולי תופתעו לדעת שזו תשובה לא פשוטה של ​​כן או לא.

לפני שאני נכנס למורכבות העומדות בבסיס היתרונות והחסרונות של הקמת ועדת ייעוץ אתית בינה מלאכותית, בואו נוודא שכולנו באותו עמוד לגבי מה מורכבת ועדת ייעוץ לאתיקה בינה מלאכותית ומדוע היא עלתה לרמת הכותרת בּוֹלְטוּת.

כפי שכולם יודעים, בינה מלאכותית (AI) והשימוש המעשי בבינה מלאכותית לפעילויות עסקיות עברו את הגג כדבר חובה עבור חברות מודרניות. יהיה לך קשה לטעון אחרת. במידה מסוימת, החדרת הבינה המלאכותית הפכה את המוצרים והשירותים לטובים יותר, ולעתים הובילה לעלויות נמוכות יותר הקשורות באספקת המוצרים והשירותים האמורים. רשימה זריזה של יעילות ושיפורי יעילות יכולה להיות מיוחסת ליישום ההגיוני והמתאים של AI. בקיצור, הוספה או הרחבה של מה שאתה עושה על ידי שילוב בינה מלאכותית יכולה להיות הצעה רווחית למדי.

יש גם את מה שנגיד התזה גדולה שמגיע עם הוספת AI למאמצים הארגוניים שלך.

עסקים רועשים וגאים על השימוש שלהם ב-AI. אם ה-AI במקרה גם משפר את מרכולתך, זה נהדר. בינתיים, הטענות על שימוש בבינה מלאכותית מספיק מושכות תשומת לב כדי שתוכלו לעשות את אותם הדברים שעשיתם בעבר, ובכל זאת לצבור הרבה יותר דולרים או גלגלי עיניים על ידי זריקת הדגל של הבינה המלאכותית כחלק מהאסטרטגיה העסקית שלכם ולצאת החוצה- סחורת הדלת.

הנקודה האחרונה שלפעמים להתעסק קצת בשאלה האם באמת נעשה שימוש בבינה מלאכותית גורמת לנו להתקדם לזירה של אתיקה של בינה מלאכותית. יש כל מיני טענות שווא על הסף על ידי עסקים על AI. גרוע מכך, אולי, מורכב משימוש בבינה מלאכותית שמסתבר שהיא מה שנקרא AI למען הרע.

לדוגמה, ללא ספק קראת על המקרים הרבים של מערכות בינה מלאכותית המשתמשות ב- Machine Learning (ML) או Deep Learning (DL) שיש בהן הטיות גזעיות מושרשות, הטיות מגדריות ושיטות אפליה בלתי ראויות אחרות. לסיקור המתמשך והנרחב שלי בנושאים אלה הנוגעים לבינה מלאכותית שלילי והופעת קריאות צעקות לאתיקה של בינה מלאכותית ובינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

אז יש לנו את הדרייברים החמוצים האלה שמסתתרים בשימוש ב-AI הוורוד לכאורה של עסקים:

  • טוענות חלול של שימוש בבינה מלאכותית כאשר למעשה אין AI או עירוי AI לא משמעותי
  • טענות שווא על שימוש בבינה מלאכותית שנועדו בכוונה להטעות
  • הכללה בשוגג של בינה מלאכותית שמסתבר שהיא מטביעה הטיות לא נאותות והיא מפלה
  • בינה מלאכותית שעוצבה בכוונה כדי לפרסם הטיות רעות ופעולות מפלות נתעבות
  • אחר

כיצד מתעוררים בחברות נוהגים חסרי מחשבה או מחפירים מסוג זה?

חלק בולט אחד בפאזל הוא היעדר מודעות לאתיקה של AI.

המנהלים הבכירים עשויים שלא להיות מודעים לעצם הרעיון של תכנון בינה מלאכותית שמציית לסדרה של חוקי AI אתיים. למפתחי בינה מלאכותית בחברה כזו אולי יש מודעות מסוימת לעניין, אם כי אולי הם מכירים רק את תיאוריות האתיקה של בינה מלאכותית ואינם יודעים איך לגשר על הפער במאמצי פיתוח בינה מלאכותית היומיומית. יש גם נסיבות של מפתחי בינה מלאכותית שרוצים לאמץ את אתיקה של בינה מלאכותית אבל אז מקבלים דחיפה חזקה כאשר מנהלים ומנהלים מאמינים שזה יאט את פרויקטי הבינה המלאכותית שלהם ויקפיץ את העלויות של תכנון בינה מלאכותית.

הרבה מנהלים בכירים לא מבינים שחוסר ציות לאתיקה של AI צפוי בסופו של דבר לבעוט בהם ובחברה בעורפם עם שחרור הבינה המלאכותית שגדושה בבעיות קוצניות ומכוערות לחלוטין. חברה עלולה להיתפס עם בינה מלאכותית גרועה בקרבה, שאחר כך מערערת בצער את המוניטין הנבנה מזמן של החברה (סיכון מוניטין). לקוחות עשויים לבחור לא להשתמש יותר במוצרים ובשירותים של החברה (סיכון אובדן לקוחות). המתחרים עשויים לנצל את הכישלון הזה (סיכון תחרותי). ויש המון עורכי דין שמוכנים לסייע לאלה שעברו עבירה, במטרה להגיש תביעות נכבדות נגד חברות שאיפשרו AI רקוב למוצרי החברה שלהם (סיכון משפטי).

בקצרה, ההחזר על ההשקעה (החזר על השקעה) עבור שימוש מתאים באתיקה של AI מועיל כמעט בוודאות יותר מאשר בהשוואה לעלויות במורד הזרם הקשורות לישיבה על גבי סירחון של בינה מלאכותית גרועה שלא היה צריך להמציא או לשחרר.

מסתבר שלא כולם קיבלו את התזכיר הזה, כביכול.

אתיקה של AI רק תופסת אחיזה בהדרגה.

יש הסבורים כי בהכרח עשויה להיות נחוצה זרועו הארוכה של החוק כדי לעורר עוד יותר את האימוץ של גישות AI אתיות.

מלבד שימוש במצוות האתיקה של בינה מלאכותית באופן כללי, ישנה שאלה מקבילה האם צריכים להיות לנו חוקים ייחודיים כדי לשלוט בפיתוח ושימושים שונים של בינה מלאכותית. חוקים חדשים אכן נכרכים ברמה הבינלאומית, הפדרלית, הממלכתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא מדוד. אתיקה של בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים בתוקף שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. למעשה, הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית הללו, נהרוג את אווז הזהב על ידי התמודדות עם התקדמות בינה מלאכותית שמעניקה יתרונות חברתיים עצומים. ראה למשל את הסיקור שלי ב הקישור כאן ו הקישור כאן.

בואו נוודא שכולנו נמצאים באותו עמוד לגבי מה מכילים היסודות של אתיקה של AI.

בסיקור הטור שלי, דנתי בעבר בניתוחים קולקטיביים שונים של עקרונות האתיקה של AI, כמו הערכה זו ב- הקישור כאן, שמציע רשימה מועילה של אבן מפתח של קריטריונים או מאפיינים אתיים של בינה מלאכותית לגבי מערכות בינה מלאכותית:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים ברצינות על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית.

כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. נדרש כפר כדי להמציא ולהשיג בינה מלאכותית, ועבורו הכפר כולו צריך להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

אמצעי לניסיון להציג ולשמור על תשומת לב מתמשכת לגבי השימוש במצוות האתיקה של בינה מלאכותית יכול להתבצע באופן חלקי באמצעות הקמת ועדת ייעוץ לאתיקה של בינה מלאכותית.

בשלב הבא נפרוק את היבטי מועצת האתיקה של AI.

לוחות אתיקה של AI וכיצד לעשות אותם נכון

חברות יכולות להיות בשלבים שונים של אימוץ AI, וכמו כן בשלבים שונים של אימוץ אתיקה של AI.

דמיינו חברה שרוצה להתחיל לאמץ אתיקה של AI אבל לא בטוחה איך לעשות זאת. תרחיש אחר עשוי להיות חברה שכבר התעסקה עם אתיקה של AI אך נראה שאינה בטוחה מה צריך לעשות כדי לקדם את המאמץ. תרחיש שלישי יכול להיות חברה שהמציאה את הבינה המלאכותית והשתמשה בה באופן פעיל ועשתה הרבה כדי לגלם את אתיקה של בינה מלאכותית, למרות שהם מבינים שיש סיכוי שהם מפספסים תובנות אחרות אולי בגלל חשיבה קבוצתית פנימית.

עבור כל אחד מהתרחישים הללו, הקמת ועדת ייעוץ אתית בינה מלאכותית עשויה להיות נבונה.

הרעיון הוא די פשוט (ובכן, כדי להבהיר, הרעיון הכללי הוא קצה הקרחון הפתגמי והשטן נמצא בהחלט בפרטים, כפי שנפרט לרגע).

מועצת ייעוץ אתיקה בינה מלאכותית מורכבת בדרך כלל מיועצים חיצוניים המתבקשים לשרת בוועדה או ועדה מייעצת מיוחדת עבור המשרד. ייתכן שיש גם כמה משתתפים פנימיים הכלולים בדירקטוריון, אם כי בדרך כלל הרעיון הוא לגייס יועצים מחוץ למשרד וזה יכול להביא פרספקטיבה חצי עצמאית למה שהחברה עושה.

אני אומר עצמאית למחצה מכיוון שללא ספק עומדים להיות כמה קונפליקטים פוטנציאליים של עצמאות שיכולים להתעורר עם החברים הנבחרים במועצה המייעצת לאתיקה של AI. אם המשרד משלם ליועצים, זה מעלה את השאלה המתבקשת האם החברים בתשלום מרגישים סומכים על המשרד עבור תלוש שכר או שהם עלולים להיות לא נוחים למתוח ביקורת על סוס המתנה שיש להם ביד. מצד שני, עסקים רגילים לעשות שימוש ביועצים חיצוניים בתשלום עבור כל מיני חוות דעת עצמאיות נחשבות, כך שזה ממילא נהוג וצפוי משהו.

הוועדה המייעצת לאתיקה של AI מתבקשת בדרך כלל להיפגש מעת לעת, באופן אישי או מרחוק וירטואלי. הם משמשים כלוח תהודה על ידי החברה. רוב הסיכויים הם גם שהחברים מקבלים מסמכים פנימיים שונים, דוחות ותזכירים על המאמצים שמתנהלים ב-AI במשרד. חברים מסוימים במועצת יועצי האתיקה של AI עשויים להתבקש להשתתף בפגישות פנימיות כיאה למומחיות הספציפית שלהם. וכו.

מלבד היכולת לראות מה קורה עם בינה מלאכותית בתוך החברה ולספק עיניים רעננות, למועצה המייעצת לאתיקה של בינה מלאכותית יש בדרך כלל תפקיד כפול של להיות ספק מבפנים של החידושים העדכניים ביותר בבינה מלאכותית ובינה מלאכותית אתית. למשאבים פנימיים ייתכן שלא יהיה זמן לחפור במה שקורה מחוץ לחברה, וארגו יכולים לקבל נקודות מבט ממוקדות ומותאמות במיוחד מחברי מועצת האתיקה של AI.

ישנם גם שימושים מבפנים אל חוץ של ועדת מייעצת לאתיקה של AI.

זה יכול להיות מסובך.

הרעיון הוא שהמועצה המייעצת לאתיקה של בינה מלאכותית משמשת כדי לאפשר לעולם החיצון לדעת מה החברה עושה בכל הנוגע לבינה מלאכותית ולאתיקה של בינה מלאכותית. זה יכול להיות שימושי כאמצעי לחיזוק המוניטין של המשרד. המוצרים והשירותים המוטבעים בבינה מלאכותית עשויים להיתפס כאמינים יותר בשל חותמת הזהב של הוועדה המייעצת לאתיקה של בינה מלאכותית. בנוסף, ניתן להמעיט מעט את הקריאות לחברה לעשות יותר ב-Ethical AI על-ידי ציון שהחברה כבר משתמשת בוועדה מייעצת לאתיקה של AI.

שאלות שבדרך כלל מובאות לוועדה מייעצת לאתיקה של בינה מלאכותית על ידי החברה המשתמשת במנגנון כזה כוללות לרוב:

  • האם החברה צריכה להשתמש ב-AI עבור מוצר או שירות מסוים, או שזה נראה מטריד מדי?
  • האם החברה לוקחת בחשבון את כל מגוון שיקולי האתיקה של בינה מלאכותית במאמצי הבינה המלאכותית שלה?
  • האם החברה נקלעה לחשיבה קבוצתית והפכה לא מוכנה או לא מסוגלת לראות נפילות פוטנציאליות של אתיקה בינה מלאכותית הממתינה למאמצים אלה?
  • אילו סוגי גישות עדכניות לאתיקה בינה מלאכותית צריכה החברה לנסות לאמץ?
  • האם זה אפשרי להעניק הערכה חיצונית למאמצי האתיקה שלנו בינה מלאכותית והמחויבות לכך?
  • אחר

גישה לוועדה מייעצת לאתיקה של בינה מלאכותית בהחלט הגיונית וחברות צועדות יותר ויותר בדרך זו.

אנא שים לב שיש צד נוסף למטבע הזה.

מצד אחד של המטבע, מועצות האתיקה של בינה מלאכותית יכולות להיות הדבר הטוב הבא אחרי לחם פרוס. אל תזניח את הצד השני של המטבע, כלומר הם יכולים להיות גם כאב ראש מונומנטלי ואתה עלול להצטער על כך שסטת לטריטוריה המטומטמת הזו (כפי שתראה בדיון הזה, ניתן לנהל את החסרונות, אם אתה יודע מה אתה עושים).

חברות מתחילות להבין שהן עלולות למצוא את עצמן במצוקה קלה כשהן בוחרות ללכת למסלול של מועצת האתיקה המייעצת של AI. אתה יכול לטעון שהתכסיס הזה דומה קצת למשחק באש. אתה מבין, אש היא אלמנט חזק מאוד שאתה יכול להשתמש בו כדי לבשל ארוחות, להגן עליך מפני טורפים בעודך במדבר, לחמם אותך, להביא אור ולספק שלל יתרונות שימושיים וחיוניים.

אש יכולה גם לגרום לך לשרוף אם אתה לא מסוגל להתמודד עם זה היטב.

לאחרונה היו כותרות חדשות שונות שמדגימות בצורה חיה את הסכנות הפוטנציאליות של קיום ועדת ייעוץ אתית בינה מלאכותית. אם חבר מחליט סופית שהוא כבר לא מאמין שהחברה עושה את פעילויות הבינה המלאכותית האתית הנכונות, החבר הממורמר עלול לפרוש ברעש גדול. בהנחה שהאדם עשוי להיות מוכר בתחום הבינה המלאכותית או בתעשייה, ככל הנראה, הספינה הקופצת שלו צפויה לתפוס תשומת לב תקשורתית נרחבת.

אז חברה צריכה ללכת להגנה.

למה החבר עזב?

במה החברה מתעסקת בזלזול?

חלק מהחברות דורשות שחברי המועצה המייעצת לאתיקה של AI יחתום על NDA (הסכמי סודיות), שלכאורה יגנו על המשרד אם החבר יחליט להיות "נוכל" ולזבל את החברה. עם זאת, הבעיה היא שגם אם האדם שותק יחסית, בכל זאת יש הכרה סבירה בכך שהוא לא מכהן עוד במועצה המייעצת לאתיקה של AI. זה כשלעצמו יעורר כל מיני שאלות מרימות גבות.

יתר על כן, גם אם קיים NDA, לפעמים החבר ינסה לעקוף את האספקה. זה עשוי לכלול התייחסות ל"מקרי מקרה" גנריים ללא שם, קריצה-קריצה, כדי להדגיש חריגות באתיקה של בינה מלאכותית שהם מאמינים שהחברה ביצעה באופן ערמומי.

החבר שנפל עלול להיות חצוף לחלוטין ולצאת ישירות בשמות של דאגותיו לגבי החברה. האם מדובר בהפרה ברורה של ה-NDA הוא קצת אולי פחות מכריע מהעובדה שמפיצים את המילה של נקיפות מצפון על AI. חברה שמנסה לתבוע את החבר על הפרת ה-NDA יכולה להביא לעצמה מים חמים באכזריות, לעורר תשומת לב נוספת למחלוקת ולהיראות כדו-קרב הקלאסי של דוד מול גוליית (החברה היא "המפלצת" הגדולה).

חלק מהמנהלים הבכירים מניחים שהם יכולים פשוט להגיע להסדר פיננסי עם כל חבר במועצה המייעצת לאתיקה של AI שחש שהחברה עושה את הדברים הלא נכונים כולל התעלמות או הקטנת דאגות שהושמעו.

זה אולי לא קל כמו שמניחים.

לעתים קרובות, החברים הם בעלי גישה אתית אדוקה ולא יחזרו בקלות ממה שהם תופסים כמאבק אתי נכון מול לא נכון. הם עשויים גם להיות יציבים כלכלית אחרת ולא מוכנים לגלח את מצוות האתיקה שלהם או שייתכן שיש להם תעסוקה אחרת שלא נפגעת מכך שעזבו את מועצת האתיקה של AI.

כפי שעשוי להיות ברור, חלקם מבינים מאוחר יותר שוועדת ייעוץ של AI אתיקה היא חרב פיפיות. יש ערך עצום ותובנה חשובה שקבוצה כזו יכולה להעביר. במקביל, אתה משחק באש. יכול להיות שחבר או חברים מחליטים שהם כבר לא מאמינים שהמשרד עושה עבודת AI אתית אמינה. בחדשות היו סימנים לכך שלפעמים מועצת ייעוץ של AI אתיקה עזב יחד, בבת אחת, או שיש לו חלק מהחברים שהודיעו שהם עוזבים.

היו מוכנים לטוב ולבעיות שעלולות להתעורר עם מועצות האתיקה של AI.

כמובן, יש פעמים שחברות למעשה לא עושות את הדברים הנכונים בכל הנוגע לאתיקה של AI.

לכן, אנו מקווים ומצפים שוועדה מייעצת לאתיקה של בינה מלאכותית בחברה זו תגביר כדי להודיע ​​​​על כך, ככל הנראה קודם כל בתוך המשרד. אם המשרד ממשיך בדרך הרעה הנתפסת, החברים בהחלט ייראו מחויבים מבחינה אתית (ייתכן שגם מבחינה משפטית) לנקוט בפעולות אחרות כפי שהם סבורים שראוי (על החברים להתייעץ עם עורך הדין האישי שלהם לכל ייעוץ משפטי כזה). יכול להיות שזו הדרך היחידה לגרום לחברה לשנות את דרכיה. פעולה דרסטית של חבר או קבוצה של חברים עשויה להיראות כמוצא האחרון שהחברים מקווים שיפנה את הגל. בנוסף, סביר להניח שהחברים האלה לא רוצים להיות חלק ממשהו שהם מאמינים בלהט שסטה מאתיקה של AI.

דרך שימושית לשקול את האפשרויות הללו היא זו:

  • המשרד תועה, החבר בוחר לצאת עקב חוסר ציות נחרץ
  • המשרד אינו תועה, אך החבר מאמין שהמשרד כן, ובכך עוזב עקב חוסר ציות נתפס

העולם החיצון לא בהכרח יידע אם לחבר שיוצא יש בסיס בתום לב לדאגה מהחברה או שמא זה עשוי להיות אידיוסינקרטי או רושם מוטעה של החבר. ישנה גם אפשרות די פשוטה שחבר יעזוב את הקבוצה בגלל התחייבויות אחרות או מסיבות אישיות שאין להן שום קשר למה שהמשרד עושה.

התמצית היא שחשוב לכל חברה המאמצת ועדה מייעצת לאתיקה של בינה מלאכותית לחשוב בתשומת לב על כל מגוון שלבי מחזור החיים הקשורים לקבוצה.

עם כל הדיבורים האלה על היבטים בעייתיים, אני לא רוצה להעביר את הרושם של להישאר נקיים מוועדת ייעוץ אתיקה של AI. זה לא המסר. התמצית האמיתית היא לקיים ועדת ייעוץ אתית בינה מלאכותית ולוודא שאתה עושה זאת בדרך הנכונה. הפוך את זה למנטרה היקרה שלך.

הנה כמה מהיתרונות המוזכרים לעתים קרובות של מועצת ייעוץ אתיקה בינה מלאכותית:

  • יש בהישג יד אמצעי להקפיץ פרויקטים ורעיונות של AI מקבוצה פרטית חצי עצמאית
  • למנף מומחיות באתיקה של בינה מלאכותית שהיא מחוץ למשרד
  • שואפים להימנע מלהטות אתיקה של AI ומאסונות מוחלטים של החברה
  • היו מאיץ יחסי ציבור עבור החברה ומערכות ה-AI שלה
  • פריצת חשיבה קבוצתית פנימית על AI ואתיקה של AI
  • קבל מבט רענן על חידושי AI והמעשיות שלהם
  • שפר את מעמדו וקומתו של המשרד
  • תשמש כקול חסר מעצורים כאשר מאמצי הבינה המלאכותית האיתנים מתים יותר
  • אחר

הנה דרכים נפוצות שבהן חברות משבשות ומחלישות את מועצת האתיקה של AI שלהן (אל תעשה זאת!):

  • ספק כיוון מעורפל ומבלבל לגבי המשימה והמטרה
  • התייעץ רק במשורה ולעיתים לא בזמן שהסוס כבר יצא מהאסם
  • נשמר בחושך
  • מידע מסונן בכבדות שמספק תיאור מטעה של דברים
  • משמש אך ורק כחלון ראווה ולשום מטרה הפקת ערך אחרת
  • אסור לעשות כל מראית עין של חקירה בנושאים פנימיים
  • חסרים משאבים מספיקים כדי לבצע את עבודתם בצורה מספקת
  • חוסר מנהיגות מפורשת בתוך הקבוצה
  • חוסר תשומת לב מצד הנהגת המשרד לגבי הקבוצה
  • צפוי לתת אישור עיוור לכל מה שיוצג
  • אקראי באשר לחברים שנבחרו
  • מטופל במעט כבוד ולכאורה סימן ביקורת בלבד
  • אחר

בעיה נוספת שמבלבלת לעתים קרובות היא טבעם והתנהגותם של החברים השונים המכהנים בוועדה מייעצת לאתיקה של בינה מלאכותית, שלעתים עשויה להיות בעייתית בדרכים אלה:

  • חלק מהחברים עשויים להיות רק משגיחי אתיקה של בינה מלאכותית ולא בקיאים באתיקה של בינה מלאכותית כפרקטיקה וככאלה מספקים תובנות מינימליסטיות בעלות ידע עסקי
  • חלקם יכולים להיות בומבסטיים בכל הנוגע לאתיקה של בינה מלאכותית וקשה מאוד להתמודד איתם לאורך כל השתתפותם
  • קרבות פנימיים יכולים להפוך למסיח דעת משמעותי, לעתים קרובות להתנגשויות של אגו גדול, ולגרום לקבוצה להפוך להיות לא מתפקדת
  • חלקם עשויים להיות עסוקים מדי ומחויבים מדי, כך שהם מנותקים ממאמץ הייעוץ האתיקה של AI
  • לחלקם יש דעה מעמיקה ובלתי מעורערת לגבי אתיקה של AI שהיא לא גמישה ולא מציאותית
  • חלקם נוטים לשיקולים רגשיים ולא אנליטיים ומערכתיים העומדים בבסיס אתיקה של AI
  • יכול להיות דומה לאמירה המפורסמת של להיות כמו עדר חתולים שלא מתמקד ומשוטט ללא מטרה
  • אחר

נראה שחלק מהחברות פשוט זורקות יחד מועצת AI אתיקה על בסיס קצת מרצון. שום מחשבה לא עוברת על החברים שייבחרו. שום מחשבה לא עוברת על מה שהם מביאים כל אחד לשולחן. אין מחשבה על תדירות הפגישות ואופן ניהול הפגישות. אין מחשבה על ניהול מועצת האתיקה של AI, בסך הכל. וכו.

במובן מסוים, בגלל חוסר התושייה שלך, סביר להניח שאתה מניע תאונת רכבת.

אל תעשו את זה.

אולי רשימה זו של דברים נכונים לעשות כעת ברור לך לכאורה בהתבסס על השיח עד כה, אבל אולי תזדעזע לדעת שנדמה שמעט חברות מבינות את זה נכון:

  • זהה במפורש את המשימה והמטרה של המועצה המייעצת לאתיקה של AI
  • ודא שהקבוצה תזכה לתשומת לב הולמת ברמת ההנהלה הבכירה
  • זהה את סוג החברים שהכי יתאים לקבוצה
  • גשו לחברים הרצויים ובדקו את ההתאמה לקבוצה
  • ערכו סידורים מתאימים עם החברים הנבחרים
  • ביסוס הלוגיסטיקה של פגישות, תדירות וכו'.
  • קביעת חובות החברים, היקף ועומק
  • צפו את המשאבים הפנימיים הדרושים לסיוע לקבוצה
  • הקצו משאבים מספיקים לקבוצה עצמה
  • שמור על מועצת האתיקה של AI פעילה ומחוברת
  • יש לתכנן מראש הסלמות כאשר מתעוררות דאגות
  • ציין כיצד יטופלו אירועי חירום או משבר
  • סובב את החברים החוצה או פנימה לפי הצורך כדי לשמור על התערובת מתאימה
  • מראש צפו נתיבי יציאה לחברים
  • אחר

סיכום

לפני כמה שנים, רבים מיצרניות הרכב וחברות הטכנולוגיה לנהיגה עצמית שהחלו להמציא מכוניות לנהיגה עצמית מבוססות בינה מלאכותית, הונעו לפתע לפעול לאמץ מועצות אתיקה של בינה מלאכותית. עד לאותה נקודת זמן, נראה היה שיש מעט מודעות לקיום קבוצה כזו. ההנחה הייתה שההתמקדות הפנימית ב- AI אתית תהיה מספקת.

דיברתי בהרחבה בטור שלי על פגימות או החטאות בינה מלאכותית המצערות השונות שהובילו לעתים לבעיות בנהיגה עצמית כגון תקלות רכב קלות, התנגשויות מכוניות גלויות ואסונות אחרים, ראה את הסיקור שלי בכתובת הקישור כאן. החשיבות של בטיחות בינה מלאכותית והגנות דומות חייבת להיות השיקול העליון עבור מי שמייצר רכבים אוטונומיים. מועצות האתיקה של בינה מלאכותית בנישה זו עוזרות לשמור על בטיחות בינה מלאכותית בראש סדר העדיפויות.

הדרך האהובה עלי לבטא סוג זה של גילוי על אתיקה של AI היא להשוות את העניין לרעידות אדמה.

תושבי קליפורניה נתונים מדי פעם לרעידות אדמה, לפעמים חזקות למדי. אתה עשוי לחשוב שלהתכונן לרעידת אדמה יהיה שיקול תמידי. לא כל כך. המחזור עובד כך. רעידת אדמה מהותית מתרחשת ואנשים מקבלים תזכורת שהם מוכנים לרעידת אדמה. לזמן קצר יש ממהר לבצע הכנות כאלה. לאחר זמן מה, תשומת הלב לכך דועכת. ההכנות נופלות בשולי הדרך או מוזנחות בדרך אחרת. בום, רעידת אדמה נוספת פוגעת, וכל אלה שהיו צריכים להיות מוכנים נתפסים "בלי מודע" כאילו הם לא הבינו שרעידת אדמה עלולה להתרחש מתישהו.

חברות לרוב עושות את אותו הדבר לגבי מועצות האתיקה של AI.

הם לא מתחילים אחד ואז לפתע, לאחר איזו קטסטרופה לגבי ה-AI שלהם, הם מדרבנים באופן תגובתי לפעולה. הם מקימים בקלילות מועצת אתיקה של AI. יש לו הרבה מהצרות שציטטתי קודם לכן כאן. מועצת האתיקה המייעצת של AI מתפרקת. אופס, אסון AI חדש בחברה מעורר מחדש את הצורך במועצה המייעצת לאתיקה של AI.

לשטוף, לשטוף, ולחזור על הפעולה.

עסקים בהחלט מגלים שלפעמים יש להם יחסי אהבה-שנאה עם מאמצי מועצת האתיקה של AI שלהם. כשזה מגיע לעשות דברים בצורה הנכונה, אהבה נמצאת באוויר. כשזה מגיע לעשות דברים בצורה לא נכונה, שנאה צצה באכזריות. ודא שאתה עושה את הדרוש כדי לשמור על האהבה ולמנוע את השנאה בכל הנוגע להקמת ותחזוקה של ועדת ייעוץ לאתיקה של AI.

בואו נהפוך את זה ליחסי אהבה-אהבה.

מקור: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/