אתיקה של בינה מלאכותית בוחנת את היתרונות של כספי כפרה חובה חוקית כדי להבטיח אחריות לבינה מלאכותית שמתנהגת בצורה לא טובה

את מי להאשים?

זו עשויה להיראות כמו שאלה פשוטה, אם כי במקרה של הקטע הקומדיה המפורסמת של הצמד האגדי של אבוט וקוסטלו על קבוצת בייסבול, ה"מי" יכול להיות מבלבל. אולי אתה מכיר במעורפל את ה מי ראשון שגרה קומית שהם הפכו לאחד המערכונים המתמשכים בכל הזמנים (אזהרת ספוילר לאלו מכם שלא שמעו אותה).

אבוט אומר לקוסטלו שמי במקום הראשון, מה במקום השני, ו-I Don't Know נמצא במקום השלישי. הטריק החכם הוא שלאיש הבסיס הראשון קוראים מי, המרתף השני נקרא מה, והבסיס השלישי נקרא אני לא יודע. כמובן, לביטויים האלה יש גם את המשמעות המקובלת שלהם, ולכן הניסיון לפרש את מה שאבוט אומר יכול להיות מבולבל לחלוטין. ואכן, קוסטלו שואל את השאלה התמימה לכאורה מי בראשון, והתשובה עליה היא בתוקף. אבל זה לא הגיוני לקוסטלו מכיוון שהוא ציפה לשם ובמקום זאת קיבל כן מביך כתשובה.

העברת הילוכים, כשמדובר בהופעתה של בינה מלאכותית (AI), אחת השאלות המטרידות ביותר שנשאלות כל הזמן כרוכה במי או אולי מה יישא באחריות כאשר בינה מלאכותית תועה.

דנתי בעבר באחריות הפלילית למקרים שבהם בינה מלאכותית מובילה או מבצעת פעולות פליליות, עיין בסיקור שלי בכתובת הקישור כאן. יש גם עניין של אחריות אזרחית כמו מי או מה אתה עלול לתבוע כאשר AI עשה לך לא בסדר, וזה הנושא שאדון בו כאן. לכל זה יש שיקולי אתיקה של AI משמעותיים. לסיקור המתמשך והנרחב שלי על אתיקה של בינה מלאכותית ובינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

מצוות האתיקה של AI גורמות לנו להישאר ערניים. טכנולוגים בינה מלאכותית יכולים לפעמים להתעסק בטכנולוגיה, במיוחד באופטימיזציה של ההייטק. הם לא בהכרח שוקלים את ההשלכות החברתיות הגדולות יותר. קיום חשיבה של אתיקה בינה מלאכותית ועושה זאת באופן אינטגרלי לפיתוח ותחום בינה מלאכותית היא חיונית להפקת בינה מלאכותית מתאימה, כולל (אולי באופן מפתיע או אירוני) ההערכה של האופן שבו אתיקה של בינה מלאכותית מאומצת על ידי חברות.

מלבד שימוש במצוות האתיקה של בינה מלאכותית באופן כללי, ישנה שאלה מקבילה האם צריכים להיות לנו חוקים שישלטו על שימושים שונים בבינה מלאכותית. חוקים חדשים מתגבשים ברמה הפדרלית, המדינתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא הדרגתי. אתיקה של בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים נחרצות שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. למעשה, הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית האלה, נהרוג את אווז הזהב על ידי מניעת התקדמות בינה מלאכותית שמעניקה יתרונות חברתיים עצומים.

ויכוח סוער שמתקיים הוא האם חוקים קיימים מסוגלים לתת מענה הולם להופעת מערכות בינה מלאכותית ברחבי החברה. אחריות משפטית מחייבת בדרך כלל שתוכל להצמיד את הזנב לחמור באשר למי אחראי להתנהגות מזיקה. במקרה של AI, עשוי להיות נתיב די לא ברור שקושר אדם או אנשים מסוימים ל-AI שביצעו פעולה מזיקה כלשהי. ה-AI עשוי להיות ברובו בלתי ניתן למעקב למקור או לממציא שהרכיב את ה-AI.

שיקול נוסף הוא שגם אם ניתן לאתר את שורשי הבינה המלאכותית למישהו, השאלה היא אם האדם או האנשים לא היו מסוגלים לחזות באופן סביר את התוצאה השלילית שהבינה המלאכותית יצרה בסופו של דבר. עיקר הצפי הוא גורם בולט נהוג בהערכת האחריות המשפטית.

אתה עלול להתפתות לחשוב שאתה יכול פשוט ללכת אחרי הבינה המלאכותית עצמה ולמנות את הבינה המלאכותית כצד החוקי האחראי לכל נזק שנגרם לכאורה. בגדול, הדעה המשפטית הרווחת היא שבינה מלאכותית עדיין לא הגיעה לרמה של אישיות משפטית. לפיכך, לא תוכל, באופן קפדני, לחפש את הבינה המלאכותית לשלם ותצטרך למצוא בני אדם שעבדו על המנופים מאחורי הקלעים, כביכול (לניתוח שלי של אישיות משפטית עבור בינה מלאכותית, ראה הקישור כאן).

לתוך כל הטמטום המשפטי הפוטנציאלי הזה צועד רעיון שמצוף כתרופה אפשרית, בין אם לטווח קצר או אולי בטווח ארוך. הרעיון הוא שאולי צריך להקים קרן פיצויים מיוחדת שתספק סעד כספי למי שנפגע מ-AI. אם אחרת אינך מסוגל לגרום ל-AI לפצות אותך, ואתה לא יכול לקבוע את האנשים שצריכים להיות אחראים, ככל הנראה, האפשרות הבאה הטובה ביותר עשויה להיות לנצל קרן פיצוי שמטרתה לסייע לנפגעים מ-AI.

קרן כזו תהיה דומה לסוג של ביטוח, כפי שנאמר במאמר מחקר מעורר מחשבה: "זה בעצם יהיה מנגנון ביטוח מפני אי ודאות: מסגרת ברורה ושקופה לפיצוי מהיר במקרים בהם יש לתביעת אחריות. לא בטוח או ללא סיכוי להצלחה בשל האופי הבלתי צפוי של ההתנהלות המזיקה, (סוג) הנזק עצמו, או העלויות המופרזות ו/או המורכבות של ההליך" (מאמר מאת אוליביה ארדלי וגאבור ארדלי, "פאזל האחריות בינה מלאכותית ועקיפה מבוססת קרן", כתב העת למחקר בינה מלאכותית, 2021).

קרן הפיצוי תהיה חלק מתוכנית AI Guarantee כוללנית (AIGS) ותלווה בכמה שינויים קלים בחוקים הקיימים לגבי אחריות משפטית. המגע הקל יהיה ככל הנראה קל יותר לביצוע ולא ידרוש את הסוג המפרך של חרדה משפטית וחברתית אם תבוצע סדרה צורבת יותר של שינויים הפגנתיים במשטרים המשפטיים הקיימים. לפי החוקרים: "זה משקף את האמונה שלנו שלמרות הערעור של פתרון מהיר כזה - ה ללא שינוי יישום כללי אחריות קיימים על AI או א מניע פרוטקציוניסטי פנייה לאחריות קפידה במטרה לבסס אחריות בכל מחיר אינן התשובות הנכונות משלוש סיבות: ראשית, בהתעלמות מכך שהכללים הללו הותאמו לנסיבות שונות ולכן עשויים להיות בלתי הולמים עבור AI, הם נוגדים את המטרות המאוזנות העדין של מערכת אחריות משפטית. שנית, הם מעכבים חדשנות בינה מלאכותית על ידי אימוץ גישה ענישה יתרה. שלישית, נטייה בלתי הולמת לאחריות קפידה רק עוקפת בעיות צפויות ותקלות בצורה לא עקבית מבחינה דוגמטית במקום לתקן אותן" (כפי המאמר שצוטט לעיל).

הטיעונים בעד קרנות פיצוי מסוג AI כוללים:

  • מפחית את הצורך בניסויים משפטיים ארוכים ויקרים כדי להתמודד עם נזקים שנגרמו בבינה מלאכותית
  • מרגיע את בני האדם שהם יכולים לעשות שימוש בבינה מלאכותית ולקבל פיצוי אם יפגעו
  • מקדם חדשנות בינה מלאכותית על ידי הפגת אי הוודאות המשפטית העומדת בפני חדשני בינה מלאכותית
  • ניתן להכניס לשימוש הרבה יותר מהר מאשר ביצוע שינויים מסיביים בחוקים קיימים
  • מציעה תרופה ברורה יחסית, אמינה וזמינה
  • אחר

בינתיים, אלה שמתנגדים לגישת קרנות הפיצוי בינה מלאכותית אומרים זאת:

  • בואו נגרום ליצרני בינה מלאכותית להתנתק יתר על המידה ונאפשר להם לעקוף אחריות
  • יעודד את יצרני הבינה המלאכותית ליצור בינה מלאכותית שחסרה בטיחות מחייבת ובקרות מתאימות
  • עלול לדרבן אנשים לטעון כוזב לפגיעה בבינה מלאכותית כדי שיוכלו לנצל את הכספים
  • עוקף ומערער את הצורך האמיתי לשפץ את החוקים שלנו כדי לשלוט ב-AI במידה מספקת
  • עלול להפוך לסיוט בירוקרטי שמתבוסס ומנצל לרעה את הכספים
  • אחר

כפי שעשוי להיות ברור, יש גם תומכים וגם מתנגדים לתפיסה השנויה במחלוקת זו.

יהיה לך קשה לשלול סופית את הקרן לפיצוי בינה מלאכותית כגישה פוטנציאלית לחששות הגוברים לגבי בינה מלאכותית שגורמת לנזק. גם הפתרון המוצע אינו בגדר טריקה.

נקודת מבט אחת היא שיצרני בינה מלאכותית יצטרכו להכניס כספים לקרנות כחלק מהמאמצים שלהם בעת תכנון והפצת בינה מלאכותית. זה יכול להתפרש כסוג של עמלה או מס שהם נדרשים לשאת כחלק מהיכולת לשחרר את ה-AI שלהם לעולם. אבל האם העלות הנוספת הזו יכולה לדכא מאמצים של סטארט-אפים שמנסים לדחוף את גבולות ה-AI של היום? וכיצד תטופל האכיפה לוודא שיצרני בינה מלאכותית ישלמו את העמלה או המס שלהם?

עולות שלל שאלות וצריך להבריא אותן:

  • באילו מדינות קרן פיצוי בינה מלאכותית תהיה הכי אפשרית?
  • האם ניתן ליצור מראית עין עולמית של קרנות פיצוי בינה מלאכותית מחוברות?
  • מה יהיו המנגנונים המפורטים והמעשיים הקשורים לקרנות כאלה?
  • כיצד יש לממן את כספי הפיצויים של AI (ציבורי, פרטי, צדקה)?
  • האם זה יהיה בסיס ביטוח ללא תקלות או שמא תינקט גישה אחרת?
  • וכו '

תחום שכבר זכה לרעיון קרנות ה-AI לפיצוי מורכב ממערכות אוטונומיות כמו רכבים אוטונומיים ומכוניות בנהיגה עצמית. לסיקור שלי על מכוניות בנהיגה עצמית ומערכות אוטונומיות בינה מלאכותית, ראה הקישור כאן.

הנה שרטוט של איך זה עשוי לעבוד עבור מכוניות בנהיגה עצמית מבוססות בינה מלאכותית.

נניח שמכונית בנהיגה עצמית מתנגשת ברוכב אופניים. רוכב האופניים נפגע. רוכב האופניים עשוי לבקש פיצוי משפטי על ידי רדיפה אחר יצרן הרכב של הרכב האוטונומי. או שהם עשויים לכוון לחברת הטכנולוגיה לנהיגה עצמית שייצרה את מערכת הנהיגה בינה מלאכותית. אם המכונית בנהיגה עצמית מופעלת כצי, דרך חוקית נוספת תהיה לרדוף אחרי מפעיל הצי. ניסיון לתבוע את הבינה המלאכותית אינו אופציה בשלב זה מכיוון שהאישיות המשפטית של הבינה המלאכותית עדיין לא מבוססת.

במקום לנקוט בצעדים משפטיים נגד כל אחד מאותם צדדים, מנוס נוסף יהיה הגשת בקשה או תביעה לקרן פיצוי מתאימה לבינה מלאכותית. הקרן הייתה ממסדת תהליכים הכרוכים בבחינת התביעה, ולאחר מכן תקבע אילו תשלומי פיצויים כלשהם עשויים להיות מסופקים לתובע. עשוי להיות הליך ערעור המסייע לתובעים שסבורים שהם נדחו בטעות על ידי הקרן או שלא קיבלו פיצוי מספיק על ידי הקרן.

בתיאוריה, הקרן לפיצוי בינה מלאכותית תהיה דרך מהירה בהרבה לקראת קבלת פיצוי על הנזק שנגרם. אתם יכולים לתאר לעצמכם כמה עמלנית עשויה להיות תביעה משפטית, לפיה החברות שנתבעות עשויות לנסות לגרור את התיק.

עורכי דין עשויים אמנם להדגיש שקרן הפיצויים ל-AI יכולה לאפשר לאותם גורמים אחרים, כמו יצרני בינה מלאכותית, להימנע לכאורה מכל עונש ברור על כך ששחררו את המכונית הנוהגת העצמית שלהם על כבישים ציבוריים שבסופו של דבר פגע ברוכב אופניים. מה עוד יכולות אותן חברות לבחור לעשות "בחוסר זהירות"? בלי רוח הרפאים המתנשאת של החרב המשפטית המשתלשלת מעל ראשם, נוכל למצוא את עצמנו מתעמתים מדי יום עם בינה מלאכותית גדושה ביכולות מסכנות.

הויכוחים הולכים וסובבים.

סיכום

אתיקה של AI מזכירה לנו שאנחנו צריכים תמיד לשקול את ההשלכות האתיות והמשפטיות של AI. במקרה זה של קרנות הפיצויים בינה מלאכותית, הרעיון המוצע של מאגר כספים דמוי ביטוח לפיצוי אלו שנפגעים מ- AI אכן נראה מפתה. לכאורה, הכספים יחכו שם, מוכנים להיעזר בהם, ויספקו את הפיצוי המהיר ביותר.

השיקולים האם זה עשוי לפתוח את שערי ההצפה לקראת יצירת בינה מלאכותית שיש לה פחות ופחות בקרות בטיחות היא דאגה מרתיעה וממשית מדי. אנחנו כנראה לא צריכים להוסיף שמן למדורה שאולי כבר קצת בעיצומה.

האם איכשהו נוכל עדיין לגרום ליצרני בינה מלאכותית להמציא בינה מלאכותית מתאימה ובמקביל להקים את קרנות התגמול הללו בינה מלאכותית?

יש שיגידו שכן, אנחנו יכולים. על ידי שינוי החוקים הקיימים כדי להתיישר עם קרנות הפיצויים של בינה מלאכותית, לאלה שנפגעו מבינה מלאכותית יהיה פוטנציאל דרך כפולה לבקש את הפיצוי הצודק שלהם.

מי ראשון?

כן, זה מי (כמו אצל כולנו) בהודעה ראשונה שעלינו לשקול את השימוש הפוטנציאלי בכספי פיצוי בינה מלאכותית ולשנות את החוקים הקיימים גם אם רק בקלילות, ולספק אמצעי להתמודד עם המתקפה של בינה מלאכותית טובה וגם AI גרוע.

אין בלבול לגבי השיקול החיוני הזה.

מקור: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legaly-mandating-atonement-funds-to-ensure-ai- אחריות/