השתלת היגיון משפטי בבינה מלאכותית יכולה להשיג בצורה חכמה התאמה בין ערך אנושי אומר אתיקה של בינה מלאכותית וחוק בינה מלאכותית

בטור של היום, אני הולך לקלוע יחד מספר עצום של נושאים לכאורה שונים הקשורים ל-AI לתוך בד אחד ארוג יפה.

האם אתה מוכן?

תארו לעצמכם שאתם משתמשים באפליקציה המונעת בינה מלאכותית המסייעת לכם תוך כדי משימה משמעותית כלשהי. אולי העניין הוא עניין כלכלי או יכול להיות קשור לבריאות. המהות היא שאתה תלוי ב-AI כדי לעשות את הדבר הנכון ולהופיע בצורה בטוחה ואמינה.

נניח שה-AI פונה לטריטוריה לא אתית.

אולי אתה לא מבין שה-AI עושה זאת.

לדוגמה, הבינה המלאכותית עשויה להסתמך על גורמים מפלים שעלולים להסתיר כמו גזע או מגדר, אם כי אולי אין לך שום אמצעי בר קיימא להבחין בשימוש הלא ראוי. הנה אתה, לגמרי לבד, מקבל את הקצה הקצר של המקל באמצעות בינה מלאכותית שאו שהומצאה מההתחלה בצורה בעייתית או שהצליחה לנווט לתוך סכנה אתית גבולית (אני אספר עוד על זה בעוד רגע).

מה אתה יכול לעשות או מה אפשר לעשות לגבי AI שבוחר ללכת בדרך לא אתית?

מלבד הניסיון לבנות מראש את ה-AI כך שהוא לא יבצע סוג כזה של פעולה ערמומית, גם פירטתי בעבר שיש עניין גובר בהטמעת בדיקת אתיקה של AI רכיב אל תוך האנדרלמוסיה ההולכת וגדלה של מערכות בינה מלאכותיות של המערב הפרוע, שאחרת כל דבר, מושלך אל השוק. הרעיון הוא שכדי לנסות ולמנוע מאפליקציה המוזמנת בינה מלאכותית להתרחק מממדים אתיים, נוכל להשתמש בבינה מלאכותית נוספת כדי לבצע בדיקה ואיזון. בינה מלאכותית זו עשויה להיות מחוץ לאפליקציית הבינה המלאכותית הממוקדת או יכולה להיות רכיב המוטמע או מושתל ישירות בבינה המלאכותית שאנו רוצים לעשות עליו בדיקה כפולה.

כפי שציינתי בעבר, ראה הקישור כאן: "מגמה שהתפתחה לאחרונה מורכבת מניסיון לבנות מעקות בטיחות אתיים לתוך הבינה המלאכותית שיתפסו כאשר שאר מערכת הבינה המלאכותית תתחיל לחרוג מהגבולות האתיים שנקבעו מראש. במובן מסוים, המטרה היא להשתמש ב-AI עצמו כדי למנוע מעצמו להשתבש מבחינה אתית. אפשר לומר שאנחנו שואפים ש-AI ירפא את עצמו" (לאנס אליוט, "יצירת בינה מלאכותית אתית שמנטרת בינה מלאכותית לא אתית ומנסה להרתיע בינה מלאכותית רעה מלפעול", פורבס, 28 במרץ 2022).

אולי תמצא עניין רלוונטי גם בספר שלי בוטים של שומר בינה מלאכותית, המכונה לפעמים מלאכים שומרים, המכסה את היסודות הטכניים של מכשירי הבינה המלאכותית-בתוך-בינה המלאכותית המשובצים הכפולים, ראה הקישור כאן.

השורה התחתונה היא שלמרבה המזל, הבייקון שלך עשוי להישמר על ידי שימוש באלמנט מוטבע של בדיקת אתיקה כפולה של AI שהוקם והושתל באפליקציית AI שבה אתה משתמש. אבל האם זה יספיק כאפוטרופוס כדי לוודא שה-AI לא יקשה עליך לחלוטין ויצא לקרקע מזיקה אפילו?

אתה מבין, אפליקציית הבינה המלאכותית יכולה לפעול לכאורה בלתי חוקי מעשים.

זה דבר אחד שיש בינה מלאכותית שנכנסת לתחום אפור של מה שאנו מחשיבים כהתנהגויות אתיות או לא אתיות. התנהגות מדאיגה לא פחות וחשש מחמיר ככל הנראה כרוכים בבינה מלאכותית שפשוט מזנקת את הכריש כביכול ויורדת אל האפלה העלובה של מעשים בלתי חוקיים בעליל.

AI לא חוקי זה רע. לאפשר ל-AI בלתי חוקי לעבור ללא השגחה זה רע. כמה חוקרים משפטיים מודאגים בגלוי שההופעה וההתפשטות של הבינה המלאכותית יפגעו בהדרגה ומפחידה את המראה שלנו של שלטון החוק, ראה את הניתוח שלי ב הקישור כאן.

חכה שנייה, אולי אתה אומר.

אולי תתפתו לחשוב שמפתחי בינה מלאכותית יעשו זאת לעולם לא לתכנת את ה-AI שלהם כך שיעבור נגד החוק. בלתי נתפס. רק נבלים מרושעים יעשו זאת (שאגב, יש לזכור שיש כאלה שמעצבים ומשתמשים בבינה מלאכותית למטרות מרושעות, תחום הולך וגדל שמעניין פושעים ואחרים המעוניינים להשתמש בבינה מלאכותית לפעילויות מרושעות).

מצטער, אבל זו משאלת לב להניח שכל מפתחי בינה מלאכותית שאינם מרושעים הולכים לוודא שה-AI שלהם שומר חוק לחלוטין. יכול להיות שה-AI מתכוונן בעצמו ונודד לפעילות בלתי חוקית. כמובן, יש גם את הפוטנציאל שמפתחי הבינה המלאכותית רצו שה-AI יפעל באופן לא חוקי או שהם לא היו מודעים למה שנכון למעשים לא חוקיים לעומת פעולות חוקיות כשהם יצרו את ה-AI (כן, זה בהחלט אפשרי, כלומר ש צוות בינה מלאכותית טכנולוגית מנוסה יכול להיות בורות בשטויות המשפטיות של הבינה המלאכותית שלהם, דבר שאינו ניתן לסליחה ובכל זאת קורה בתדירות מדאיגה).

מה אפשר לעשות בקשר לזה?

שוב, מלבד הניסיון להבטיח שה-AI שמחוץ לשער יהיה מכוסה ברזל וחוקי, גישה נוספת להשגת קיטור כוללת הטמעה או השתלה של רכיב AI שעושה בדיקה כפולה חוקית עבור שאר אפליקציית ה-AI. ה-AI המוסף הזה יושב בשקט ולעיתים לא ידוע, צופה בשאר הבינה המלאכותית כדי לנסות להבחין אם הבינה המלאכותית עומדת להיות נוכלת או לפחות לעבור את גבולות ההגבלות החוקיות או הרגולטוריות המוטלות.

כעת יש לנו שני סוגים של בדיקה כפולה של בינה מלאכותית שפוטנציאלית מוטמעת באפליקציית בינה מלאכותית:

  • בודק פעמיים אתיקה של AI: בזמן אמת, רכיב זה או תוסף AI מעריך את שאר ה-AI עבור התנהגויות אתיות ולא אתיות שה-AI מציג
  • בודק כפול של AI Legal: בזמן אמת, רכיב זה או תוספת בינה מלאכותית מעריכים את שאר הבינה המלאכותית על מנת להבטיח הישארות בתוך אבני מפתח חוקיות ולתפיסת פעילויות בלתי חוקיות מתעוררות על ידי הבינה המלאכותית

כדי להבהיר, אלו תפיסות חדשות יחסית, וככזה הבינה המלאכותית שבה אתה משתמש היום עשויה להיות בכל אחד מהתנאים הנוכחיים הבאים:

  • בינה מלאכותית שאין בה כלל בודקים כפולים
  • בינה מלאכותית הכוללת בודק AI אתיקה כפול, אך אין בודקים כפולים אחרים
  • בינה מלאכותית הכוללת בודק כפול בינה מלאכותית AI Legal, אך ללא בודק כפול אחר
  • בינה מלאכותית שיש לה גם בודק AI אתיקה וגם בודק AI Legal
  • אחר

יש כמה היבטים מסובכים בעליל בכך שהן הבודק הכפול של AI אתיקה והבודק הכפול של AI Legal עובדים זה לצד זה באפליקציית AI בתור אח ואחות בני משפחה. זהו סוג של דואליזם שיכול להיות קשה יותר לתאם ממה שאתה יכול לשער (אני חושב שכולנו יודעים שלאחים ואחיות יכולים להיות קשרים הדוקים ביותר, למרות שהם יכולים גם להילחם כמו הזין מדי פעם ולהתנגד נמרצות צפיות).

דיברתי בהרחבה על סוג זה של מפרך דואליזם: "דואליזם מוזנח מתרחש בבינה מלאכותית למען רווחה חברתית הכולל את היעדר הקיפת התפקיד של סוכנות מוסרית מלאכותית והנמקה משפטית מלאכותית במערכות בינה מלאכותית מתקדמות. מאמציהם של חוקרי בינה מלאכותית ומפתחי בינה מלאכותית נטו להתמקד כיצד ליצור ולהטמיע סוכנים מוסריים מלאכותיים כדי להנחות את קבלת ההחלטות המוסרית כאשר מערכת בינה מלאכותית פועלת בשטח, אך לא התמקדו גם בשימוש ביכולות חשיבה משפטית מלאכותית. , הנחוץ באותה מידה לתוצאות מוסריות ומשפטיות חזקות" (לאנס אליוט, "הדואליזם המוזנח של סוכנות מוסרית מלאכותית והגיון משפטי מלאכותי ב-AI למען טובות חברתיות", הכנס השנתי של אוניברסיטת הרווארד CRCS 2020, מרכז הרווארד לחברת מחקר וחשיבה)

אם תרצה לברר מדוע עשוי להיות מתח בין בודק AI אתיקה ובודק כפול AI Legal, אולי תמצא את הציטוט הבולט הזה של ראויות רעיונית מרתקת: "החוק עשוי להתיר מעשה מסוים, אף על פי שמעשה זה אינו מוסרי; והחוק עשוי לאסור מעשה, למרות שהמעשה הזה מותר מבחינה מוסרית, או אפילו נדרש מבחינה מוסרית" (שלי קגן, גבולות המוסר, 1998).

בואו נעביר מעט את המיקוד שלנו ונראה כיצד הבודקים הכפולים הללו משתלבים לנושא AI נוסף שנבדק היטב, כלומר AI אחראי או שיקול משותף של התאמה בין ערכים אנושיים ובינה מלאכותית.

הרעיון הכללי הוא שאנחנו רוצים בינה מלאכותית שתעמוד בערכים אנושיים ראויים ורצויים. יש המתייחסים לזה כאל AI אחראי. אחרים דנים באופן דומה AI אחראי, AI אמין, ו יישור AI, כולם נוגעים באותו עקרון אבן יסוד. לדיון שלי בנושאים חשובים אלה, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

כיצד נוכל לגרום לבינה מלאכותית להתיישר עם הערכים האנושיים?

כפי שהוצע קודם לכן, אנו מקווים שמפתחי בינה מלאכותית יידעו בפיתוח בינה מלאכותית המשיגה דבקות בבינה מלאכותית אחראית. למרבה הצער, ייתכן שהם לא, לפי הסיבות שהובאו קודם לכן. בנוסף, הם עשויים לנסות לעשות זאת, ובכל זאת, הבינה המלאכותית מסתיימת בעצמה מעבר לתחום הבולט של התנהגויות אתיות או אולי לתוך מים בלתי חוקיים.

בסדר, אז אנחנו צריכים לשקול את הבודקים הכפולים השימושיים שלנו כאמצעי לחזק את הסיכונים והחשיפות הללו. השימוש בבודק כפול של AI אתיקה יכול לסייע באופן מהותי בהתאמת בינה מלאכותית לערכים אנושיים. באופן דומה, השימוש ב-AI Legal בודק כפול יכול לסייע באופן מהותי בהתאמת בינה מלאכותית לערכים אנושיים.

לפיכך, אמצעי מכריע ועדיין לא ידוע להגיע לבינה מלאכותית אחראית, בינה מלאכותית מהימנה, בינה מלאכותית, יישור בינה מלאכותית וכו', יכלול שימוש בבודקים כפולים של בינה מלאכותית כגון בודק AI אתיקה כפול ו- בינה מלאכותית בודק כפול משפטי שיעבוד ללא לאות כבדיקה כפולה של הבינה המלאכותית שהם מוטבעים בתוכו.

בדיון הזה כאן, אני רוצה להיכנס קצת יותר לפרטים על האופי והקונסטרוקציות של בודקים כפולים של AI Legal שעשויים להיות מוטמעים ב-AI. לשם כך, זה עשוי להיות מועיל לחלוק איתך רקע נוסף על הנושא הכללי של בינה מלאכותית ומשפטים.

לבדיקה חסרת היגיון של האופן שבו AI והחוק מתערבבים זה בזה, עיין בדיון שלי ב הקישור כאן. במבט הנבון שלי על בינה מלאכותית ומשפטים צימוד, אני מספק את התפיסה הפשוטה הזו של שתי דרכים עיקריות לקשור בין בינה מלאכותית לחוק:

  • (1) החוק החל על AI: ניסוח, חקיקה ואכיפה של חוקים כפי שיושמו על הרגולציה או הממשל של בינה מלאכותית בחברה שלנו
  • (2) AI-מוחל על חוק: טכנולוגיית בינה מלאכותית שהוכנה ויושמה בחוק, כולל נימוק משפטי מבוסס בינה מלאכותית (AILR) שהוכנסה לאפליקציות הייטק של LegalTech כדי לבצע באופן אוטונומי או חצי אוטונומי משימות עורכי דין

נקודת המבט הרשומה הראשונה מורכבת מבחינה כיצד חוקים קיימים וחדשים ישלטו בבינה מלאכותית. הפרספקטיבה השנייה ברשימה קשורה להחלת AI על החוק.

קטגוריה אחרונה זו כוללת בדרך כלל שימוש בהיגיון משפטי מבוסס בינה מלאכותית (AILR) בכלים מקוונים שונים המשמשים עורכי דין. לדוגמה, בינה מלאכותית עשויה להיות חלק מחבילת ניהול מחזור חיים של חוזים (CLM) המסייעת לעורכי דין על ידי זיהוי שפה חוזית שתהיה שימושית לעריכת חוזים חדשים או עשויה לזהות חוזים שיש להם שפה חוקית המאפשרת תקלות או פרצות משפטיות. (למבט שלי על מה שנקרא "ריחות חוק" שניתן להבחין בהם על ידי AI, ראה הקישור כאן).

בהכרח נחיל בינה מלאכותית על החוק שהופך זמין לשימוש הציבור הרחב ושאינו מחייב עורך דין להיות בעניינים. נכון לעכשיו, כתוצאה מהגבלות שונות, כולל UPL (Unautorized Practical of Law), הפיכת אפליקציות ייעוץ משפטי מבוססות בינה מלאכותית היא עניין קוצני ושנוי במחלוקת, ראה את הדיון שלי ב- הקישור כאן.

הבאתי את ההקדמה הזו על בינה מלאכותית ומשפט כדי לציין ששימוש אינסטרומנטלי נוסף של בינה מלאכותית שיושם על החוק יהיה יצירת בדיקות AI Legal.

כן, אותו סוג של מיומנות טכנולוגית הכרוכה בהחלת בינה מלאכותית על החוק מסוגלת לשמש כחובה כפולה על ידי שימוש בבינה מלאכותית לשמש כבודק AI Legal משובץ או מושתל. הבודק הכפול של AI Legal הוא רכיב שצריך להיות בקיא בהיבטים משפטיים. כאשר שאר אפליקציית הבינה המלאכותית מבצעת פעולות שונות, הבודק הכפול של AI Legal מודד אם אפליקציית הבינה המלאכותית עושה זאת באופן חוקי ובמגבלות חוקיות.

רכיב AI Legal בודק פעמיים לא בהכרח צריך לכסות את כל המכלול של כל מה שצריך לדעת על החוק. בהתאם לאופי של אפליקציית הבינה המלאכותית באשר למטרה ולפעולות של הבינה המלאכותית הכוללת, הבודק הכפול של AI Legal יכול להיות צר הרבה יותר מבחינת המומחיות המשפטית שהוא מכיל.

זיהיתי מסגרת שימושית להצגת האופן שבו בינה מלאכותית בתחום המשפטי משתרעת על פני שורה של יכולות אוטונומיות, המכונה רמות אוטונומיה (LoA). לסקירה כללית ראה שלי פורבס פרסום עמודה מ-21 בנובמבר 2022, "המקרה המשכנע והמשכנע ללא שטויות מדוע עורכי דין צריכים לדעת על בינה מלאכותית ועל החוק" ב- הקישור כאן, ולתיאור טכני מפורט עיין במאמר המחקר המעמיק שלי ב- MIT Computational Law Journal מיום 7 בדצמבר 2021, ראה הקישור כאן.

המסגרת מבהירה חמש רמות של בינה מלאכותית כפי שהיא משמשת במאמצים משפטיים:

  • רמה 0: אין אוטומציה לעבודה משפטית מבוססת בינה מלאכותית
  • רמה 1: אוטומציה פשוטה של ​​סיוע לעבודה משפטית מבוססת בינה מלאכותית
  • רמה 2: אוטומציה מתקדמת של סיוע לעבודה משפטית מבוססת בינה מלאכותית
  • רמה 3: אוטומציה חצי אוטונומית לעבודה משפטית מבוססת בינה מלאכותית
  • רמה 4: תחום אוטונומי לעבודה משפטית מבוססת בינה מלאכותית
  • רמה 5: אוטונומית מלאה לעבודה משפטית מבוססת בינה מלאכותית

אני אתאר אותם בקצרה כאן.

רמה 0 נחשבת לרמת ללא אוטומציה. הנמקה משפטית ומשימות משפטיות מבוצעות בשיטות ידניות ומתרחשות בעיקר באמצעות גישות מבוססות נייר.

רמה 1 מורכבת מאוטומציית סיוע פשוטה עבור חשיבה משפטית בינה מלאכותית. דוגמאות לקטגוריה זו יכללו שימוש בעיבוד תמלילים יומיומי מבוסס מחשב, שימוש בגיליונות אלקטרוניים מבוססי מחשב יומיומיים, גישה למסמכים משפטיים מקוונים המאוחסנים ומאוחזרים באופן אלקטרוני, וכן הלאה.

רמה 2 מורכבת מאוטומציית סיוע מתקדמת עבור חשיבה משפטית בינה מלאכותית. דוגמאות לקטגוריה זו יכללו שימוש בעיבוד שפה טבעית בסיסית בסגנון שאילתה (NLP), אלמנטים פשטניים של למידת מכונה (ML), כלי ניתוח סטטיסטי לחיזוי מקרים משפטיים וכו'.

רמה 3 מורכבת מאוטומציה חצי אוטונומית עבור נימוקים משפטיים של AI. דוגמאות לקטגוריה זו יכללו את השימוש במערכות מבוססות ידע מתקדמות (KBS) להנמקה משפטית, שימוש בלמידת מכונה ולמידה עמוקה (ML/DL) להנמקה משפטית, NLP מתקדם וכו'.

רמה 4 מורכבת ממערכות תחום אוטונומיות מבוססות-מחשב עבור נימוקים משפטיים של AI. רמה זו עושה שימוש חוזר ברעיון הקונספטואלי של תחום עיצוב תפעולי (ODDs), כפי שמשמש עבור מכוניות בנהיגה עצמית, אך כפי שיושם בתחום המשפטי. תחומים משפטיים עשויים להיות מסווגים לפי תחומים פונקציונליים, כגון דיני משפחה, דיני מקרקעין, דיני פשיטת רגל, דיני איכות הסביבה, דיני מס וכו'.

רמה 5 מורכבת ממערכות מבוססות מחשב אוטונומיות לחלוטין עבור נימוקים משפטיים של AI. במובן מסוים, רמה 5 היא קבוצת העל של רמה 4 מבחינת הקיפת כל התחומים המשפטיים האפשריים. אנא הבינו כי מדובר בהזמנה די גבוהה.

אתה יכול להעלות על הדעת את רמות האוטונומיה הללו בדומה לשימושים הדומים כאשר דנים במכוניות בנהיגה עצמית ורכבים אוטונומיים (בהתבסס גם על תקן SAE הרשמי, עיין בסיקור שלי ב- הקישור כאן). עדיין אין לנו מכוניות לנהיגה עצמית של SAE רמה 5. אנחנו מתקדמים למכוניות בנהיגה עצמית של SAE רמה 4. רוב המכוניות הקונבנציונליות נמצאות ברמת SAE 2, בעוד שחלק מהמכוניות החדשות יותר נכנסות ל-SAE Level 3.

בתחום המשפטי, עדיין אין לנו רמה 5 AILR. אנחנו נוגעים באיזו רמה 4, אם כי במצבי ODD צרים במיוחד. רמה 3 מתחילה לראות אור, בעוד שעמוד התווך של AILR כיום הוא בעיקר ברמה 2.

מאמר מחקר שנערך לאחרונה על בינה מלאכותית כפי שהיא מיושמת על החוק, הציג טיפוס המכונה החוק מודיע לקוד. החוקר קובע זאת: "אחת המטרות העיקריות של ה החוק מודיע לקוד האג'נדה היא ללמד בינה מלאכותית ללכת לפי רוח החוק" (ג'ון ג'יי ניי, "החוק מודיע לקוד: גישת אינפורמטיקה משפטית ליישור בינה מלאכותית עם בני אדם", Northwestern Journal of Technology וקניין רוחני, כרך 20, בקרוב). ישנם כמה שיקולים חיוניים כי החוק מודיע לקוד מנטרה מעלה ואני אדריך אותך בכמה מהמצוות הללו.

לפני שצולל לנושא, ברצוני להניח תחילה יסודות חיוניים לגבי בינה מלאכותית ובמיוחד אתיקה של בינה מלאכותית וחוק בינה מלאכותית, לעשות זאת כדי לוודא שהדיון יהיה הגיוני מבחינה הקשרית.

המודעות הגואה לבינה מלאכותית אתית וגם לחוק הבינה המלאכותית

העידן האחרון של AI נתפס בתחילה ככזה AI לתמיד, כלומר נוכל להשתמש בבינה מלאכותית לשיפור האנושות. על עקבותיו של AI לתמיד הגיעה ההבנה שגם אנחנו שקועים בה AI למען הרע. זה כולל בינה מלאכותית שהומצאה או משתנה בעצמה להיות מפלה ועושה בחירות חישוביות המטפחות הטיות מיותרות. לפעמים הבינה המלאכותית בנויה כך, בעוד שבמקרים אחרים היא פונה לתוך הטריטוריה הלא-מכוונת הזו.

אני רוצה לוודא מאוד שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי AI חיוני, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לקחת בחשבון שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שיש המשערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

אני ממליץ בחום שנשמור את הדברים על הקרקע ונשקול את ה-AI החישובי הלא-רגיש של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

היזהר מאוד מאנתרופומורפיזציה של הבינה המלאכותית של היום.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

לכל זה יש השלכות משמעותיות במיוחד לאתיקה של AI ומציע חלון שימושי ללקחים שנלמדו (עוד לפני שכל הלקחים קורים) בכל הנוגע לניסיון לחוקק AI.

מלבד שימוש במצוות האתיקה של בינה מלאכותית באופן כללי, ישנה שאלה מקבילה האם צריכים להיות לנו חוקים שישלטו על שימושים שונים בבינה מלאכותית. חוקים חדשים מתגבשים ברמה הפדרלית, המדינתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא הדרגתי. אתיקה של בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים נחרצות שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית האלה, נהרוג את אווז הזהב על ידי פגיעה בהתקדמות בבינה מלאכותית שמעניקה יתרונות חברתיים עצומים.

בטורים קודמים, כיסיתי את המאמצים הלאומיים והבינלאומיים השונים ליצור ולחוקק חוקים המסדירים בינה מלאכותית, ראה הקישור כאן, לדוגמה. כיסיתי גם את העקרונות וההנחיות השונות של AI אתיקה שאומות שונות זיהו ואימצו, כולל למשל את המאמץ של האומות המאוחדות כגון קבוצת האתיקה של AI של אונסק"ו שכמעט 200 מדינות אימצו, ראה הקישור כאן.

הנה רשימה מועילה של אבן מפתח של קריטריונים או מאפיינים אתיים של בינה מלאכותית לגבי מערכות בינה מלאכותית שחקרתי מקרוב בעבר:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים ברצינות על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית.

כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שהודגש כאן קודם לכן, נדרש כפר כדי לתכנן ולהשיג בינה מלאכותית, ועבורו על כל הכפר להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

לאחרונה בדקתי גם את מגילת זכויות AI שהוא הכותרת הרשמית של המסמך הרשמי של ממשלת ארה"ב בשם "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" שהיה תוצאה של מאמץ שנמשך שנה של המשרד למדיניות מדע וטכנולוגיה (OSTP ). OSTP הוא ישות פדרלית המשרתת לייעץ לנשיא האמריקני ולמשרד ההנהלה של ארה"ב בהיבטים טכנולוגיים, מדעיים והנדסיים שונים בעלי חשיבות לאומית. במובן זה, אתה יכול לומר שמגילת זכויות הבינה המלאכותית הזו היא מסמך שאושר על ידי הבית הלבן הקיים בארה"ב ואושר על ידי זה.

במגילת זכויות הבינה המלאכותית, ישנן חמש קטגוריות אבן מפתח:

  • מערכות בטוחות ויעילות
  • הגנות אפליה אלגוריתמית
  • פרטיות מידע
  • הודעה והסבר
  • אלטרנטיבות אנושיות, התחשבות וסתירה

סקרתי בקפידה את המצוות האלה, תראה הקישור כאן.

כעת, לאחר שהנחתי בסיס מועיל לנושאים הקשורים לאתיקה של בינה מלאכותית ודיני בינה מלאכותית, אנחנו מוכנים לקפוץ לנושא המלהיב של בדיקות AI Legal ותחום של החוק מודיע לקוד.

בינה מלאכותית משפטית בוחנת בינה מלאכותית המוטבעת ב-AI לצורך יישור ערך אנושי

אני לפעמים מתייחס AI Legal Double Checkers באמצעות ראשי תיבות של AI-LDC. זה קצת צורם חזותית למי שלא מכיר את ראשי התיבות. ככזה, אני לא אשתמש בראשי התיבות הספציפיים האלה בדיון הזה, אבל רציתי להזכיר אותו בפניכם כהתראה.

כדי לפרוק כמה מהמורכבות של בודקים כפולים של AI Legal, הבה נתייחס לנקודות העיקריות הבאות:

  • שימוש ב-AI Legal checkers כפול AI כמנגנון יישור ערכים אנושיים
  • בינה מלאכותית יותר רחבה יותר תדרוש בהתאם לבודקים משפטיים משפטיים חזקים יותר של AI
  • בודקים משפטיים משפטיים של בינה מלאכותית מחוקקים את החוק ובמיוחד אינם מחוקקים חוק (ככל הנראה)
  • איזון עדין בין AI התגלמות משפטית של החוק ככללים לעומת תקנים
  • דורש הוכחה של הפודינג כשמדובר בבינה מלאכותית בציות לחוק

בשל אילוצי מקום, אני רק אכסה את חמש הנקודות הללו לעת עתה, אם כי אנא היזהרו לסיקור נוסף בטור שלי המכסה שיקולים נוספים וראויים לציון באותה מידה בנושאים אלה המתפתחים במהירות ומתקדמים.

ברגע זה, חגרו את חגורת הבטיחות והתכוננו למסע ממריץ.

  • שימוש ב-AI Legal checkers כפול AI כמנגנון יישור ערכים אנושיים

ישנן דרכים רבות לנסות ולהשיג התאמה הרמונית בין AI לערכים אנושיים.

כפי שהוזכר קודם לכן, אנו יכולים לייצר ולפרסם מצוות אתיקה של בינה מלאכותית ולבקש לגרום למפתחי בינה מלאכותית ואלו שמתמחים ב-AI ולפעול לציית לאבני המפתח הללו. למרבה הצער, זה לבד לא יעשה את העבודה. יש לך כמה מעצבים שבהכרח לא יקבלו את המסר. יש לך כמה מתחכמים שיתהדרו בבינה מלאכותית אתית וינסו לעקוף את העקרונות הרופפים משהו שנקבעו. וכן הלאה.

השימוש בגישות "חוק רך" הכרוכות באתיקה של בינה מלאכותית חייב להיות משודך כמעט ללא מוצא עם אפיקים של "חוק קשיח" כמו העברת חוקים ותקנות שישלחו אות כבד לכל מי שיוצר או משתמש בבינה מלאכותית. זרועו הארוכה של החוק עשויה לבוא להביא אותך אם אינך ממנף בינה לבינה. קול נקישות דלתות הכלא יכול למשוך תשומת לב חדה.

אבל בעיה גדולה היא שלפעמים דלת הרפת כבר שחררה את הסוסים לצאת ולהסתובב. בינה מלאכותית שמיועדת עשויה לייצר כל מיני מעשים בלתי חוקיים ותמשיך לעשות זאת עד שלא רק ייתפס, אלא גם כאשר אכיפה מסוימת תתגבר סוף סוף כדי לעצור את זרם הפעולות הבלתי חוקיות. כל זה יכול לקחת זמן. בינתיים, בני אדם נפגעים בצורה כזו או אחרת.

לתוך הגיחה הזו נכנס ה-AI Legal בודק כפול.

על ידי שהייה בתוך אפליקציית בינה מלאכותית, הבודק הכפול של AI Legal מסוגל לזהות מיד מתי נראה שה-AI נוגד את החוק. הבודק הכפול של AI Legal עשוי לעצור את ה-AI. לחלופין, הרכיב עשוי להתריע בפני בני אדם לגבי הפעילויות הבלתי חוקיות המובחנות, לעשות זאת בזמן שעלול לדרבן את המשגיחים לפעולה מתקנת דחופה. יש גם את הרישום הרשמי הנחשב שהרכיב יכול ליצור, לספק מראית עין מוחשית של מסלול ביקורת למטרות קודקוד הפעולות השליליות של ה-AI.

אומרים שהחוקים שלנו הם סוג של קונגלומרציה מרובה סוכנים, כך שהחוקים הם בהכרח תערובת של מה שהחברה ביקשה לאזן בין השקפות סותרות ככל הנראה של התנהגויות חברתיות ראויות ובלתי ראויות. אפוא בודק AI Legal המבוסס על החוקים שלנו מגלם את התערובת הזו.

יש לציין שזה יותר מסתם תכנות רשימה של כללים משפטיים סופיים. חוקים נוטים להיות ניתנים לגיבוש יותר ושואפים לעבר סטנדרטים מקיפים, במקום לציין את המינימום ביותר של כללים מיקרוסקופיים. מורכבויות יש בשפע.

אם נחזור למאמר המחקר שצוין קודם לכן, הנה כיצד ניתן לראות את השיקולים הללו גם בנוגע לשאיפה ליישור בינה מלאכותית: "המשפט, הפילוסופיה היישומית של יישור רב-סוכנים, ממלאת באופן ייחודי את הקריטריונים הללו. יישור הוא בעיה כי אנחנו לא יכולים ex ante ציין כללים המכוונים באופן מלא ומוכח להתנהגות AI טובה. באופן דומה, צדדים לחוזה משפטי אינם יכולים לחזות כל מצב של מערכת היחסים ביניהם, והמחוקקים אינם יכולים לחזות את הנסיבות הספציפיות שבהן יחולו החוקים שלהם. לכן חלק גדול מהמשפטים הוא קונסטלציה של סטנדרטים" (שם).

הטמעת החוק ב-AI Legal בודק כפול היא הרבה יותר מאתגרת ממה שאתה יכול להניח בתחילה.

ככל שה-AI מתקדם, נצטרך למנף התקדמות כזו בהתאם. מסתבר שמה שטוב לאווז טוב גם לאוזן. אלו מאיתנו שמתקדמים ב-AI כפי שמיושמים בחוק דוחפים את המעטפת של AI ויוצרים ללא ספק התקדמות חדשה שיכולה בסופו של דבר להזין את התקדמות ה-AI לחלוטין.

  • בינה מלאכותית יותר רחבה יותר תדרוש בהתאם לבודקים משפטיים משפטיים חזקים יותר של AI

הימור של חתול ועכבר מתמודד עם הנושא הזה.

רוב הסיכויים שככל שה-AI מתקדם יותר, כל רכיב AI Legal בודק כפול ימצא עניינים קשים יותר ויותר להתמודד איתם. לדוגמה, אפליקציית בינה מלאכותית הנבדקת עשויה להמציא דרכים סופר ערמומיות להסתיר את הפעולות הלא חוקיות שה-AI נוקט. גם אם הבינה המלאכותית אינה נוקטת במסלול סתמי, המורכבות הכוללת של הבינה המלאכותית יכולה לבדה להוות מכשול מרתיע בניסיון להעריך את הבודק המשפטי של הבינה המלאכותית.

הנה איך זה הופך להיות משמעותי במיוחד.

נניח שמפתח בינה מלאכותית או חברה כלשהי המשתמשת בבינה מלאכותית מכריזה שיש בודק AI Legal כפול שהוטבע באפליקציה מבוססת בינה מלאכותית. וואלה, נראה שהם שטפו עכשיו את ידיהם מכל דאגות נוספות. הבודק הכפול של AI Legal ידאג להכל.

לא כל כך.

ייתכן שהבודק הכפול של AI Legal אינו מספיק לאופי של אפליקציית AI המעורבת. קיימת גם אפשרות שהבודק הכפול של AI Legal מיושן, אולי לא מתעדכן בחוקים העדכניים ביותר הנוגעים לאפליקציית AI. ניתן לחזות שורה של סיבות מדוע עצם נוכחותו של בודק AI Legal לא תהיה כדור כסף.

שקול את התובנות הללו של המחקר שצוטט קודם לכן: "ככל שהטכנולוגיה מתקדמת בינה מלאכותית, אנו יכולים להציב רמות גבוהות יותר באופן איטרטיבי של יכולות הבנה משפטיות מוכחות. אם מפתח טוען שלמערכת שלו יש יכולות מתקדמות במשימות, עליו להפגין הבנה משפטית מתקדמת ויכולות משפטיות של ה-AI, שאין להן כמעט תקרת קושי כאשר בוחנים את שלל החוקים והתקנות לאורך זמן, תקדים וסמכות שיפוט. " (שם).

  • בודקים משפטיים משפטיים של בינה מלאכותית מחוקקים את החוק ובמיוחד אינם מחוקקים חוק (ככל הנראה)

אני בטוח שחלקכם נחרדים מהרעיון שיהיו בוחנים כפולים של AI Legal.

דאגה אחת המושמעת לעתים קרובות היא שככל הנראה אנחנו הולכים לאפשר לבינה מלאכותית להחליט על החוקים שלנו עבורנו. אלוהים אדירים, אולי אתם חושבים, איזו פיסת אוטומציה תעקוף את האנושות. הבודקים המשפטיים המשובצים של AI Legal יהפכו למלכי ברירת המחדל של החוקים שלנו. מה שהם אולי יעשו יהיה מה שהחוק נראה.

בני אדם ישלטו על ידי AI.

והבודקים הכפולים של AI Legal הם המדרון החלקלק שמביא אותנו לשם.

טיעון נגד הוא שדיבור כזה הוא חומר של תיאוריות קונספירציה. אתה מניח את עצמך בפראות ומכניס את עצמך לסחרחורת. המציאות היא שהבודקים המשפטיים של AI Legal אינם בעלי חיים, הם לא מתכוונים להשתלט על כדור הארץ, וההייפ לגבי הסיכון הקיומי שלהם הוא מגוחך ומוגזם מאוד.

בסך הכל, כשאנחנו נשארים עם תנוחה רגועה ומנומקת, אנחנו צריכים להיות מודעים לכך שהבדיקות הכפולות של AI Legal משמשות לשקף כראוי את החוק ולא בתכנון, וגם לא במקרה ללכת רחוק יותר איכשהו לברירת מחדל לתחום הנערץ של ביצוע. חוֹק. אם נניח בצד את אקסטרפולציות המשפט, אנו בהחלט יכולים להסכים שיש חשש אמיתי ודחוף שהבודק הכפול של AI Legal עלול בסופו של דבר להציג מצג שווא של הטבע האמיתי של חוק נתון.

בתורו, אתה יכול לטעון כי לפיכך החוק המסוים "המצג שווא" נעשה בעצם מחדש מכיוון שהוא כבר לא מסמן בצורה הולמת את מה שהתכוון בחוק בפועל. אני סומך על כך שאתה יכול לראות בכנות איך זה שיקול עדין אך מובהק. בכל נקודת זמן, הבודק המשפטי של AI יכול על בסיס וירטואלי על ידי קביעת או נגיד "להזות" חוקים חדשים פשוט על ידי האופן שבו רכיב ה-AI מפרש את החוק כפי שנאמר או גלום במקור ב-AI (לסיקור שלי של AI מה שנקרא הזיותראה הקישור כאן).

יש לנקוט בזהירות בעניין זה.

בנושא זה, מחקר המחקר הנ"ל מציע מחשבה מקבילה זו במונחים של ניסיון למנוע חציית קו קדוש זה: "איננו שואפים של-AI תהיה לגיטימציה לחוקק חוק, לקבוע תקדים משפטי או לאכוף חוק. למעשה, זה יערער את הגישה שלנו (ועלינו להשקיע מאמץ משמעותי במניעת זאת). במקום זאת, המטרה השאפתנית ביותר של Law Informing Code היא לקודד ולהטמיע באופן חישובי את יכולת ההכללה של מושגים וסטנדרטים משפטיים קיימים לתוך ביצועי AI מאומתים" (שם).

  • איזון עדין בין AI התגלמות משפטית של החוק ככללים לעומת תקנים

חוקים מבולגנים.

כמעט לגבי כל חוק בספרים, סביר להניח שיש שפע של פרשנויות לגבי מה שהחוק קובע בפועל. בעגה של תחום הבינה המלאכותית, אנו מתייחסים לחוקים כאל מעורפלים מבחינה סמנטית. זה מה שהופך את פיתוח הבינה המלאכותית כפי שהיא מיושמת על החוק לאתגר כל כך מרגש וגם מטריד בו זמנית. בניגוד לקריסת המספרים המדויקת שאתה עשוי לראות עבור יישומי AI בעלי אוריינטציה פיננסית, הרצון לגלם את החוקים שלנו לתוך AI כרוך בהתמודדות עם צונאמי של אי בהירות סמנטית.

בספר היסודי שלי על יסודות AI Legal Reasoning (AILR), אני דן כיצד ניסיונות קודמים של קוד קודם של חוקים למערכת של כללים מוגבלים לא הביאו אותנו רחוק ככל שהיינו רוצים להגיע בתחום המשפטי (ראה הקישור כאן). ה-AILR של היום צריך להקיף אינטגרציה בין השימוש בכללים לבין מה שאפשר לכנות סטנדרטים מקיפים שהחוק מייצג.

האיזון החשוב הזה יכול לבוא לידי ביטוי באופן זה: "בפועל, רוב הוראות החוק נוחתות איפשהו על ספקטרום בין שלטון טהור לסטנדרט טהור, ותיאוריה משפטית יכולה לעזור להעריך את השילוב הנכון של "שלטון" ו"תקינה" כאשר מציינים יעדים של מערכות בינה מלאכותית" (שם).

  • דורש הוכחה של הפודינג כשמדובר בבינה מלאכותית בציות לחוק

לרצות משהו שונה מלהיות משהו.

שמץ החוכמה הזה עולה כשמציעים שלמרות שאולי נרצה בוחנים כפולים של AI Legal, אנחנו צריכים בשפע להבטיח שהם עובדים ופועלים נכון. שימו לב שזה מציג עוד מכשול קשה ומתיש. כיסיתי בעבר את ההתקדמות והאתגרים האחרונים באימות ובאימות של AI, ראה הקישור כאן.

כפי שצוין במאמר המחקר: "כדי להתמודד עם הפער, לפני פריסת מודלים של בינה מלאכותית ביכולות יותר ויותר סוכניות, למשל, כלי רכב אוטונומיים לחלוטין בכבישים ראשיים, הצד הפורס צריך להפגין את הבנת המערכת של מטרות אנושיות, מדיניות וסטנדרטים משפטיים. הליך אימות יכול להמחיש את 'הבנת' ה-AI את 'משמעות' המושגים המשפטיים" (שם).

סיכום

אני מפציר בכם לשקול להצטרף אלי למסע אצילי זה לבניית ושדה AI Legal-checkers. אנו זקוקים ליותר תשומת לב ומשאבים המוקדשים למרדף היסודי הזה.

זה מספק גם חובה כפולה, כפי שהוזכר קודם לכן, להשגת AI Legal Reasoning (AILR) שיכול לשמש לסיוע לעורכי דין ואפשר להשתמש בו ישירות על ידי הציבור הרחב. ואכן, יש הטוענים בתוקף שהאמצעי הקיימא היחיד להגיע לתחושת גישה מלאה יותר לצדק (A2J) יהיה באמצעות יצירת בינה מלאכותית המגלמת יכולות משפטיות וניתן לגשת אליה לכל.

נקודה אחרונה מהירה לעת עתה.

הדיון עד כה הדגיש שהבודק הכפול של AI Legal יוטמע או יושתל בבינה מלאכותית. זהו אכן המוקד העיקרי של אלה שחוקרים ועוסקים בתחום המתפתח הזה.

הנה שאלה ששווה לחשוב עליה.

שים את כובע החשיבה שלך.

מדוע לא להשתמש ב-AI Legal בודקים כפולים בכל התוכנות?

העיקר הוא שבמקום להשתמש באופן בלעדי ב-AI Legal Checkers ב-AI, אולי עלינו להרחיב את נקודת המבט שלנו. כל מיני תוכנות עלולות ללכת שולל מבחינה חוקית. בינה מלאכותית אומנם קיבלה את חלק הארי של תשומת הלב בגלל הדרכים שבהן AI בדרך כלל מופעלת, כמו מתן החלטות קורעות בטן המשפיעות על בני אדם בחיי היומיום שלהם. אתה יכול לטעון בקלות שיש הרבה מערכות שאינן בינה מלאכותיות שעושות את אותו הדבר.

בעיקרו של דבר, אנחנו צריכים לא לתת לשום תוכנה לקבל נסיעה חינם כדי להימנע או למנוע את החוק.

זכור גם קודם לכן שציינתי את שתי הקטגוריות של שילוב בינה מלאכותית וחוק. התמקדנו כאן בשימוש בבינה מלאכותית כפי שהוחל על החוק. בצד השני של המטבע ישנה החלת החוק על AI. נניח שאנו מחוקקים חוקים המחייבים שימוש ב-AI Legal checkers.

זה עשוי בהתחלה להיות מוגבל למערכות בינה מלאכותית, במיוחד אלו שדורגו כבעלי סיכון גבוה במיוחד. בהדרגה, ניתן להרחיב את אותה דרישת בדיקת AI Legal לתוכנות שאינן בינה מלאכותית. שוב, אין נסיעות חינם.

בזמן שאתה מתלבט על השיקול שלמעלה, אני אתבל את הדברים כטיזר לסיום. אם אנחנו מתכוונים לדרוש בודקים משפטיים של בינה מלאכותית, ייתכן שנעשה את אותו הדבר גם לגבי בודקים כפולים של AI אתיקה. השימוש ב-AI Legal בודק כפול הוא רק חצי מהסיפור, ואיננו יכולים להזניח או לשכוח גם את דאגות האתיקה של AI.

אני אסיים את השיח הצונן הזה באחד הציטוטים האהובים עליי. לפי דבריו החכמים של ארל וורן, המשפטן המפורסם שכיהן כשופט העליון של ארצות הברית: "בחיים מתורבתים, החוק צף בים של אתיקה".

אולי עדיף להכניס את הבודקים המשפטיים של הבינה המלאכותית המתפתחת והמבעבעת לשימוש נלהב, אם אנחנו רוצים לשמור את ראשנו מעל פני ים כבדים שעלולים להסתמן מבינה מלאכותית חמוצה ומערכות לא בינה מלאכותיות שמסכנות את ביטחוננו .

הם עשויים להיות אפוד ההצלה של האנושות.

מקור: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- ו-אי-חוק/