אתיקה של בינה מלאכותית וחוק בינה מלאכותית שואלות שאלות קשות על ההתחייבות החדשה על ידי יצרני רובוטים רוקדים שאמרו שהם ימנעו נשק בינה מלאכותית

אולי בשבוע שעבר ראיתם בחדשות או שמתם לב במדיה החברתית את ההבטחה המוכרזת של כמה יצרני רובוטים לגבי מטרותיהם המוצהרות להימנע מנשק בינה מלאכותית של רובוטים למטרות כלליות. עוד רגע אני אדריך אותך בפרטים, אז אל תדאג אם לא קלטת את העניין.

התגובה להכרזה זו הייתה מהירה, ואולי כרגיל בחברה המקוטבת שלנו, הייתה גם משבחת ולעיתים ביקורתית ללעג או סקפטית ממש מגעילה.

זה סיפור על שני עולמות.

בעולם אחד, יש אומרים שזה בדיוק מה שאנחנו צריכים אחראי מפתחי רובוט AI להכריז.

תודה לאל שהיית בצד הנכון של נושא שאט אט יהיה גלוי יותר ומדאיג יותר. הרובוטים הרוקדים החמודים האלה מטרידים כי זה די קל להניע אותם לשאת נשק ולהשתמש בהם בדרכים הגרועות ביותר (אתה יכול לבדוק זאת בעצמך על ידי מעבר לרשתות החברתיות ויש בשפע סרטונים המציגים רובוטים רוקדים חמושים במקלעים ו חימוש אחר).

הצד השני של המטבע הזה אומר שהמשכון כביכול הוא לא יותר מתכסיס שיווקי או יחסי ציבור (כמו הערת צד, האם מישהו מכיר את ההבדל בין התחייבות לתרומה?). בכל מקרה, המפקפקים מפצירים שמדובר באיתות סגולה חסר רסן בהקשר של רובוטים רוקדים. אתה מבין, להתבכיין על העובדה שניתן לנשק רובוטים למטרות כלליות זה בהחלט שיקול ראוי ומבוקש, אם כי עצם הטענה שיצרן לא יעשה זאת היא כנראה הבטחה חלולה, יש המתעקשים.

בסך הכל, כל העניין מעלה סדרה כבדה למדי של שיקולי אתיקה של בינה מלאכותית וחוק בינה מלאכותית. אנו נפרק את הנושא בקפידה ונראה כיצד מדובר בהכפשה כפולה של טלטלת AI אתית וחוקית. לסיקור המתמשך והענף שלי על אתיקה של בינה מלאכותית וחוק בינה מלאכותית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

אני אתייחס במהלך הדיון הזה גם לניתוחים הקודמים שלי של הסכנות של נשק בינה מלאכותית, כגון ההערכה המעמיקה שלי ב- הקישור כאן. אולי תרצה להעיף מבט בשיח הזה לקבלת פרטים נוספים מאחורי הקלעים.

המכתב הפתוח שפותח פחית תולעים

נתחיל את הניתוח הזה על ידי חקירה מדוקדקת שלב אחר שלב של המכתב הפתוח שפורסם לאחרונה על ידי שישה יצרניות רובוטים מתקדמים ידועים יחסית, כלומר Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics ו-Unitree. בגדול, אני מנחש שראיתם בעיקר את הרובוטים של בוסטון דינמיקס, כמו אלה שמסתובבים על ארבע. הם נראים כאילו הם דמויי כלב ואנחנו מתענגים לראות אותם מתרוצצים מסביב.

כפי שהזהרתי בעבר ושוב ושוב, השימוש ברובוטים "רוקדים" כאלה כאמצעי לשכנע את הציבור הרחב שהרובוטים האלה חמודים ומקסימים, מטעה למרבה הצער וחוטה למלכודות הרבות של אנתרופומורפיזציה שלהם. אנחנו מתחילים לחשוב על פיסות המתכת והפלסטיק הקשוחות האלה כאילו הן שוות ערך לכלב נאמן חביב. הנכונות שלנו לקבל את הרובוטים האלה מבוססת על תחושת בטיחות ובטחון מזויפת. בטח, אתה צריך להרוויח כסף והסיכויים לעשות זאת גדלים על ידי מצעד סביב רובוטים רוקדים, אבל זה למרבה הצער משמיט או מסתיר לכאורה את העובדה האמיתית שהרובוטים האלה הם רובוטים ושניתן לתכנן את הבינה המלאכותית השולטת ברובוטים. או להשתבש.

שקול את ההשלכות הללו של AI (מובא מהמאמר שלי על נשק AI, שנמצא ב הקישור כאן):

  • בינה מלאכותית עשויה להיתקל בשגיאה שגורמת לו ללכת שולל
  • AI עשוי להיות המום ולהינעל ללא תגובה
  • AI עשוי להכיל באגים למפתחים שגורמים להתנהגות לא סדירה
  • בינה מלאכותית עשויה להיות פגומה עם וירוס מבצע רשעים מושתל
  • AI עשוי להשתלט על ידי האקרים של סייבר בזמן אמת
  • AI עשוי להיחשב בלתי צפוי בשל המורכבות
  • AI עשויה לקבל החלטה "שגויה" מבחינה חישובית (יחסית)
  • וכו '

אלו נקודות בנוגע לבינה מלאכותית שהיא מהסוג שבאמת הומצא בהתחלה כדי לעשות את הדבר הנכון.

נוסף על השיקולים האלה, אתה צריך לכלול מערכות בינה מלאכותית שנוצרו מההתחלה כדי לעשות דברים רעים. אתה יכול לקבל AI שיוצר למטרות מועילות, המכונה לעתים קרובות AI לתמיד. אתה יכול גם לקבל AI שנוצר בכוונה למטרות רעות, המכונה AI למען הרע. יתר על כן, אתה יכול לקבל AI לתמיד מושחת או מושחת להפיכה AI למען הרע.

אגב, שום דבר מכל זה לא קשור לבינה מלאכותית שהופכת לחוש, מה שאני מזכיר כי חלקם ממשיכים לזעוק שה-AI של היום הוא או חיוני או על סף רגיש. לא כל כך. אני מפרק את המיתוסים האלה בניתוח שלי ב הקישור כאן.

אז בואו נוודא שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי AI חיוני, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לקחת בחשבון שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שיש המשערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

אני ממליץ בחום שנשמור את הדברים על הקרקע ונשקול את ה-AI החישובי הלא-רגיש של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

היזהר מאוד מאנתרופומורפיזציה של הבינה המלאכותית של היום.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

לכל זה יש השלכות משמעותיות במיוחד לאתיקה של AI ומציע חלון שימושי ללקחים שנלמדו (עוד לפני שכל הלקחים קורים) בכל הנוגע לניסיון לחוקק AI.

מלבד שימוש במצוות האתיקה של בינה מלאכותית באופן כללי, ישנה שאלה מקבילה האם צריכים להיות לנו חוקים שישלטו על שימושים שונים בבינה מלאכותית. חוקים חדשים מתגבשים ברמה הפדרלית, המדינתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא הדרגתי. אתיקה של בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים נחרצות שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית האלה, נהרוג את אווז הזהב על ידי פגיעה בהתקדמות בבינה מלאכותית שמעניקה יתרונות חברתיים עצומים.

בטורים קודמים, כיסיתי את המאמצים הלאומיים והבינלאומיים השונים ליצור ולחוקק חוקים המסדירים בינה מלאכותית, ראה הקישור כאן, לדוגמה. כיסיתי גם את העקרונות וההנחיות השונות של AI אתיקה שאומות שונות זיהו ואימצו, כולל למשל את המאמץ של האומות המאוחדות כגון קבוצת האתיקה של AI של אונסק"ו שכמעט 200 מדינות אימצו, ראה הקישור כאן.

הנה רשימה מועילה של אבן מפתח של קריטריונים או מאפיינים אתיים של בינה מלאכותית לגבי מערכות בינה מלאכותית שחקרתי מקרוב בעבר:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים ברצינות על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית.

כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שהודגש כאן קודם לכן, נדרש כפר כדי לתכנן ולהשיג בינה מלאכותית, ועבורו על כל הכפר להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

כעת, לאחר שהנחתי בסיס מועיל לכניסה למכתב הפתוח, אנו מוכנים לצלול פנימה.

כותרת הנושא הרשמית של המכתב הפתוח היא זו:

  • "מכתב פתוח לתעשיית הרובוטיקה ולקהילות שלנו, רובוטים למטרות כלליות לא צריכים להיות מנשקים" (כפי שפורסם באינטרנט).

עד כה, כל כך טוב.

הכותרת כמעט נראית כמו גלידה ועוגת תפוחים. איך מישהו יכול לערער על זה כקריאה בעבר להימנע מנשק רובוט בינה מלאכותית?

המשך לקרוא כדי לראות.

ראשית, כחומר למחשבה, הנה פסקת הפתיחה הרשמית של המכתב הפתוח:

  • "אנחנו כמה מהחברות המובילות בעולם המוקדשות להחדרת דורות חדשים של רובוטיקה ניידת מתקדמת לחברה. הדורות החדשים הללו של רובוטים נגישים יותר, קלים יותר לתפעול, אוטונומיים, סבירים וניתנים להתאמה יותר מהדורות הקודמים, ומסוגלים לנווט אל מיקומים שלא היו נגישים בעבר לטכנולוגיות אוטומטיות או שנשלטו מרחוק. אנו מאמינים שרובוטים ניידים מתקדמים יספקו תועלת רבה לחברה כעמיתים לעבודה בתעשייה וכחברים בבתים שלנו" (כפי שפורסם באינטרנט).

הצד שטוף השמש בהופעתם של רובוטים מסוג זה הוא שאנו יכולים לצפות להרבה יתרונות גדולים שיצוצו. אין ספק לגבי זה. אולי יש לך רובוט בבית שיכול לעשות את הפעילויות האלה כמו ג'טסון כמו ניקיון הבית, שטיפת כלים ומטלות אחרות ברחבי הבית. יהיו לנו רובוטים מתקדמים לשימוש במפעלים ובמתקני ייצור. רובוטים עלולים לזחול או לתמרן לתוך חללים צרים כמו כאשר בניין מתמוטט וחיי אדם עומדים על כף המאזניים כדי להינצל. וכן הלאה.

חוץ מזה, אולי תמצא עניין בסיקור הביקורתי האחרון שלי על יום הבינה המלאכותית של טסלה, שבו סוג של רובוטים מהלכים הוצגו על ידי אילון מאסק בתור העתיד של טסלה והחברה, ראה הקישור כאן.

בחזרה לעניין שלפנינו. כאשר אנו דנים ברצינות על רובוטים רוקדים או רובוטים מהלכים, עלינו לקחת בחשבון בקפידה פשרות או את ההחזר הכולל על ההשקעה (Return on Investment) של שימוש זה ב-AI. אל לנו לאפשר לעצמנו להתלהב יתר על המידה מהיתרונות כאשר יש גם עלויות שיש לקחת בחשבון.

לצעצוע חדש ונוצץ יכולים להיות קצוות חדים למדי.

כל זה מדרבן נקודה חשובה אך שקטה במקצת שחלק מהסיבה לכך שבעיית הנשק בינה מלאכותית מתעוררת כעת נובעת מהתקדמות בינה מלאכותית לעבר פעילות אוטונומית. בדרך כלל ציפינו שכלי נשק בדרך כלל מופעלים על ידי אדם. אדם מקבל את ההחלטה אם לירות או להפעיל את הנשק. יש להניח שאנו יכולים לחייב את האדם הזה אחראי על מעשיו.

בינה מלאכותית שתוכננה לעבוד באופן אוטונומי או שניתן להערים על כך תוציא לכאורה את האדם מהלולאה. הבינה המלאכותית מקבלת באופן אלגוריתמי החלטות חישוביות שעלולות בסופו של דבר להרוג או לפגוע בבני אדם. מלבד החששות הברורים לגבי חוסר שליטה על הבינה המלאכותית, יש לך גם את החששות שאולי יהיה לנו קשה להטיל אחריות לגבי פעולות הבינה המלאכותית. אין לנו בן אדם שהוא המסית הברור שלנו.

אני מבין שיש הסבורים שעלינו לשאת בפשטות ובאופן ישיר את הבינה המלאכותית אחראית למעשיו, כאילו הבינה המלאכותית השיגה גזר דין או קיבלה באופן אחר אישיות משפטית (ראה הסיקור שלי על הוויכוחים על הבינה המלאכותית הזוכה לאישיות משפטית ב- הקישור כאן). זה לא יעבוד בינתיים. נצטרך לאתר את הבינה המלאכותית לבני האדם שהמציאו אותו או שהמציאו אותו. הם ללא ספק ינסו להתחמק מאחריות משפטית על ידי ניסיון לטעון שה-AI חרג ממה שהם חזו. זוהי טענה הולכת וגוברת שאנו צריכים להתמודד איתה (ראה כתבי חוק הבינה המלאכותית שלי לתובנות על הנושאים השנויים במחלוקת).

האו"ם (או"ם) באמצעות האמנה בדבר נשק קונבנציונלי מסויים (CCW) בז'נבה קבע אחד-עשר עקרונות מנחים לא מחייבים בנושא כלי נשק אוטונומיים קטלניים, בהתאם לדו"ח הרשמי שפורסם באינטרנט (הכולל הפניות לחוק ההומניטרי הבינלאומי הרלוונטי או סעיפי ה-IHL) , כולל:

(א) המשפט ההומניטארי הבינלאומי ממשיך לחול במלואו על כל מערכות הנשק, לרבות פיתוח ושימוש פוטנציאלי של מערכות נשק אוטונומיות קטלניות;

(ב) אחריות אנושית להחלטות על השימוש במערכות נשק חייבת להישמר מאחר שלא ניתן להעביר אחריות למכונות. יש לשקול זאת לאורך כל מחזור החיים של מערכת הנשק;

(ג) אינטראקציה בין אדם למכונה, העשויה ללבוש צורות שונות ולהתבצע בשלבים שונים של מחזור החיים של נשק, צריכה להבטיח שהשימוש הפוטנציאלי במערכות נשק המבוססות על טכנולוגיות מתפתחות בתחום מערכות נשק אוטונומיות קטלניות ציות לחוק הבינלאומי החל, בפרט IHL. בקביעת האיכות וההיקף של האינטראקציה בין אדם למכונה, יש לשקול מגוון גורמים, כולל ההקשר המבצעי, ואת המאפיינים והיכולות של מערכת הנשק בכללותה;

(ד) אחריות לפיתוח, פריסה ושימוש בכל מערכת נשק מתהווה במסגרת ה-CCW חייבת להיות מובטחת בהתאם לחוק הבינלאומי החל, לרבות באמצעות תפעול מערכות כאלה בתוך שרשרת אחראית של פיקוד ובקרה אנושיים;

(ה) בהתאם להתחייבויותיהן של מדינות על פי המשפט הבינלאומי, במחקר, פיתוח, רכישה או אימוץ של נשק, אמצעי או שיטת לוחמה חדשים, יש לקבוע אם העסקתו תהיה, בנסיבות מסוימות או בכל הנסיבות, אסור על פי החוק הבינלאומי;

(ו) בעת פיתוח או רכישת מערכות נשק חדשות המבוססות על טכנולוגיות מתפתחות בתחום מערכות נשק אוטונומיות קטלניות, אבטחה פיזית, אמצעי הגנה לא פיזיים מתאימים (לרבות אבטחת סייבר מפני פריצה או זיוף נתונים), הסיכון לרכישה על ידי קבוצות טרור. ויש לשקול את הסיכון להתפשטות;

(ז) הערכות סיכונים ואמצעי הפחתה צריכים להיות חלק ממחזור התכנון, הפיתוח, הבדיקה והפריסה של טכנולוגיות מתפתחות בכל מערכות נשק;

(ח) יש לתת את הדעת על השימוש בטכנולוגיות מתפתחות בתחום מערכות נשק אוטונומיות קטלניות בשמירה על ציות ל-IH ומחויבויות משפטיות בינלאומיות רלוונטיות אחרות;

(i) ביצירת אמצעי מדיניות פוטנציאליים, אין לאנתרופומורפיזציה של טכנולוגיות מתפתחות בתחום מערכות נשק אוטונומיות קטלניות;

(י) דיונים וכל אמצעי מדיניות פוטנציאליים שננקטו בהקשר של ה-CCW לא צריכים להפריע להתקדמות או גישה לשימושים שלווים בטכנולוגיות אוטונומיות אינטליגנטיות;

(יא) ה-CCW מציעה מסגרת הולמת להתמודדות עם סוגיית הטכנולוגיות המתפתחות בתחום מערכות הנשק האוטונומיות הקטלניות במסגרת המטרות והמטרות של האמנה, השואפת לאזן בין צורך צבאי ושיקולים הומניטריים.

חוקי מלחמה אלו ואחרים שונים וחוקי סכסוך מזוין, או IHL (חוקים הומניטריים בינלאומיים) משמשים מדריך חיוני ומבטיח תמיד לשקול מה נוכל לנסות לעשות בנוגע להופעתן של מערכות אוטונומיות הממוקמות בנשק, בין אם באמצעות אבן מפתח. עיצוב או בשיטות שלאחר מעשה.

יש האומרים שעלינו לאסור על הסף את המערכות האוטונומיות בינה מלאכותית הניתנות לנשק. זה נכון, העולם צריך להניח את הרגל ולדרוש בתקיפות שמערכות אוטונומיות בינה מלאכותית לעולם לא יהיו מנשקות. יש להטיל איסור מוחלט. סוף הסיפור. נקודה.

ובכן, אנו יכולים לאחל בכנות שהאיסור על מערכות אוטונומיות קטלניות בנשק יישמר בקפדנות ובצייתנות. הבעיה היא שהרבה מקום להתנועע חייב להימצא בערמומיות בכל אחד מהאיסורים הכנים ביותר. כמו שאומרים, חוקים נועדו להישבר. אתה יכול להמר שבמקום שבו הדברים הם רופפים, ריפרף יוציא פערים וינסה לקרוץ-לקרוץ את דרכם סביב הכללים.

להלן כמה פרצות פוטנציאליות שכדאי לקחת בחשבון:

  • טענות של לא קטלני. צור מערכות נשק אוטונומיות לא קטלניות (לכאורה בסדר מכיוון שזה מחוץ לגבול האיסור), אשר לאחר מכן תוכל במעבר גרוש להפוך לקטלני (תהיה מעבר לאיסור רק ברגע האחרון).
  • תביעות של מערכת אוטונומית בלבד. שמור על האיסור בכך שלא תגרום למערכות אוטונומיות ממוקדות קטלניות, בינתיים, להתקדם באותה מידה בבניית מערכות אוטונומיות יומיומיות שעדיין לא עברו נשק, אבל אתה יכול להחזיר אותם לנשק.
  • טענות של לא משולב כאחד. צור מערכות אוטונומיות שאינן נשקלות כלל, ובבוא העת, נשק בחזרה, כך שתוכל לנסות לטעון בתוקף שהם שני אלמנטים נפרדים ולכן לטעון שהם אינם נופלים בגדר של הכל-ב-אחד מערכת נשק אוטונומית או בן דוד שלה.
  • טוען שזה לא אוטונומי. צור מערכת נשק שלא נראה שהיא בעלת יכולות אוטונומיות. השאירו מקום במערכת, ככל הנראה, לא אוטונומית זו לכניסה של אוטונומיה מבוססת בינה מלאכותית. בעת הצורך, חבר את האוטונומיה ואתה מוכן לגלגל (עד אז, לכאורה לא הפרת את האיסור).
  • אחר

יש עוד המון קשיים שהתבטאו בניסיון לאסור על הסף מערכות נשק אוטונומיות קטלניות. אני אכסה עוד כמה מהם.

חלק מהמומחים טוענים שאיסור אינו שימושי במיוחד ובמקום זאת צריכות להיות הוראות רגולטוריות. הרעיון הוא שהחפצים הללו יהיו מותר, אך יבוצעו במשטרה קפדנית. מפורטת שורה של שימושים חוקיים, יחד עם דרכי מיקוד חוקיות, סוגי יכולות חוקיות, מידתיות חוקית וכדומה.

לדעתם, איסור ישר הוא כמו להכניס את הראש בחול ולהעמיד פנים שהפיל בחדר לא קיים. טענה זו אמנם מרתיחה את דמם של אלה שמתנגדים בטענה שעל ידי הפעלת איסור אתה מסוגל להפחית באופן דרמטי את הפיתוי אחרת להמשיך במערכות מסוג זה. בטח, חלקם יתהדרו באיסור, אבל לפחות אני מקווה שרובם לא. לאחר מכן תוכל למקד את תשומת הלב שלך בהתנפצות ולא צריך לפצל את תשומת הלב שלך לכולם.

הוויכוחים האלה מסתובבים.

חשש נוסף שצוין לעתים קרובות הוא שגם אם הטובים יעמדו באיסור, הרעים לא. זה מעמיד את הטוב בתנוחה עלובה. לרעים יהיו מערכות אוטונומיות מהסוג הזה, ולטובים לא. ברגע שדברים יתגלו שלרעים יש אותם, יהיה מאוחר מדי עבור הטובים להדביק את הפער. בקיצור, הדבר הנבון היחיד לעשות הוא להתכונן להילחם באש באש.

יש גם את טענת ההרתעה הקלאסית. אם הטובים בוחרים ליצור מערכות אוטונומיות מנשקות, ניתן להשתמש בכך כדי להרתיע את הרעים מלבקש להיכנס למאבק. או שהטובים יהיו חמושים יותר ובכך ירתיעו את הרעים, או שהטובים יהיו מוכנים כשהרע אולי יגלה שהם בחשאי המציאו את המערכות הללו לאורך כל הדרך.

קונטרה למונים האלה היא שעל ידי יצירת מערכות אוטונומיות מנשקות, אתה מנהל מרוץ חימוש. הצד השני יבקש לקבל את אותו הדבר. גם אם הם לא מסוגלים טכנולוגית ליצור מערכות כאלה מחדש, כעת הם יוכלו לגנוב את התוכניות של "הטובים", להנדס לאחור את אומץ ההייטק, או לחקות את כל מה שנראה שהם רואים כמנוסה. דרך לבצע את העבודה.

אהה, יש תשובה, כל זה עשוי להוביל לצמצום קונפליקטים על ידי מראית עין של הדדיות. אם צד א' יודע שלצד ב' יש את כלי הנשק הקטלניים של מערכות אוטונומיות, וצד ב' יודע שלצד א' יש אותם, הם עלולים לשבת חזק ולא להגיע למכות. יש לזה הילה ברורה של אווירת הרס מובטח (MAD).

וכן הלאה.

מסתכל מקרוב על הפסקה השנייה

כבר כיסינו כאן הרבה קרקע ורק עד כה שקלנו את הפסקה הראשונה או הפתיחה של המכתב הפתוח (יש ארבע פסקאות בסך הכל).

הגיע הזמן להסתכל על הפסקה השנייה, הנה לך:

  • "כמו בכל טכנולוגיה חדשה המציעה יכולות חדשות, הופעת רובוטים ניידים מתקדמים מציעה אפשרות של שימוש לרעה. אנשים לא אמינים עלולים להשתמש בהם כדי לפלוש לזכויות אזרח או כדי לאיים, לפגוע או להפחיד אחרים. תחום אחד מדאיג במיוחד הוא נשק. אנו מאמינים שהוספת כלי נשק לרובוטים המופעלים מרחוק או אוטונומית, זמינים באופן נרחב לציבור ומסוגלים לנווט למקומות שלא היו נגישים בהם בעבר, שבהם אנשים חיים ועובדים, מעלה סיכונים חדשים של נזק ובעיות אתיות חמורות. יישומים ממוגנים של הרובוטים החדשים הללו יפגעו באמון הציבור בטכנולוגיה בדרכים שיפגעו בתועלת האדירה שהם יביאו לחברה. מסיבות אלו, איננו תומכים בהפעלת הנשק של הרובוטים שלנו לניידות מתקדמת לשימוש כללי. לאלו מאתנו שדיברו בנושא זה בעבר, ולעוסקים בפעם הראשונה, אנו חשים כעת דחיפות מחודשת לאור הדאגה הציבורית הגוברת בחודשים האחרונים שנגרמה על ידי מספר קטן של אנשים שפרסמו באופן גלוי את המאולתר שלהם. מאמצים לנשק רובוטים זמינים מסחרית" (כפי שפורסם באינטרנט).

לאחר קריאת הפסקה השנייה, אני מקווה שאתה יכול לראות כיצד השיח הקודם שלי כאן על נשק בינה מלאכותית בא לידי ביטוי.

הבה נבחן כמה נקודות נוספות.

חשש מסוים לגבי היבט ניסוח מסוים שעורר את הקשקושים אצל חלקם הוא שנראה שהנרטיב מדגיש ש"אנשים לא מהימנים" עלולים לעשות שימוש לרעה ברובוטים בינה מלאכותית. כן, אכן, זה יכול להיות אנשים רעים או עושי רשעים שיגרמו למעשים מרושעים ש"יעשו שימוש לרעה" ברובוטים בינה מלאכותית.

יחד עם זאת, כפי שצוין לקראת תחילת הדיון הזה, עלינו להבהיר גם שה-AI עצמו עלול להשתבש, אולי בגלל באגים או שגיאות מוטמעים וסיבוכים אחרים כאלה. החשש המובע הוא כי רק הדגשת הסיכויים של אנשים לא אמינים הוא שנראה שהוא מתעלם מאפשרויות שליליות אחרות. למרות שרוב החברות והספקים של בינה מלאכותית מסרבים להודות בכך, יש שפע של בעיות במערכות בינה מלאכותיות שעלולות לפגוע בבטיחות ובאמינות של מערכות אוטונומיות. לסיקור שלי על בטיחות AI והצורך באמצעי הגנה קפדניים וניתנים להוכחה, ראה הקישור כאן, למשל.

נקודה בולטת נוספת שעלתה בקרב אלה שבחנו את המכתב הפתוח כוללת את הקביעה הכלולה שעלולה בסופו של דבר לפגוע באמון הציבור הקשור לרובוטים בינה מלאכותית.

מצד אחד, זו קביעה נכונה. אם רובוטים בינה מלאכותית משמשים להצעות מרושעות, אתה יכול להמר שהציבור יקבל קיטור. כשהציבור יקבל קיטור, אתה יכול להמר שהמחוקקים יקפצו למערכה ויחפשו לחוקק חוקים שמצמצמים רובוטים בינה מלאכותית ויצרני רובוטים בינה מלאכותית. זה בתורו עלול לפגוע בתעשיית הרובוטיקה של בינה מלאכותית אם החוקים כוללים את הכל וישביתו מאמצים הכוללים יתרונות רובוטיים בינה מלאכותית. במובן מסוים, התינוק עלול להיזרק החוצה עם מי האמבט (ביטוי ישן, כנראה ראוי לפרישה).

השאלה המתבקשת שהועלתה גם היא האם הקביעה הזו לגבי מניעת הפחתה באמון הציבור לרובוטים בינה מלאכותית היא היגיון מסוים שמשרת את עצמו או שמא היא לטובת כולנו (האם זה יכול להיות גם וגם?).

אתה תחליט.

כעת הגענו לחלק הבשרני במיוחד של המכתב הפתוח:

  • "אנחנו מתחייבים שלא ננשק את הרובוטים שלנו לשימוש כללי בניידות מתקדמת או את התוכנה שאנו מפתחים שמאפשרת רובוטיקה מתקדמת ולא נתמוך באחרים לעשות זאת. במידת האפשר, נסקור בקפידה את היישומים המיועדים של הלקוחות שלנו כדי להימנע מנשק פוטנציאלי. אנו גם מתחייבים לחקור את הפיתוח של תכונות טכנולוגיות שיכולות להפחית או להפחית סיכונים אלו. שיהיה ברור, אנחנו לא מתייחסים לטכנולוגיות קיימות שמדינות וסוכנויות הממשלה שלהן משתמשות בהן כדי להגן על עצמן ולקיים את החוקים שלהן" (כפי שפורסם באינטרנט).

אנחנו יכולים לפרוק את זה.

שבו והכינו את עצמכם בהתאם.

האם אתה מוכן לקצת קיטוב לוהט?

בצד החיובי, חלקם מבשרים קולית שיצרניות רובוטים בינה מלאכותית יבטיחו התחייבות כזו. נראה שיצרני הרובוטים הללו יבקשו למרבה המזל לא לנשק את הרובוטים "הניידות המתקדמת למטרות כלליות" שלהם. בנוסף, במכתב הפתוח נאמר שהם לא יתמכו באחרים שיעשו זאת.

המבקרים תוהים האם ישנה יצירת מילים חכמה.

לדוגמה, היכן מתחיל ונגמר "ניידות מתקדמת"? אם יצרן רובוטים ממציא א פשוט- רובוט AI ניידות ולא מתקדם (שהוא פיסת ז'רגון טכני לא מוגדר), האם זה לא נכלל בטווח של מה לֹא להיות מנשק? לפיכך, ככל הנראה, זה בסדר לנשק רובוטי AI בעלי ניידות פשוטה, כל עוד הם אינם מה שנקרא מתקדם.

אותו דבר לגבי הניסוח של רובוטים לשימוש כללי. אם רובוט בינה מלאכותית תוכנן במיוחד עבור נשק ולכן לא נגיד א מטרה כללית רובוט, האם זה הופך להדרה בת קיימא מהתחום?

אתה יכול להתפלפל עם ההתפלפלויות האלה ולטעון בלהט שזה רק מכתב פתוח ולא מסמך משפטי בן חמישים עמודים שמפרט כל פינה ופינה.

זה מביא אותנו לתהייה יותר לכאורה ברמת המאקרו שהביעו חלק. במהותו, מה מסמל "משכון"?

יש שואלים, איפה הבשר?

חברה שמבטיחה התחייבות כזו עושה זאת לכאורה ללא כל מניות אמיתיות במשחק. אם הצמרת הגבוהה של חברה כלשהי שחתומה על ההתחייבות הזו מחליטה לא לכבד יותר את ההתחייבות, מה קורה עם אותה חברה? האם המנהלים יקבלו שימורים סופית? האם החברה תיסגר ותתנצל מאוד על הפרת ההתחייבות? וכן הלאה.

ככל שניתן להסיק, אין עונש מיוחד או עונש על כל הפרה של המשכון.

אתה יכול לטעון שיש אפשרות לפגיעה במוניטין. חברת משכון עלולה להידרש בשוק על כך שנתנה התחייבות שלא קיימה עוד. כמובן שזה גם מניח שאנשים יזכרו שההבטחה בוצעה. היא גם מניחה שהפרת המשכון תתגלה איכשהו (זה נראה בעליל שלא סביר שפירמה תספר הכל אם תעשה זאת). יהיה צורך להזעיק את מפר ההבטחות, ובכל זאת סוגיה כזו עלולה להפוך לרעש בלבד בצונאמי המתמשך של חדשות על יצרני רובוטיקה בינה מלאכותית.

שקול זווית אחרת שעלתה.

חברת משכון נרכשת על ידי חברה גדולה יותר. החברה הגדולה יותר בוחרת להתחיל להפוך את הרובוטים לשימוש כללי בניידות מתקדמת לגרסאות AI.

האם זו הפרה של ההתחייבות?

החברה הגדולה יותר עשויה להתעקש שלא מדובר בהפרה, שכן היא (החברה הגדולה) מעולם לא הבטיחה את ההתחייבות. בינתיים, רובוטי הבינה המלאכותית התמימים שהחברה הקטנה הכינה והמציאה, ועושים זאת עם הכוונות האלטרואיסטיות ביותר לכאורה, משתפצים כמעט בן לילה לנשק.

קצת מערער את ההתחייבות, אם כי אפשר לומר שהחברה הקטנה יותר לא ידעה שזה יקרה מתישהו. הם היו רציניים בתשוקתם. זה היה מחוץ לשליטתם לגבי מה שחברת הקנייה הגדולה בחרה לעשות.

יש גם ששואלים האם יש בכך אחריות משפטית.

משרד משכון מחליט בעוד כמה חודשים שהוא לא מתכוון לכבד את ההתחייבות. הם עברו שינוי בלב. האם ניתן לתבוע את המשרד על כך שנטש את המשכון שנתן? מי יתבע? מה יהיה הבסיס לתביעה? עולות שורה של בעיות משפטיות. כמו שאומרים, אתה יכול לתבוע כמעט כל אחד, אבל אם תנצח זה עניין אחר לגמרי.

תחשוב על זה בצורה אחרת. חברת משכון מקבלת הזדמנות לעשות עסקה גדולה מאוד למכור חבורה שלמה של רובוטים לניידות כללית מתקדמת שלה לחברה ענקית שמוכנה לשלם דרך האף כדי להשיג את הרובוטים. זו אחת מאותן עסקאות רכישה של פעם בחיים במיליוני דולרים.

מה צריכה חברת רובוטיקה בינה מלאכותית לעשות?

אם חברת המשכון של רובוטיקה בינה מלאכותית נסחרת בבורסה, היא הייתה שואפת כמעט בוודאות לבצע את המכירה (ניתן לומר את אותו הדבר על חברה בבעלות פרטית, אם כי לא ממש כך). תארו לעצמכם שחברת המשכון חוששת שהקונה ינסה לנשק את הרובוטים, אם כי נניח שאין דיון כזה על השולחן. זה רק שמועה שהקונה עשוי לעשות זאת.

לפיכך, חברת המשכון מכניסה לרישיון שלהם כי הרובוטים אינם אמורים להיות מנשקים. הקונה נרתע משפה זו ומתרחק מהרכישה.

מכמה רווח הלכה חברת הרובוטיקה הבינה המלאכותית המתחייבת?

האם יש נקודה שבה הרווח ביד גובר על הכללת דרישת הגבלת רישוי (או, אולי ניסוח חוקי של ההגבלה כדי לאפשר מרחב התנועות ועדיין לגרום לעסקה להתרחש)? אני חושב שאתה יכול לראות את ההתלבטות הכרוכה בכך. טונות של תרחישים כאלה מעלים בקלות באוב. השאלה היא האם המשכון הזה יקבל שיניים. אם כן, איזה סוג שיניים?

בקיצור, כפי שצוין בתחילת הדיון הזה, חלקם מגבירים את העובדה שמתבצעת משכון מסוג זה, בעוד שאחרים רואים עמום יותר האם המשכון יחזיק מים.

אנחנו ממשיכים הלאה.

קבלת התחייבות

הפסקה הרביעית והאחרונה של המכתב הפתוח אומרת כך:

  • "אנו מבינים שהמחויבות שלנו לבדה אינה מספיקה כדי לטפל בסיכונים אלו במלואם, ולכן אנו קוראים לקובעי המדיניות לעבוד איתנו כדי לקדם שימוש בטוח ברובוטים הללו ולאסור שימוש לרעה בהם. אנו גם קוראים לכל ארגון, מפתח, חוקר ומשתמש בקהילת הרובוטיקה להבטיח הבטחות דומות לא לבנות, לאשר, לתמוך או לאפשר הצמדת נשק לרובוטים כאלה. אנו משוכנעים שהתועלת לאנושות של טכנולוגיות אלו גוברת בהרבה על הסיכון של שימוש לרעה, ואנו נרגשים לקראת עתיד מזהיר שבו בני אדם ורובוטים עובדים זה לצד זה כדי להתמודד עם כמה מהאתגרים של העולם" (כפי שפורסם באינטרנט).

בחלק האחרון של המכתב הפתוח יש כמה אלמנטים נוספים שעוררו זעם.

קריאה לקובעי מדיניות יכולה להיות מומלצת או לא מודעת, יש הטוענים. יתכן ותקבלו קובעי מדיניות שאינם בקיאים בעניינים הללו, שיבצעו את החוקים והתקנות הקלאסיים של דחף לשיפוט ויצירת חוקים ותקנות שגוזלים את ההתקדמות ברובוטים בינה מלאכותית. לפי הנקודה שהועלתה קודם לכן, אולי החידוש שדוחף קדימה בהתקדמות הרובוטית של בינה מלאכותית ישבש או ידרדר.

מוטב להיות בטוח שאתה יודע מה אתה מבקש, אומרים המבקרים.

כמובן, הטענה הנגדית היא שהנרטיב מציין בבירור שקובעי מדיניות צריכים לעבוד עם חברות רובוטיקה בינה מלאכותית כדי להבין איך אפשר לחוקק חוקים ותקנות כאלה בצורה הגיונית. הנגד לטיעון הנגד הוא שקובעי המדיניות עלולים להיראות כמי שמסתכלים על יצרני הרובוטיקה של AI אם הם יעמדו בגחמותיהם. הניגוד לנגד הטיעון הנגדי הוא שבאופן טבעי זה הכרחי לעבוד עם מי שיודע על הטכנולוגיה, אחרת התוצאה תהיה פוטנציאלית רעה. וכו.

על בסיס אולי מתלבט, חלקם סבלו מצרבת מעבר לקו שקורא לכולם להתחייב דומות לא מצרף נשק לרובוטים לשימוש כללי בניידות מתקדמת. מילת המפתח שם היא המילה מצרף. אם מישהו מייצר רובוט בינה מלאכותית שמשלב או מטמיע נשק בצורה חלקה, נראה שזה מעקף את הניסוח של מצרף משהו. אתה יכול לראות את זה עכשיו, מישהו טוען בלהט שהנשק לא מחובר, הוא לגמרי חלק מרובוט הבינה המלאכותית. תתגבר על זה, הם קוראים, אנחנו לא בגדר ההתחייבות הזו, והם אפילו יכלו לומר אחרת שכן.

זה מעלה תלונה נוספת על חוסר הדביקות של המשכון.

האם חברה או כל אדם בכלל שיבחר בהתחייבות זו יכולה להכריז על עצמם כחסרי התחייבות בכל עת שהם רוצים לעשות זאת ומכל סיבה שהם רוצים בכך?

כנראה שכן.

יש הרבה התלבטויות לגבי הבטחת הבטחות ואיזו משיכה הם מעניקים.

סיכום

איכס, אפשר לומר, החברות האלה שמנסות לעשות את הדבר הנכון מתופפות על כך שהן מנסות לעשות את הדבר הנכון.

מה יצא מהעולם שלנו?

כל מי שמבטיח התחייבות כזו צריך לקבל את היתרונות של הספק, אתה עשוי לקיים בלהט. הם יוצאים למרחב הציבורי כדי לתרום תרומה נועזת וחיונית. אם נתחיל להכפיש אותם על כך, זה בוודאי יחמיר את המצב. אף אחד לא ירצה לתת התחייבות כזו. חברות ואחרות אפילו לא ינסו. הם יתחבאו ולא יזהירו את החברה מראש למה אפשר להפוך את הרובוטים הרוקדים היקרים האלה בצורה מסוכנת.

הספקנים מכריזים שהדרך לגרום לחברה להתחכם כרוכה בפעולות אחרות, כמו הפסקת הפעולה הזויה של הצגת רובוטי הבינה המלאכותית המרקדים המשתוללים. או לפחות להפוך את זה לפעולה מאוזנת יותר. לדוגמה, במקום לחקות רק כלבים נאמנים לחיות מחמד אהובים, הדגימו כיצד הרובוטים הרוקדים יכולים להיות דומים יותר לזאבים כועסים פרוע, שיכולים לקרוע את בני האדם לגזרים בהיסוס.

זה יקבל יותר תשומת לב מאשר התחייבויות, הם מתחננים.

הבטחות יכולות ללא ספק להיות חידה לא קטנה.

כפי שאמר מהטמה גנדי ברהיטות: "לא משנה עד כמה ההתחייבות תהיה מפורשת, אנשים יפנו ויעוותו את הטקסט כך שיתאים למטרה שלהם."

אולי כדי לסיים כאן בנימה מרוממת, תומס ג'פרסון אמר את זה על התחייבויות: "אנחנו מתחייבים זה לזה על חיינו, הונו וכבודנו הקדוש".

כשזה מגיע לרובוטים בינה מלאכותית, האוטונומיה שלהם, הנשק שלהם וכדומה, כולנו בסופו של דבר נהיה בזה ביחד. ההתחייבות ההדדית שלנו צריכה להיות לפחות שנשמור את העניינים האלה בחזית, נשאף למצוא דרכים להתמודד עם ההתקדמות הללו, ואיכשהו נמצא את דרכנו להבטחת כבודנו, מזלנו וחיינו.

האם אנחנו יכולים להתחייב לזה?

אני מקווה.

מקור: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- יצרני רובוטים-אומרים-הם-ימנעו-אי-נשק/