מהי המדיניות המעודכנת של הפנטגון לגבי רובוטים רוצחים?

הפנטגון הוציא א עדכון להנחיה 3000.09, המכסה את מה שהם מכנים אוטונומיה במערכות נשק ואחרים קוראים 'רובוטים רוצחים.' מל"טים נוכחיים כמו חיל האוויר וה-CIA MQ-9 Reapers מופעלים בשלט רחוק: בן אדם יושבים מול מסך וידאו מזהה מטרות על הקרקע במרחק אלפי קילומטרים, מניח אותן על הכוונת ומשחרר א טיל אש גיהנום או נשק אחר. כלי נשק אוטונומיים שונים: הם בוחרים מטרות משלהם ללא כל התערבות אנושית. דרושים כללים ברורים לגבי מתי וכיצד ניתן להשתמש בהם, וההנחיה החדשה מקרבת אותם צעד אחד.

לפני עשר שנים כשהגרסה הראשונה של 3000.09 שוחררה, נשקים אוטונומיים נראו כמו מדע בדיוני. עכשיו הם אמיתיים מאוד. האו"ם טען זאת מל"טים שסופקו על ידי טורקיה תקפו מטרות באופן אוטונומי בלוב בשנת 2020 ורוסיה פורסת כעת אמצעי לחימה שוטטות באוקראינה עם יכולת אוטונומית.

פעילים רבים, כמו ה מסע פרסום כדי להפסיק רוצח רוצח, רוצה איסור מוחלט על נשק אוטונומי, מתעקש שכל נשק מרוחק יישאר תחתיו שליטה אנושית משמעותית בכל העת. האו"ם התלבט כיצד לעשות זאת לשלוט בזרועות כאלה במשך שנים רבות.

עם זאת, כפי שמבהירה ההוראה החדשה, הפנטגון דבק בקו אחר.

"ה-DoD התנגד בעקביות לסטנדרט מדיניות של 'שליטה אנושית משמעותית' בכל הנוגע למערכות אוטונומיות ומערכות בינה מלאכותיות". גרגורי אלן, מנהל הפרויקט בנושא ממשל בינה מלאכותית ב- המרכז ללימודים אסטרטגיים ובינלאומיים, אמר לי. "מונח האמנות המועדף של DoD הוא 'רמות מתאימות של שיקול דעת אנושי', מה שמשקף את העובדה שבמקרים מסוימים - מטוסי מעקב אוטונומיים וסוגים מסוימים של נשק סייבר אוטונומי, למשל - הרמה המתאימה של שליטה אנושית עשויה להיות מועטה עד אפסית. ."

בדיוק איזה נשק אוטונומי יהיה מותר באילו נסיבות? אלן סבור שהגרסה הקודמת של ההנחיה הייתה כה לא ברורה, עד שהיא מנעה כל התפתחות בתחום זה.

"הבלבול היה כה נרחב - כולל בקרב כמה מנהיגים בכירים ב-DoD - עד שפקידים נמנעו מלפתח כמה מערכות שלא רק הותרו על פי המדיניות, אלא גם פטורות במפורש מדרישת הביקורת הבכירה", אומר אלן.

אף נשק אחד לא הוגש לתהליך הבדיקה של כלי נשק אוטונומיים שנקבעו ב-3000.09 המקורי בעשר השנים שחלפו מאז פרסומו.

אלן כתב א חיבור על זה עבור CSIS בשנה שעברה, מתאר ארבעה תחומים שהצריכו עבודה - הגדרה רשמית של מערכות נשק אוטונומיות, אומר מה המשמעות של "תומכת בינה מלאכותית" עבור המדיניות, כיצד תהליך הבדיקה יטפל במודלים של למידת מכונה, והבהרת אילו סוגי נשק נדרשים לעבור תהליך ביקורת מפרך.

"ה-DoD יישם את כולם", אומר אלן.

באופן עקרוני, אם כן, זה אמור להבטיח את מה שמונח על ידי DoD "מחויבות חזקה ומתמשכת להיות מנהיג גלובלי שקוף בביסוס מדיניות אחראית לגבי שימושים צבאיים במערכות אוטונומיות".

עם זאת, ישנן כמה תוספות שעלולות להיראות כפרצות, כגון פטור מביקורת בכירה על כלי נשק אוטונומיים המגנים על מל"טים שאינם מכוונים לאנשים ("נשק אנטי-חומרי") ואשר יורשו לכוון טילים, מל"טים אחרים ואפשר למערכות אחרות.

"המילה 'להגן' עושה המון עבודה", זאק קלנבורן, אמר לי עמית מדיניות בבית הספר למדיניות וממשל Schar באוניברסיטת ג'ורג' מייסון. "אם מזל"ט פועל בשטח אויב, כמעט כל נשק יכול להתפרש כ"מגן" על הפלטפורמה".

קלנבורן גם מציין כי בעוד שלמעשה כלי נשק אוטונומיים כמו מוקשים נמצאים בשימוש כבר יותר ממאה שנה, הנוף משתנה במהירות בגלל ההתקדמות ב-AI ולמידת מכונה מסוימת. אלה הולידו מערכות שהן מאוד יכולות, אבל שביר מבחינה טכנית - כשהם נכשלים, הם נכשלים באופן מרהיב בדרכים שאף אדם לא היה, למשל לטעות בין צב לרובה.

"אוטונומיה באמצעות בינה מלאכותית בהחלט ראויה ליותר דאגה, בהתחשב בשבריריות וחוסר ההסבר של הגישות השולטות כיום", אומר קלנבורן.

העדכון לא גדול. אבל זה כן מראה את המחויבות המתמשכת של הפנטגון לפיתוח נשק אוטונומי יעיל ואמונה שהם יכולים לעמוד בה. המשפט ההומניטארי הבינלאומי - הבחנה בין אזרחים לאנשי צבא, בשאיפה להימנע מפגיעה באזרחים, ושימוש בכוח מידתי והכרחי בלבד.

קמפיינים מאמינים שבינה מלאכותית לא תהיה בעלת ההבנה הדרושה לביצוע שיפוטים מוסריים בזמן מלחמה ומסתכנים ביצירת עולם שבו המלחמה היא אוטומטית ובני האדם כבר לא בשליטה. אחרים מאמינים שצבא ארה"ב יהיה כך יתחרה על ידי יריבים עם נשק אוטונומי אלא אם כן AI משולבת ברמה טקטית, וכי יותר מדי מעורבות אנושית מאט רובוטים צבאיים.

סביר להניח שהוויכוח יימשך גם כאשר יתחילו להופיע נשק אוטונומי, והתוצאות יעקוב מקרוב. כך או כך, נראה שהרובוטים הרוצחים מגיעים.

מקור: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/