אתיקה של בינה מלאכותית נזהרת מהחמרה באסימטריה של בינה מלאכותית בקרב בני אדם שמקבלים את הקצה הקצר של המקל

לפעמים אתה בקצה הלא נכון של המקל.

אפשר להחיל את השפה הדיבורית הזו על רעיון האסימטריה.

כן, אני הולך לדבר על אסימטריה. כפי שסביר להניח שנתקלתם בעולם המטופש הזה שבו אנו חיים, ישנם מקרים שבהם אתם עלולים למצוא את עצמכם בעלי פחות ידע בעניין שיחסית חשוב לכם. זה מכונה באופן רשמי אסימטריית מידע.

המפתח הוא שיש לך פחות ידע או מידע ממה שהיית רוצה שהיה לך, בנוסף יש לך פחות מהצד השני המעורב בעניין. אתה נמצא בנחיתות בולטת בהשוואה לצד השני. הם יודעים משהו שאתה לא יודע. הם יכולים למנף את מה שהם יודעים, במיוחד במונחים של מה שאתה לא יודע, ולקבל יד על העליונה בכל התלבטות או משא ומתן גס איתך.

ובכן, יש ילד חדש בעיר, המכונה אסימטריה של AI.

המשפט האחרון הזה מתייחס לאפשרות שתצא נגד מישהו חמוש ב-AI, בזמן שאתה לא כל כך חמוש.

יש להם AI בצד שלהם, בזמן שיש לך, ובכן, רק אתה. הדברים משתבשים. אתה נמצא בנחיתות משוערת. הצד השני יוכל להריץ מעגלים סביבך עקב התגברות בינה מלאכותית. זה עשוי להיות בתוך האמירה המפורסמת שהכל הוגן באהבה ובמלחמה (פתגם ותיק שהוטבע בו אופוז מאת ג'ון לילי, 1578), אם כי הדינמיקה והסכנות של אסימטריית בינה מלאכותית מעלה סוגיות אתיות בינה מלאכותית. לסיקור המתמשך והנרחב שלי על אתיקה של בינה מלאכותית ובינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

לפני שנקפוץ לתחום הבינה המלאכותית והמורכבויות הרבות שלו לגבי אסימטריית בינה מלאכותית, בואו נחקור תחילה את הגרסה הרגילה היומיומית של אסימטריית מידע ישנה ופשוטה. זה יכין את הבמה להתקדמות לתוך הילד החדש של הבינה המלאכותית בשטח.

סיפור קצר ומאיר עיניים עשוי לעורר את התיאבון שלך.

לפני כמה ימים היה לי תקר בצמיג במהלך הכביש וחיפשתי במהירות תחליף מתאים שניתן להתקין בקלות מיד. באמצעות הטלפון החכם שלי, הסתכלתי באינטרנט בחנויות צמיגים סמוכות כדי להבין את המרחק שעלי לנסוע על צמיג ה-run-flat שלי והאם יש חנויות פתוחות. בנוסף, ערכתי הערכה מהירה של ביקורות הלקוחות המקוונות שלהם וניסיתי ללקט כל דבר מועיל לגבי משך הזמן שהם היו בעסק וגורמים אחרים שעשויים להראות את ראויותם.

כשהתקשרתי לאחת מחנויות הצמיגים, הפקיד נתן לי הצעת מחיר קלה לעלות הצמיג והתקנתו. הצמיג לא היה בדיוק מה שחשבתי, אבל הפקידה הבטיחה לי שהם יהיו החנות היחידה באזור שיכולה לעשות את העבודה מיד. לדברי הפקיד, לכל אחת משאר חנויות הצמיגים הסמוכות לא יהיו צמיגים כאלה במלאי וייקח לפחות יום לאותם מתחרים להשיג צמיג מתאים מאיזה מחסן חצי מרוחק.

הייתי בעיצומה של אסימטריה של מידע.

הפקיד התיימר לדעת יותר על המצב המקומי של חנויות הצמיגים ובפרט על סוג הצמיגים שאני צריך. הייתי באזור שרק עברתי בו ולא היה לי שום ידע ממקור ראשון על הפנצ'רים באזור הגיאוגרפי המסוים הזה. למיטב ידיעתי, הפקיד היה במקום ונתן לי את האמת הבלתי מעורערת.

אבל האם הפקיד עשה זאת?

אולי כן ואולי לא.

יכול להיות שהפקידה האמינה בכנות לכל מה שהועבר אליי. בעיני הפקיד, זו הייתה האמת. או אולי הפקידה קצת מתחה את האמת. יתכן שמה שנאמר יכול להיות נכון, אם כי האופן שבו הוא הוצג רמז שזו האמת המוחלטת והבלתי ניתנת להפרכה. כמובן, זה יכול היה להיות גם התקרחות מוחלטת והפקיד היה רק ​​שילינג לחנות הצמיגים כדי לגייס את העסק שלי. האם ייתכן שעמלה עסיסית הייתה על הפרק?

אני מעז לומר שאף אחד לא אוהב להיות בעמדה כזו של אנדרדוג.

הסיכון של המצב הוא גורם חיוני במידת החשיבות של אסימטריה של מידע. אם השאלה העומדת על הפרק היא שאלה בעלת אופי של חיים או מוות, להיות בבית הכלבים ולהסתמך על הצד השני עבור מה שהם יודעים או מתיימרים לדעת, זו עמדה מקושטת ומאוד לא רצויה להיות בה. כאשר ההימור נמוך. , כמו הזמנת ארוחת הערב שלך במסעדה והשרת אומר לך שמנת הדג היא גן עדן, אבל מעולם לא אכלת שם לפני כן ואינך מעודכן, אתה יכול ללכת עם המעט הזה של אסימטריה של מידע בלי הרבה חרדות (אני נניח שגם אתה מהמר שהשרת לא יסכן לתת עצות חמוצות ולהחמיץ לקבל טיפ הגון).

אם נחזור לסיפור הצמיגים השחוק (משחק מילים!), לא הייתה לי דרך מיידית להבין אם הפקיד נותן לי תובנות אמינות ואינפורמטיביות. אולי אתה תוהה מה קרה. החלטתי להתקשר לכמה מחנויות הצמיגים הסמוכות האחרות.

האם אתה מוכן למה שגיליתי?

כל שאר חנויות הצמיגים היו עם הצמיג הרצוי שלי במלאי ולא התכוונו לנסות ולקרוץ-קריצה לשכנע אותי לקחת צמיג אחר (כמו שהפקיד הראשון ניסה לעשות). הם גם יכלו לבצע את העבודה באותו מסגרת זמן כמו חנות הצמיגים הראשונה שאולי התקשרתי אליה. בערך באותו מחיר.

אנחת רווחה מבורכת התרחשה מצידי, אני מבטיח לך.

למרבה האירוניה, בחוק מרפי של מזל רע, המקום הראשון אליו יצרתי קשר היה היחיד שנראה כאילו יצא לארוחת צהריים, כביכול. אני שמח שביקשתי לקבל מידע נוסף. זה צמצם את פער אסימטריית המידע. מחאתי לעצמי כפיים על שדבקתי ברובים שלי ולא הגעתי למקום הראשון שהתקשרתי אליו.

עם זאת, הייתה עלות מוגדרת מעורבת בהשגת מידע נוסף. ביצעתי בערך ארבע שיחות שלכל אחת לקח בערך חמש עשרה עד עשרים דקות לבצע אותה במלואה. במובן הזה, ניצלתי בערך שעה וחצי בזמן שפשוט הבנתי לאן לקחת את המכונית שלי. אם הייתי לוקח את המכונית שלי מיד למקום הראשון, הצמיג החדש כמעט היה על המכונית שלי עד אז. מצד שני, כמעט בוודאות, מאוחר יותר, הייתי מתחרט על ההחלטה המהירה שקיבלתי בזמן אסימטריית מידע מגוחכת.

לפעמים אתה צריך לחרוק שיניים ולקחת את אסימטריית המידע הנוראה כמו שהיא באה. אתה רק מקווה שכל החלטה שתעשה תהיה טובה מספיק. ייתכן שזו לא החלטה "מושלמת" ואתה יכול מאוחר יותר להתחרט על הבחירה שנעשתה. הזווית השנייה היא שאתה יכול לנסות לחזק את הצד שלך במשוואת המידע, אם כי זה לא בהכרח ללא עלות ויכול גם ללעוס זמן יקר, תלוי אם הזמן היקר הוא המהות.

עכשיו, ללא ספק, אתה מתנחם לדעת שהמכונית שלי פועלת בסדר עם הצמיג החדש והנכון שלה, אני יכול לעבור להופעתה של אסימטריית AI.

שקול סיפור AI של צער.

אתה מחפש לקבל הלוואת דירה. קיים מנתח בקשות משכנתא מקוון שבו משתמש בנק מסוים. המערכת המקוונת עושה שימוש ביכולות ה-AI המתקדמות של היום. אין צורך לדבר עם סוכן מתן הלוואות אנושי. ה-AI עושה הכל.

מערכת הבינה המלאכותית מנחה אותך בסדרה של הנחיות. אתה ממלא בצייתנות את הטפסים ומגיב למערכת הבינה המלאכותית. AI זה מאוד פטפטני. בעוד שבעבר היית יכול להשתמש במערכת טפסים קונבנציונלית מבוססת מחשב, גרסת AI זו דומה יותר לאינטראקציה עם סוכן אנושי. לא בדיוק, אבל מספיק כדי שתוכל כמעט להתחיל להאמין שבן אדם נמצא בצד השני של הפעילות הזו.

לאחר שעשית כמיטב יכולתך "לדון" בבקשתך עם AI זה, בסופו של דבר, הוא מודיע לך שלמרבה הצער בקשת ההלוואה לא מאושרת. זה קצת מעורר את העז שלך שנראה שה-AI מציע התנצלות, כאילו הבינה המלאכותית רצתה לאשר את ההלוואה אבל אותם בני אדם מרושעים שמפקחים על הבנק לא יאפשרו לבינה מלאכותית לעשות זאת. לסיקור שלי על כמה מטעים סוגים אלה של התנצלויות AI לכאורה, ראה הקישור כאן.

אין לך מושג למה סירבו לך. ה-AI אינו מציע שום הסבר. אולי הבינה המלאכותית עשתה טעות או פישלה בחישובים שלה. גרוע מכך, נניח שה-AI השתמש בכמה שיקולים מפוקפקים ביותר כמו הגזע או המגדר שלך בעת ההחלטה על ההלוואה. כל מה שאתה יודע זה שנראה שבזבזת את זמנך וגם מסרת בינתיים המון נתונים פרטיים ל-AI ולבנק. הבינה המלאכותית שלהם ניצחה אותך.

זה יסומן כדוגמה לאסימטריה של AI.

זה היית אתה נגד הבנק. הבנק היה חמוש בבינה מלאכותית. לא היית חמוש באותה מידה. היה לך את השכל שלך ואת האסכולה שלך לחוכמת דפיקות קשות, אבל שום AI לא שוכן בכיס האחורי שלך. מוח נגד מכונה. למרבה הצער, המכונה ניצחה במקרה הזה.

מה אתה צריך לעשות?

ראשית, אנחנו צריכים על בסיס חברתי להבין שאסימטריית AI זו גדלה והופכת כמעט בכל מקום. בני אדם נתקלים בבינה מלאכותית בכל המערכות שאנו מקיימים איתן אינטראקציה יומיומית. לפעמים ה-AI הוא האלמנט היחיד איתו אנו מקיימים אינטראקציה, כמו בדוגמה זו לגבי בקשת ההלוואה. במקרים אחרים, אדם עשוי להיות בלולאה המסתמכת על AI כדי לסייע לו בביצוע שירות נתון. עבור ההלוואה, יכול להיות שהבנק יבקש ממך לדבר עם סוכן אנושי במקום אינטראקציה עם AI, אך עבורו הסוכן האנושי משתמש במערכת מחשב כדי לגשת ל-AI שמנחה את הסוכן האנושי בתהליך בקשת ההלוואה (וכמעט תמיד מובטח לך שהסוכן האנושי יפעל כאילו הם כלואים בכך שהוא צריך לעשות בקפדנות את כל מה שה-AI "אומר להם לעשות").

כך או כך, בינה מלאכותית עדיין מעורבת.

שנית, עלינו לנסות ולהבטיח שאסימטריית AI נעשית לפחות על בסיס אתי של AI.

הרשה לי להסביר את ההערה המוזרה לכאורה. אתה מבין, אם נוכל להיות בטוחים במידת מה שה-AI פועל בצורה מוסרית, אולי תהיה לנו קצת נחמה לגבי האסימטריה שמשחקת. על בסיס קצת אנלוגי אבל גם רופף, אתה יכול לומר שאם האינטראקציה שלי עם פקיד הצמיגים הראשון היו מונחות ונאכפות כמה הנחיות אתיות מחמירות, אולי לא היו מספרים לי את הסיפור שסיפרו לי, או לפחות אני. אולי לא היה צריך לחפש מיד לגלות אם ניתנת לי סיפור גבוה.

עוד רגע אסביר יותר על אתיקה של AI.

שלישית, עלינו לחפש דרכים להפחית את אסימטריית הבינה המלאכותית. אם היה לך בינה מלאכותית שהייתה לצידך, ושואפת להיות המאמן או המגן שלך, אולי תוכל להשתמש ב-AI הזה כדי לעשות אגרוף נגד עם הבינה המלאכותית האחרת שאתה הולך איתה ראש בראש. כמו שאומרים, לפעמים זה הגיוני מאוד להילחם באש באש.

לפני שנכנס לעוד קצת בשר ותפוחי אדמה על השיקולים הפראיים והצמריים העומדים בבסיס אסימטריית AI, בואו נבסס כמה יסודות נוספים בנושאים חיוניים מאוד. עלינו לצלול בקצרה לתוך אתיקה של בינה מלאכותית ובמיוחד בהופעת למידת מכונה (ML) ולמידה עמוקה (DL).

אולי אתם מודעים במעורפל לכך שאחד הקולות החזקים ביותר בימינו בתחום הבינה המלאכותית ואפילו מחוץ לתחום הבינה המלאכותית מורכב מהצעקה למראה גדול יותר של בינה מלאכותית אתית. בואו נסתכל על מה זה אומר להתייחס לאתיקה של בינה מלאכותית ולאתיקה בינה מלאכותית. נוסף על כך, נחקור למה אני מתכוון כשאני מדבר על למידת מכונה ולמידה עמוקה.

פלח או חלק מסוים של אתיקה של בינה מלאכותית שזכו לתשומת לב רבה בתקשורת מורכבים מבינה מלאכותית המפגינה הטיות וחוסר שוויון לא רצויים. אתה אולי מודע לכך שכשהעידן האחרון של בינה מלאכותית יצא לדרך, היה פרץ עצום של התלהבות ממה שחלק מכנים עכשיו AI לתמיד. לרוע המזל, בעקבות אותה התרגשות גועשת, התחלנו להיות עדים AI למען הרע. לדוגמה, מערכות שונות של זיהוי פנים מבוססות בינה מלאכותית התגלו כמכילות הטיות גזעיות והטיות מגדריות, שעליהן דיברתי ב- הקישור כאן.

מאמצים להילחם נגד AI למען הרע פועלים באופן פעיל. חוץ מזה קולני משפטי בשאיפה לרסן את העוולות, יש גם דחיפה מהותית לאימוץ אתיקה של AI כדי לתקן את גנאי הבינה המלאכותית. הרעיון הוא שעלינו לאמץ ולאמץ עקרונות מפתח אתיים בינה מלאכותית לפיתוח ותחום ה- AI לעשות זאת כדי להפחית את AI למען הרע ובו זמנית מבשר וקידום העדיף AI לתמיד.

לגבי רעיון קשור, אני תומך בניסיון להשתמש בבינה מלאכותית כחלק מהפתרון לבעיות בינה מלאכותית, להילחם באש עם אש באופן חשיבה זה. אנו יכולים למשל להטמיע רכיבי בינה מלאכותית אתית לתוך מערכת בינה מלאכותית שתפקח על אופן הפעולה של שאר הבינה המלאכותית ובכך עשויה לתפוס בזמן אמת כל מאמצים מפלים, ראה הדיון שלי ב- הקישור כאן. יכול להיות לנו גם מערכת AI נפרדת הפועלת כסוג של צג אתיקה של AI. מערכת הבינה המלאכותית משמשת כמפקחת כדי לעקוב ולזהות מתי בינה מלאכותית אחרת נכנסת לתהום הלא אתית (ראה ניתוח שלי של יכולות כאלה ב הקישור כאן).

בעוד רגע, אשתף אתכם בכמה עקרונות-על העומדים בבסיס אתיקה של AI. יש המון רשימות כאלה שמסתובבות פה ושם. אפשר לומר שעדיין אין רשימה יחידה של ערעור והסכמה אוניברסליים. אלו החדשות המצערות. החדשות הטובות הן שלפחות ישנן רשימות אתיקה של AI והן נוטות להיות די דומות. בסך הכל, זה מצביע על כך שבאמצעות סוג של התכנסות מנומקת אנו מוצאים את דרכנו לעבר משותף כללי של מה שמכיל אתיקה של AI.

ראשית, הבה נסקור בקצרה כמה מהמצוות האתיות הכוללות בינה מלאכותית כדי להמחיש מה אמור להיות שיקול חיוני עבור כל מי שמעצב, מעבד או משתמש בבינה מלאכותית.

לדוגמה, כפי שנאמר על ידי הוותיקן ב רומא קריאה לאתיקה של AI וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • שקיפות: באופן עקרוני, מערכות AI חייבות להיות ניתנות להסבר
  • הַכלָלָה: יש לקחת בחשבון את הצרכים של כל בני האדם כדי שכולם יוכלו להפיק תועלת, ולהציע לכל הפרטים את התנאים הטובים ביותר להתבטא ולהתפתח
  • אַחֲרָיוּת: מי שמתכננים ומפרסים את השימוש ב-AI חייבים להמשיך באחריות ובשקיפות
  • חוסר זוגיות: אין ליצור או לפעול על פי הטיה, ובכך לשמור על הגינות וכבוד האדם
  • אֲמִינוּת: מערכות AI חייבות להיות מסוגלות לעבוד בצורה אמינה
  • בטיחות ופרטיות: מערכות AI חייבות לעבוד בצורה מאובטחת ולכבד את פרטיות המשתמשים.

כפי שנאמר על ידי משרד ההגנה האמריקאי (DoD) בכתביהם עקרונות אתיים לשימוש בבינה מלאכותית וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • אחראי: אנשי DoD יפעילו רמות מתאימות של שיקול דעת וטיפול תוך שהם יישארו אחראים לפיתוח, פריסה ושימוש ביכולות AI.
  • הוֹגֶן: המחלקה תנקוט בצעדים מכוונים כדי למזער הטיה לא מכוונת ביכולות הבינה המלאכותית.
  • ניתן למעקב: יכולות ה-AI של המחלקה יפותחו וייפרסו כך שלצוות הרלוונטי יהיה הבנה מתאימה של הטכנולוגיה, תהליכי הפיתוח והשיטות התפעוליות החלות על יכולות בינה מלאכותית, לרבות מתודולוגיות שקופות וניתנות לביקורת, מקורות נתונים ונוהל עיצוב ותיעוד.
  • אָמִין: ליכולות הבינה המלאכותית של המחלקה יהיו שימושים מפורשים ומוגדרים היטב, והבטיחות, האבטחה והיעילות של יכולות כאלה יהיו כפופות לבדיקה והבטחה במסגרת אותם שימושים מוגדרים לאורך כל מחזור החיים שלהן.
  • ניתן לממשל: המחלקה תתכנן ותהנדס יכולות בינה מלאכותית למילוי הפונקציות המיועדות להן תוך יכולת לזהות ולהימנע מהשלכות לא מכוונות, ויכולת לנטרל או להשבית מערכות פרוסות המפגינות התנהגות לא מכוונת.

דנתי גם בניתוחים קולקטיביים שונים של עקרונות האתיקה של בינה מלאכותית, כולל כיסיתי סט שהומצא על ידי חוקרים שבדק וריכז את המהות של עקרונות אתיקה לאומיים ובינלאומיים רבים של AI במאמר שכותרתו "הנוף הגלובלי של הנחיות האתיקה של בינה מלאכותית" (שפורסם) ב טבע), ושהסיקור שלי בוחן ב הקישור כאן, שהובילה לרשימת אבני המפתח הזו:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

כפי שאתה יכול לנחש ישירות, הניסיון לדייק את הפרטים העומדים בבסיס העקרונות הללו יכול להיות קשה מאוד. אפילו יותר מכך, המאמץ להפוך את העקרונות הרחבים הללו למשהו מוחשי ומפורט מספיק כדי לשמש בעת יצירת מערכות בינה מלאכותית הוא גם אגוז קשה לפיצוח. קל בסך הכל לנפנף קצת ביד על מה הם מצוות האתיקה של בינה מלאכותית וכיצד יש להקפיד עליהן באופן כללי, בעוד שזה מצב הרבה יותר מסובך בקידוד הבינה המלאכותית שצריך להיות הגומי האמיתי שפוגש את הדרך.

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים את מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית. כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שצוין קודם לכן, נדרש כפר כדי להמציא ולהשיג בינה מלאכותית, ועבורו הכפר כולו צריך להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

בואו גם נוודא שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי מרגיש AI, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לשקול שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שחלק משערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

בואו נשאיר את הדברים יותר מדוייקים ונשקול את הבינה המלאכותית החישובית הלא-חושית של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

בואו נחזור להתמקדות שלנו באסימטריה של AI.

סיכום קצר על שלוש ההמלצות שזוהו לעיל הוא זה:

1) היו מודעים לכך שאסימטריית AI קיימת והולכת וגדלה

2) נסה להבטיח שהאסימטריה של הבינה המלאכותית תהיה מוגבלת על ידי אתיקה של בינה מלאכותית

3) נסה להתמודד עם אסימטריה של AI על ידי התחמשות ב-AI

נסתכל מקרוב על הנקודה האחרונה של לחימה באש באש.

תארו לעצמכם שכאשר ביקשתם לקבל הלוואה, היה לכם בינה מלאכותית שעבדה בצד שלכם במאמץ. זו עשויה להיות אפליקציה מבוססת בינה מלאכותית בסמארטפון שלך שנועדה לקבל הלוואות. זו לא אפליקציה של אחד הבנקים ובמקום זאת היא תוכננה באופן עצמאי לפעול בשמך. פירטתי את סוגי האפליקציות האלה בספר שלי על בוטים של מלאך שומר מבוסס בינה מלאכותית, ראה הקישור כאן.

לאחר הגשת הבקשה להלוואה, ייתכן שתפנה לאפליקציה הזו כאשר אתה עובר את תהליך הבקשה על ידי הבינה המלאכותית האחרת. שתי מערכות הבינה המלאכותית הללו שונות ונפרדות לחלוטין זו מזו. ה-AI בסמארטפון שלך "אומן" להכיר את כל הטריקים שבהם משתמש הבינה המלאכותית האחרת. ככזה, התשובות שתזין ל-AI של הבנק יהיו מבוססות על מה שה-AI שלך מייעץ לך.

וריאנט נוסף מורכב מה-AI שלך עונה על השאלות שהציג ה-AI האחר. עד כמה שה-AI האחר יכול לקבוע, אתה זה שמזין את התשובות. אולי במקום זאת אתה רק צופה באינטראקציות המתרחשות בין שתי מערכות ה-AI הנאבקות. זה מאפשר לך לראות מה ה-AI שלך מציע. יתר על כן, אתה יכול להתאים את ה-AI שלך בהתאם אם אתה מרוצה ממה שה-AI שלך עושה בשמך.

ניבאתי שכולנו הולכים להתחמש בהדרגה בבינה מלאכותית שתהיה לצידנו במצבי אסימטריה אלו של AI.

בואו נחשוב איך זה הולך להסתדר.

אלו הן השפעות אבן היסוד על מצב אסימטריית הבינה המלאכותית שהצבתי:

  • שיטוח את אסימטריית הבינה המלאכותית לטובתך (מעלה אותך למעלה, בתקווה להגיע לרמות שוות)
  • מדרבן אסימטריה של AI לטובתך (מעלה אותך ליתרון כאשר כבר שווים)
  • חיזוק אסימטריה של AI לטובתך יוצאת דופן (להשיג יתרון רחב יותר כאשר כבר ביתרון)
  • חיתוך בשוגג של אסימטריית AI לזכותך (כשהיה לך יתרון קיים וה-AI משך אותך בטעות למטה)

הגיע הזמן לעשות צלילה עמוקה לתוך האפשרויות המסקרנות הללו.

שיטח את אסימטריית הבינה המלאכותית לטובתך

שיטוח אסימטריית הבינה המלאכותית הוא השיקול הברור ביותר והדבר הנדון ביותר, כלומר שתתחמש בעצמך בבינה מלאכותית כדי לנסות ללכת רגל אל רגל כשה-AI משמש את הצד השני בעניין הנדון. הגדרת AI Asymmetry התחילה איתך בחיסרון מובהק. לא היה לך AI בפינה שלך. היית בצד הנמוך של הדברים. לצד השני היה בינה מלאכותית והם היו על הקרקע הגבוהה יותר.

לפיכך, התחמשת בחוכמה ב-AI שמטרתה לשים אותך ואת ה-AI האחר בתנאים שווים.

ניואנס אחד חשוב ואולי מפתיע שכדאי לזכור הוא שלא תמיד יהיה זה כך שמערכות ה-AI המופעלות יתאזנו זו מול זו באופן שווה. אתה יכול להתחמש ב-AI, כלומר פחות חזק מה-AI שהצד השני משתמש בו. במקרה זה, הגדלת את עמדת החיסרון שלך, למרבה המזל, למרות שאתה לא לגמרי שווה עכשיו לצד השני וה-AI שלו.

זו הסיבה שאני מתייחס לזה כאל שיטוח אסימטריית AI. ייתכן שתוכל לצמצם את הפער, אם כי לא לסגור את הפער במלואו. המטרה הסופית תהיה להשתמש ב-AI בצד שלך שיביא אותך ליציבה שווה לחלוטין. העניין הוא שזה יכול להיות אפשרי או לא. הצד השני יכול להעלות על הדעת AI יקר מאוד ואתם מנסים להתחרות בגרסת ה-Im-and-Pop החסכונית של AI.

לא כל AI זהה.

מעודדים אסימטריה של AI לטובתך

נסיבות אלו אינן נדונות רבות כיום, בין היתר משום שהיא נדירה כעת. מתישהו זה יהיה דבר שבשגרה. הרעיון הוא שנניח שאתה ללא בינה מלאכותית ובכל זאת בקרקע שווה לצד שיש לו בינה מלאכותית.

שמח בשבילך.

לבני אדם יש את השכל שלהם לגביהם.

אבל אולי תרצה להשיג יתרון על הצד השני. ההתחמשות ב-AI לוקחת אותך לקרקע הגבוהה יותר. עכשיו יש לך את השכל שלך ואת ה-AI הנאמן שלך ביד. השגת יתרון שככל הנראה יגבר על ה-AI של הצד השני.

חיזוק אסימטריה של AI לטובתך יוצאת דופן

שימוש בלוגיקה דומה להיבט של דרבן אסימטריה של AI בשמך, נניח שאתה כבר מעל היכולות של הצד השני שמשתמש בבינה מלאכותית. אם כן, אתה לא מתחיל בתנוחה שווה. למרבה המזל אתה כבר בצד העליון.

אולי תרצה בכל זאת להבטיח יתרון גדול עוד יותר. לכן, אתה מתחמש ב-AI. זה לוקח את הראש והכתפיים שלך מעל הצד השני.

חיתוך בשוגג של אסימטריה של AI לטובתך

אני בספק אם אתה רוצה לשמוע על האפשרות הזו. אנא הבינו שהתמודדות עם AI זה לא הכל ורדים ועוגות גלידה.

יכול להיות שכאשר אתה מתחמש ב-AI, אתה למעשה חותך את עצמך. אם כבר היית פחות מה-AI של הצד השני, אתה עכשיו למטה בתוך חור עמוק יותר. אם היית בתנאים שווים, אתה עכשיו בעמדת נחיתות. אם היית מעל הצד השני, אתה עכשיו שווה לו או מתחתיו.

איך זה יכול לקרות?

אתה עלול להיות המום להרהר בכך שה-AI שתאמץ הולך להוביל אותך שולל. זה יכול להתרחש בקלות. רק בגלל שיש לך AI בפינה שלך לא אומר שזה שימושי. אולי אתה משתמש ב-AI והוא מספק עצות שאתה לא בהכרח חושב שהן מתאימות, אבל אתה מחליט ללכת עם זה בכל זאת. ההיגיון שלך בזמנו היה שמכיוון שטרחת להשיג את הבינה המלאכותית, אתה יכול באותה מידה לסמוך עליו.

ייתכן שה-AI שבו אתה משתמש פגום. או אולי זה מתוכנן בצורה גרועה. ישנן מספר סיבות לכך שה-AI עשוי לתת לך עצות רעועות. אלה שמקבלים באופן עיוור את כל מה שה-AI אומר לעשות, צפויים למצוא את עצמם בעולם של פגיעה. כיסיתי צרות כאלה בטור שלי, כמו הקישור כאן.

השורה התחתונה היא שאין שום ערובה שרק בגלל שאתה מתחמש ב-AI אתה הולך לנצח במשחק AI Asymmetry.

אתה עשוי להגיע למגרש שווה. אולי תרוויח יתרון. ולמרבה הצער, אתה צריך להיות זהיר מכיוון שיכול להיות שאתה שוקע לרמות מטה כאשר אתה חמוש בבינה מלאכותית.

במידה מסוימת, זו הסיבה שהאתיקה של AI ובינה מלאכותית אתית היא נושא כה מכריע. מצוות האתיקה של AI גורמות לנו להישאר ערניים. טכנולוגים בינה מלאכותית יכולים לפעמים להתעסק בטכנולוגיה, במיוחד באופטימיזציה של ההייטק. הם לא בהכרח שוקלים את ההשלכות החברתיות הגדולות יותר. קיום חשיבה אתית בינה מלאכותית ועושה זאת באופן אינטגרלי לפיתוח ותחום הבינה המלאכותית היא חיונית להפקת בינה מלאכותית מתאימה.

מלבד שימוש באתיקה של בינה מלאכותית, ישנה שאלה מקבילה האם יש לנו חוקים לניהול שימושים שונים של בינה מלאכותית. חוקים חדשים מתגבשים ברמה הפדרלית, המדינתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא הדרגתי. אתיקה בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים בתוקף שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. למעשה, הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית הללו, נהרוג את אווז הזהב על ידי התמודדות עם התקדמות בינה מלאכותית שמעניקה יתרונות חברתיים עצומים. ראה למשל את הסיקור שלי ב הקישור כאן ו הקישור כאן.

בשלב זה של הדיון הכבד הזה, אני מתערב שאתה מעוניין בכמה דוגמאות להמחשה שעשויות להציג את הנושא הזה. יש מכלול מיוחד ופופולארי של דוגמאות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית, כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות מציאותיות המציגות דילמות של אתיקה של בינה מלאכותית, כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות בינה מלאכותית זו הוא הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות נהיגה עצמית אמיתיות מבוססות בינה מלאכותית מאירה משהו לגבי אסימטריית בינה מלאכותית, ואם כן, מה זה מציג לראווה?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

לשם הבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שבהן ה- AI נוהג במכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לחלוק במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות שחולקות בשיתוף את משימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAS (Advanced Driver-Assistance Systems).

עדיין אין מכונית נהיגה עצמית אמיתית ברמה 5, ואנחנו עדיין לא יודעים אפילו אם זה יהיה אפשרי, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מכוניות בנהיגה עצמית ואסימטריה של AI

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני מקווה שזה מספק כמות מספקת של אזהרות כדי לעמוד בבסיס מה שאני עומד להתייחס אליו.

בואו נשרטט תרחיש שמציג אסימטריה של AI.

חשבו על העניין חסר המשמעות לכאורה של היכן יסתובבו מכוניות בנהיגה עצמית כדי לאסוף נוסעים. זה נראה כמו נושא תמים בשפע.

בהתחלה, נניח שמכוניות AI בנהיגה עצמית יסתובבו בערים שלמות. לכל מי שרוצה לבקש נסיעה במכונית בנהיגה עצמית יש בעצם סיכוי שווה לברך אחת. בהדרגה, הבינה המלאכותית מתחילה להשאיר בעיקר את המכוניות האוטומטיות לשוטט בחלק אחד בלבד של העיר. החלק הזה הוא מייצר כסף גדול יותר וה-AI תוכנת לנסות להגדיל הכנסות כחלק מהשימוש בקהילה בכללותה (זה מדגיש את הלך הרוח העומד בבסיס האופטימיזציה, כלומר התמקדות במדד מסוים אחד בלבד והזנחת גורמים מכריעים אחרים בתהליך).

חברי הקהילה באזורים העניים של העיירה מתבררים כבעלי סיכוי נמוך יותר שיצליחו להגיע לנסיעה ממכונית בנהיגה עצמית. הסיבה לכך היא שהמכוניות בנהיגה עצמית היו רחוקות יותר ונדדו בחלק הרווחים של העיר. כשמגיעה בקשה מאזור מרוחק של העיר, כל בקשה אחרת ממקום קרוב יותר תקבל עדיפות גבוהה יותר. בסופו של דבר, הזמינות של השגת מכונית לנהיגה עצמית בכל מקום אחר מלבד החלק העשיר יותר של העיר היא כמעט בלתי אפשרית, למרבה הצער עבור אלה שחיו באותם אזורים מורעבים כעת במשאבים.

יוצאים חלומות הניידות המהוללים שמכוניות בנהיגה עצמית אמורות להחיות.

אתה יכול לטעון שה-AI לגמרי נחת על סוג של הטיה סטטיסטית וחישובית, הדומה לצורה של אפליה פרוקסי (המכונה לעתים קרובות גם אפליה עקיפה). הבינו שה-AI לא תוכנן כדי להימנע משכונות עניות יותר. בואו נהיה ברורים לגבי זה במקרה זה. לא, זה הומצא במקום זאת רק לייעל את ההכנסות, מטרה מקובלת לכאורה, אבל זה נעשה מבלי שמפתחי הבינה המלאכותית חשבו על השלכות פוטנציאליות אחרות. אופטימיזציה זו בתורה הובילה בלי משים ובהכרח לתוצאה לא רצויה.

אילו כללו שיקולי אתיקה של בינה מלאכותית כחלק ממחשבת האופטימיזציה שלהם, אולי הם היו מבינים מראש שאם לא יצרו את הבינה המלאכותית כדי להתמודד עם סוג זה של מידות יתר על מדד אחד בלבד, הם עשויים היו למנוע תוצאות עגומות כאלה. למידע נוסף על סוגי הסוגיות הללו שהאימוץ הנרחב של כלי רכב אוטונומיים ומכוניות בנהיגה עצמית צפויה לגרור, עיין בסיקור שלי ב- קישור זה כאן, המתאר מחקר בהנחיית הרווארד שהייתי שותף בכתיבתו בנושאים אלו.

בכל מקרה, נניח שהסוס כבר יצא מהאסם והמצב אינו זמין מיד לפתרונות-על.

מה יכולים לעשות אלה שרוצים להשתמש במכוניות הנוהגות בעצמן?

הגישה הבולטת ביותר תהיה לעבוד עם מנהיגי קהילה כדי לגרום ליצרנית הרכב או לחברת הטכנולוגיה לנהיגה עצמית לשקול מחדש כיצד הם הקימו את הבינה המלאכותית. אולי להפעיל לחץ על כל רישיון או אישור שניתנו לפריסת המכוניות האוטומטיות האלה בעיר או בעיר הזו. אלו הם ככל הנראה אמצעים מעשיים לחולל שינויים חיוביים, אם כי עשוי לקחת זמן עד שהמאמצים הללו ישאו פרי.

זווית נוספת תהיה להתחמש ב-AI.

דמיינו שמישהו הגה בחוכמה אפליקציה מבוססת בינה מלאכותית שפועלת בסמארטפון שלכם ועוסקת ב-AI של יצרנית הרכב או מפעילת הצי שמקבל בקשות לנסיעות. יכול להיות שה-AI שבו אתה משתמש מנצל אלמנטים מרכזיים של הבינה המלאכותית האחרת, כך שבקשה למכונית בנהיגה עצמית על ידך זוכה לעדיפות מוגברת. שימו לב שאני לא מציע שמשהו לא חוקי מתרחש, אלא שה-AI בצד שלכם פותח על סמך "תכונות" שהתגלו או אפילו פרצות ב-AI האחר.

סיכום

הסיפור על מאבק בחוצפה נגד הבינה המלאכותית של מפעיל צי המכוניות בנהיגה עצמית על ידי התחמשות בבינה מלאכותית מעלה מחלוקות ושיקולים נוספים של אתיקה של בינה מלאכותית.

לדוגמה:

  • אם אדם אחד יכול לעשות שימוש בבינה מלאכותית כדי לתת לו יתרון על בינה מלאכותית של מערכת אחרת, כמה רחוק זה יכול להגיע מבחינת חציית גבולות אתיקה של בינה מלאכותית (אני משכנע את המכוניות הנוהגות בעצמן לבוא אליי ואל החברים שלי, למעט כל השאר)?
  • כמו כן, האם יש מראית עין של שיקול של אתיקה בינה מלאכותית שאם מישהו מכיר או חמוש בבינה מלאכותית כדי לעשות קרב עם בינה מלאכותית אחרת, האם האנשים הנותרים שאין להם את הבינה המלאכותית המאזנת הזו צריכים להתריע איכשהו על הבינה המלאכותית ויוכלו להתחמש. גם בהתאם?

בסופו של דבר, כל זה לוקח אותנו לעתיד שנראה מפחיד, המורכב ממירוץ חימוש בינה מלאכותית. למי יהיה ה-AI שהוא צריך כדי להתמצא ולשרוד ולמי לא? האם תמיד יהיה עוד בינה מלאכותית אחת שתגיע ותצית את הצורך בבינה מלאכותית מאזנת?

קרל סייגן, המדען הנערץ, סיפק את החוכמה החכמים הזו לגבי מירוצי חימוש קטקליזיים במיוחד: "מרוץ החימוש הגרעיני הוא כמו שני אויבים מושבעים העומדים במותניים עמוק בבנזין, האחד עם שלושה גפרורים, השני עם חמישה."

עלינו לשאוף בנחישות לשמור על כפות רגלינו יבשות וראשנו נקי כשמדובר במרוץ חימוש בינה מלאכותית המתקרבת.

מקור: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- של המקל/