אתיקה של בינה מלאכותית וחוקי בינה מלאכותית עשויה להיות דחופה ותידרש לחייב אזהרות בטיחות על כל הבינה המלאכותית הקיימת והעתידית

הפעילויות היומיומיות שלך ללא ספק מופגזות באלף אזהרות זהירות או יותר כאלה או אחרות.

נסה את אלה עבור גודל:

  • יש להרכיב משקפי בטיחות בכל עת
  • סכנה: כימיקלים מסוכנים בקרבת מקום
  • מתח גבוה - שמור מחוץ
  • אזהרה: היו מודעים לסביבתכם
  • עצמים במראה קרובים יותר ממה שהם נראים
  • הוצא את הילד לפני הקיפול (כפי שמצוין בעגלות תינוק)
  • זהירות: הקפד להתעלם מהודעה זו

רוב אלה הם שלטים או תוויות שימושיים ומחשבים בסך הכל, שמשרתים אותנו, בתקווה, בטוחים ומאובטחים.

אנא שים לב שהגנבתי כמה "חריגים" ברשימה כדי לציין כמה נקודות ראויות לציון.

לדוגמה, יש אנשים המאמינים שזה מטורף שלעגלות תינוק מודבקת תווית המזהירה אותך לא לקפל את העגלה כשהתינוק עדיין יושב בתוך המתקן. למרות שהשלט בהחלט מתאים ושימושי בצייתנות, נראה שהשכל הישר הבסיסי כבר יספיק.

איזה אדם לא יבין מרצונו שהוא קודם כל צריך להסיר את התינוק?

ובכן, אחרים מדגישים שתוויות כאלה אכן משרתות מטרה חשובה. ראשית, ייתכן שמישהו באמת לא מודע לכך שהוא צריך להסיר את התינוק לפני קיפול העגלה. אולי האדם הניח שהעגלה תוכננה בחוכמה כדי להבטיח שפעולת הקיפול לא תפגע בתינוק. או אולי ישנן תכונות בטיחות מובנות המונעות קיפול בכל פעם שיש ילד בתוך העגלה. וכו.

כמו כן, יכול להיות שדעתו של האדם הוסחה והיה מקפל בלי דעת את העגלה, מקיף את התינוק והכל, אבל התווית למרבה המזל גרמה לאדם לא לעשות זאת (יש שיטענו שלא סביר שאדם כזה ישים לב לתווית בכל מקרה). יש גם את העובדה שמישהו עלול לתבוע את יצרן העגלה אם לא הייתה תווית כזו. אתם יכולים לתאר לעצמכם את אחת התביעות הכבדות הללו שבהן תינוק נפצע וההורה החליט לגייס מיליון דולר כי העגלה חסרה שלט אזהרה שהוצב עליה. חברת העגלות תצטער על כך שלא הוציאה את הסנטים הבודדים הדרושים כדי ליצור ולהדביק את שלטי האזהרה על העגלות שלהם.

תסתכל מקרוב גם על הודעות האזהרה האחרונות שרשמתי למעלה.

בחרתי להציב את ההודעה הזעומה על הקפדה על התעלמות מההודעה מכיוון שיש הרבה תוויות אזהרה מזויפות שאנשים קונים או מייצרים רק בשביל הכיף בימים אלה. זה הוא מכופף מוח פילוסופי אמיתי. אם אתה קורא את האזהרה שאומרת להתעלם מהאזהרה, מה בדיוק עליך לעשות לאחר שקראת את האזהרה? אתה כבר קרא את זה, אז זה לכאורה בראש שלך. בטח, אתה יכול להתעלם מזה, אבל שוב, לא מייעצים לך בכלל מה זה שאתה אמור להתעלם ממנו. סחור סחור, הבדיחה הזאת הולכת.

כמובן, תוויות אזהרה בתום לב אינן בדרך כלל בעלות אופי מבודח או הומוריסטי.

אנחנו אמורים לקחת את האזהרות ברצינות רבה.

בדרך כלל, אם אינך מציית לאזהרה רשומה, אתה עושה זאת תוך סיכון אישי חמור. וגם, יכול להיות שאם לא תציית ותציית לאזהרה, אתה עלול להעמיד אחרים בסיכון מיותר. שקול את פעולת הנהיגה במכונית. ברגע שאתה מאחורי ההגה של מכונית, הפעולות שלך כנהג עלולות להזיק לעצמך, בנוסף אתה יכול לפגוע בנוסעים שלך, ואתה יכול לפגוע באחרים כמו אנשים במכוניות אחרות או הולכי רגל בקרבת מקום. במובן זה, אזהרה היא לא רק לטובתך, היא כנראה גם לטובת אחרים.

מדוע אני מכסה את ההיבטים הללו של אזהרות ותוויות אזהרה?

מכיוון שחלקם טוענים בתוקף שאנחנו צריכים סימני אזהרה ואזהרה על הבינה המלאכותית (AI) של היום.

למעשה, הרעיון הוא לשים תוויות כאלה גם ב-AI של היום וגם בעתיד. בסך הכל, לכל AI תהיה בסופו של דבר צורה או גרסה כלשהי של אזהרה או התווית אזהרה הקשורה אליו.

רעיון טוב או רעיון רע?

מעשי או לא מעשי?

בואו נמשיך ונפרק את התפיסה ונראה מה אנחנו יכולים לעשות ממנה.

אני רוצה קודם כל להניח יסודות חיוניים לגבי בינה מלאכותית ובמיוחד אתיקה של בינה מלאכותית וחוק בינה מלאכותית, לעשות זאת כדי לוודא שהנושא של אזהרות בינה מלאכותית יהיה הגיוני מבחינה הקשרית. לאלו מכם המתעניינים באופן כללי בבינה מלאכותית אתית וגם בחוק בינה מלאכותית, ראו את הסיקור הנרחב והמתמשך שלי בכתובת הקישור כאן ו הקישור כאן, רק כדי שם כמה.

המודעות הגואה לבינה מלאכותית אתית וגם לחוק הבינה המלאכותית

העידן האחרון של AI נתפס בתחילה ככזה AI לתמיד, כלומר נוכל להשתמש בבינה מלאכותית לשיפור האנושות. על עקבותיו של AI לתמיד הגיעה ההבנה שגם אנחנו שקועים בה AI למען הרע. זה כולל בינה מלאכותית שהומצאה או משתנה בעצמה להיות מפלה ועושה בחירות חישוביות המטפחות הטיות מיותרות. לפעמים הבינה המלאכותית בנויה כך, בעוד שבמקרים אחרים היא פונה לתוך הטריטוריה הלא-מכוונת הזו.

אני רוצה לוודא מאוד שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי AI חיוני, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לקחת בחשבון שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שיש המשערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

אני ממליץ בחום שנשמור את הדברים על הקרקע ונשקול את ה-AI החישובי הלא-רגיש של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

היזהר מאוד מאנתרופומורפיזציה של הבינה המלאכותית של היום.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

לכל זה יש השלכות משמעותיות במיוחד לאתיקה של AI ומציע חלון שימושי ללקחים שנלמדו (עוד לפני שכל הלקחים קורים) בכל הנוגע לניסיון לחוקק AI.

מלבד שימוש במצוות האתיקה של בינה מלאכותית באופן כללי, ישנה שאלה מקבילה האם צריכים להיות לנו חוקים שישלטו על שימושים שונים בבינה מלאכותית. חוקים חדשים מתגבשים ברמה הפדרלית, המדינתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא הדרגתי. אתיקה של בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים נחרצות שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית האלה, נהרוג את אווז הזהב על ידי פגיעה בהתקדמות בבינה מלאכותית שמעניקה יתרונות חברתיים עצומים.

בטורים קודמים, כיסיתי את המאמצים הלאומיים והבינלאומיים השונים ליצור ולחוקק חוקים המסדירים בינה מלאכותית, ראה הקישור כאן, לדוגמה. כיסיתי גם את העקרונות וההנחיות השונות של AI אתיקה שאומות שונות זיהו ואימצו, כולל למשל את המאמץ של האומות המאוחדות כגון קבוצת האתיקה של AI של אונסק"ו שכמעט 200 מדינות אימצו, ראה הקישור כאן.

הנה רשימה מועילה של אבן מפתח של קריטריונים או מאפיינים אתיים של בינה מלאכותית לגבי מערכות בינה מלאכותית שחקרתי מקרוב בעבר:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים ברצינות על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית.

כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שהודגש כאן קודם לכן, נדרש כפר כדי לתכנן ולהשיג בינה מלאכותית, ועבורו על כל הכפר להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

לאחרונה בדקתי גם את מגילת זכויות AI שהוא הכותרת הרשמית של המסמך הרשמי של ממשלת ארה"ב בשם "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" שהיה תוצאה של מאמץ שנמשך שנה של המשרד למדיניות מדע וטכנולוגיה (OSTP ). OSTP הוא ישות פדרלית המשרתת לייעץ לנשיא האמריקני ולמשרד ההנהלה של ארה"ב בהיבטים טכנולוגיים, מדעיים והנדסיים שונים בעלי חשיבות לאומית. במובן זה, אתה יכול לומר שמגילת זכויות הבינה המלאכותית הזו היא מסמך שאושר על ידי הבית הלבן הקיים בארה"ב ואושר על ידי זה.

במגילת זכויות הבינה המלאכותית, ישנן חמש קטגוריות אבן מפתח:

  • מערכות בטוחות ויעילות
  • הגנות אפליה אלגוריתמית
  • פרטיות מידע
  • הודעה והסבר
  • אלטרנטיבות אנושיות, התחשבות וסתירה

סקרתי בקפידה את המצוות האלה, תראה הקישור כאן.

כעת, לאחר שהנחתי בסיס מועיל לנושאים הקשורים לאתיקה של בינה מלאכותית ודיני בינה מלאכותית, אנחנו מוכנים לקפוץ לנושא הסוער של האם AI צריך להיות עם תוויות אזהרה או לא.

התכוננו למסע אינפורמטיבי מאיר עיניים.

הצבת תוויות אזהרה על AI כאמצעי להגנה על המין האנושי

יש באזז הולך וגובר שאולי בינה מלאכותית צריכה לבוא עם אזהרה כלשהי.

לדוגמה, במאמר שפורסם לאחרונה ב MIT טכנולוגיה סקירה שדנה בעניין הגובר בביצוע ביקורות של בינה מלאכותית, עלה הרעיון של מתן סימני אזהרה: "הגידול של הביקורות הללו מצביע על כך שיום אחד נוכל לראות אזהרות בסגנון חפיסת סיגריות שמערכות בינה מלאכותית עלולות לפגוע בבריאות ובבטיחות שלך. למגזרים אחרים, כמו כימיקלים ומזון, יש ביקורות קבועות כדי להבטיח שהמוצרים בטוחים לשימוש. האם משהו כזה יכול להפוך לנורמה בבינה מלאכותית?" (MIT טכנולוגיה סקירה, מליסה הייקילה, 24 באוקטובר 2022).

בואו נדבר קצת על סימני אזהרה ואזהרה.

כולנו כבר מכירים באופן כללי את שלטי אזהרה ואזהרה על מוצרים ושירותים רבים בעלי אופי יומיומי. לעיתים שלטי הבטיחות נקבעים בחוק כמתחייבים, בעוד שבמקרים אחרים קיים שיקול דעת באשר לניצול שלטים כאלו. בנוסף, חלק מסימני הבטיחות הם סטנדרטיים, כגון צוינו לפי תקן ANSI Z535 ותקן OSHA 1910.14. תקנים אלה מכסים היבטים כגון נוסח השלט, הצבעים והגופנים בהם נעשה שימוש, צורת השלט ופרטים שונים נוספים.

הגיוני שיהיו תקנים לסימני אזהרה כאלה. בכל פעם שאתה רואה סימן כזה, אם הוא עומד בסטנדרטים המוצהרים, סביר יותר שתאמין שהסימן לגיטימי, בנוסף אתה דורש פחות עיבוד קוגניטיבי כדי לנתח ולהבין את הסימן. עבור סימנים שאינם בגישה סטנדרטית, לעתים קרובות אתה צריך לחשב נפשית מה השלט אומר לך, אולי לאבד זמן יקר לנקוט פעולה או שאתה עלול לשפוט לחלוטין את השלט ולא להבין כראוי את האזהרה שביד.

יכול להתקיים מגוון של סימנים כאלה, שלעתים קרובות הם מסווגים בערך כך:

  • סימן סכנה: החשש הגבוה ביותר ומעיד על סכנה מיידית עם השלכות חמורות צפויות
  • סימן אזהרה: מעיד על מפגע שהוא פחות מ"סכנה" אך עדיין די חמור
  • סימן זהירות: מעיד על מפגע פוטנציאלי שהוא פחות מ"אזהרה" אבל עדיין באמת רציני
  • סימן הודעה: מעיד על הסבר מידע שהוא פחות מ"זהירות" אך עדיין טומן בחובו היבטים מדאיגים

בהתחשב ברקע לעיל לגבי אזהרות וסימני אזהרה, נוכל להמשיך ולנסות ליישם זאת בהקשר לשימוש ב-AI.

ראשית, אנו יכולים להסכים איכשהו ששילוט הבינה המלאכותית עשוי להיות בטווח חומרה דומה למקובל בסימנים יומיומיים, כך:

  • סימן סכנה בינה מלאכותית: בינה מלאכותית מדאיגה ביותר ומעידה על סכנה מיידית עם השלכות חמורות צפויות
  • סימן אזהרה של AI: AI מעיד על סכנה שהיא פחות מ"סכנה" אבל עדיין די רצינית
  • סימן אזהרה של AI: בינה מלאכותית המעידה על סכנה פוטנציאלית שהיא פחות מ"אזהרה" אבל עדיין באמת רצינית
  • סימן הודעות AI: בינה מלאכותית מעידה על הסבר מידע שהוא פחות מ"זהירות" אך עדיין טומנת בחובה היבטים מדאיגים

העיקר הוא שלא כל AI יעורר דאגה מדאיגה באותה מידה. יכול להיות שבינה מלאכותית מהווה סיכונים אדירים או שיש לה רק סיכונים שוליים. בהתאם לכך, השילוט צריך לשקף מי זה מה. אם כל אזהרות הבינה המלאכותית או סימני האזהרה פשוט היו מוצגים כבעלי אותו קליבר, סביר להניח שלא היינו יודעים או מודעים אם להיות מודאגים מאוד או מודאגים מעט לגבי הבינה המלאכותית. שימוש בסכימת ניסוח מסודרת עשוי להקל על החיים בעת ראייה ופירוש של סימני אזהרה הקשורים לבינה מלאכותית.

אולי אתם תוהים מה עוד יגידו השלטים במונחים של הפרטים הספציפיים של המסר שיועבר.

זה בהחלט עניין שקשה יותר להתמודד עם זה. האפשרויות של AI לעשות דברים שנחשבים לא בטוחים או מדאיגים יהיו גדולות מאוד, כמעט אינסופיות. האם נוכל להרתיח אותם לאיזה סט שגרתי שמתואר בקומץ מילים כל אחת? או שמא נצטרך לאפשר גישה חופשית יותר כיצד ילך הניסוח?

אני אתן לך להרהר בשאלה הפתוחה הזו.

ממשיכים הלאה, אנו נוטים לראות שלטי אזהרה מוצבים על חפצים. מערכת בינה מלאכותית אינה בהכרח "חפץ" באותו מובן כמו הדבקת שלטים המקובלת. זה מעלה את השאלה היכן יוצגו שלטי האזהרה של AI.

יכול להיות שכאשר אתה מפעיל אפליקציה על תגיד לסמארטפון שלך שאם הוא משתמש בבינה מלאכותית תוצג הודעה המכילה את האזהרה הקשורה לבינה מלאכותית. האפליקציה תתריע על השימוש הבסיסי ב-AI. זו יכולה להיות הודעה קופצת או עשויה להיות מוצגת במגוון דרכים ויזואליות ואפילו שמיעתיות.

יש גם מצב שאתה משתמש בשירות שמגובה ב-AI, אם כי ייתכן שאינך מקיים אינטראקציה ישירה עם ה-AI. לדוגמה, אתה יכול לנהל שיחה עם סוכן אנושי על קבלת משכנתא לבית, שעבורה הסוכן נמצא מאחורי הקלעים בשקט באמצעות מערכת AI כדי להנחות את מאמציו.

לפיכך, עלינו לצפות שסימני האזהרה של AI צריכים להיות נוכחים בשני מקרי השימוש ב-AI, כך ש:

  • AI ספציפי למוצר: בינה מלאכותית כמוצר צריכה להיות בעלת אזהרת בינה מלאכותית או סימני אזהרה
  • AI מונחה שירות: בינה מלאכותית כשירות (במישרין או בעקיפין) צריכה לכלול סימני אזהרה או אזהרה בינה מלאכותית

ספקנים בהחלט ימהרו להציע שיצרן האפליקציות עשוי להסוות את תמרור האזהרה של הבינה המלאכותית, כך שההתראה לא בולטת במיוחד. אולי האזהרה מופיעה לרגע קצר ואתה באמת לא שם לב שהיא הוצגה. עוד טריק ערמומי יהיה לעשות מזה סוג של משחק, ולכאורה לקעקע את חומרת ההתראה ולהרדים אנשים לחשוב שהאזהרה חסרת משמעות.

כן, אתה יכול להמר על כך שכל סימני אזהרה הקשורים לבינה מלאכותית יתבדו וישתמשו בדרכים שאינן ברוח ובכוונה של מסרי האזהרה שהם אמורים להעביר.

כל הספקנות הללו משתלבת בשאלה האם נשתמש באתיקה של בינה מלאכותית כ"חוקים רכים" כדי לנסות ולקדם אזהרות ואזהרות הקשורות לבינה מלאכותית, או אם נשתמש ב"חוקים קשיחים" כולל חוקים שנחקקו עם גיבוי של בית המשפט. בתיאוריה, דחיפת החוק הרכה תאפשר מראית עין גדולה יותר של השתעשעות בעניין, בעוד שחוקים על הספרים יבואו עם פוטנציאל לאכיפה ממשלתית ויביאו להקפדה רבה יותר.

דאגה נוספת היא האם שילוט הבינה המלאכותית יעשה הבדל כלשהו בכל מקרה.

מחקרים רבים על התנהגות צרכנים נוטים להראות תוצאות מבולבלות בכל הנוגע למתן תוויות אזהרה לצרכנים. לפעמים האזהרות יעילות, לפעמים לא. בואו ליישם חלק מהמחקר הזה בהקשר של AI.

שקול את ההיבטים הבאים:

  • איתור: האם אלה המשתמשים בבינה מלאכותית המכילה שלט אזהרה של AI בר-קיימא יבחינו או יזהו באופן פעיל שהשלט מוצג להם (בהנחה שילוט כזה התרחש)?
  • הֲבָנָה: למי שכן שם לב, האם הם יבינו או יבינו מה תמרור האזהרה של AI מנסה להציע להם?
  • פעולה: עבור אלה שכן עושים את הקפיצה המנטאלית הזו, האם תמרור האזהרה של AI יניע אותם לפעולה או ישמש בדרך אחרת להנחות את התנהגותם בהתאם?

אתה יכול לצפות שאם תגבר תאוצה בגלל סימני אזהרה של AI, החוקרים הולכים לחקור את העניין מקרוב. הרעיון יהיה לסייע בבירור באילו נסיבות האזהרות מועילות ומתי אינן. זה בתורו קשור לעיצוב ולמראה והתחושה המעורבים. אנו עשויים גם לצפות שהציבור הרחב יצטרך לקבל חינוך או מידע על הופעתם של סימני האזהרה והאזהרה של AI אלה כדי שיתרגל אליהם.

יש הרבה פיתולים שצריך לקחת בחשבון.

האם אזהרת הבינה המלאכותית או סימן האזהרה צריכים להופיע רק בתחילת השימוש באפליקציה? אולי נקודת המוצא לא מספיקה בפני עצמה. אדם עשוי במבט ראשון לחשוב שהאפליקציה פשוט משחקת אותה על ידי שימוש באזהרה, ובכך לא מתייחסת הרבה לאזהרה. ברגע שהאדם יהיה באמצע השימוש באפליקציה, אולי תהיה מוצדקת אזהרה נוספת. בשלב זה, האדם מודע יותר למה שהאפליקציה עושה וייתכן שהוא כבר שכח מהודעת האזהרה שצוינה קודם לכן.

אזהרת הבינה המלאכותית או האזהרה עשויה להתרחש:

  • לפני הפעלת האפליקציה ובדיוק כשהאפליקציה עומדת להיות מופעלת
  • מוצג לאחר הפעלת האפליקציה ורק בנקודת ההתחלה
  • מוצג בהתחלה ושוב באמצע הדרך
  • מוצג מספר פעמים במהלך השימוש ב-AI
  • ניתן בסוף השימוש באפליקציה
  • ספק לאחר יציאה מהאפליקציה ואולי אפילו דקות, שעות או ימים לאחר מכן
  • וכו '

האם אתה חושב שהאדם המשתמש בבינה מלאכותית צריך לאשר או לאשר אזהרות או סימני אזהרה כאלה?

יש שיעמדו על כך שיש לדרוש מהאדם להכיר בכך שראה את האזהרות. זה עשוי למנוע את אלה שעשויים לטעון שלא הייתה הודעת אזהרה כלשהי. זה יכול גם לגרום לאנשים לקחת את ההודעות ברצינות רבה יותר, בהתחשב בכך שהם מתבקשים לאשר שהם צפו בהודעת האזהרה.

הנה שאלה קשה עבורך.

צריך את כל בינה מלאכותית חייבת לספק אזהרה או חיווי בטיחות?

אתה יכול לטעון שכן, כל AI חייב לקבל את זה. גם אם הבינה המלאכותית היא רק סיכון בטיחותי שולי, עדיין צריך להיות לו צורה כלשהי של תמרור אזהרה, אולי רק התראה או אינדיקציה אינפורמטיבית. אחרים יחלוקו על טענה זו. הם היו טוענים נגד שאתה מגזים. לא כל AI צריך את זה. יתר על כן, אם תכריח את כל הבינה המלאכותית לקבל את זה, תדלל את המטרה. אנשים יהיו חסרי תחושה מלראות את אינדיקציות האזהרה. כל הגישה תהפוך לפארסה.

בזווית קשורה, שקול מה סביר שיצרני ה-AI יאמרו.

נקודת מבט אחת תהיה שזה הולך להכאיב לך-יודע-מה לשים במקום. הצורך לשנות את כל מערכות הבינה המלאכותית שלך ולהוסיף תכונה זו עשוי להיות יקר. הוספתו על בסיס קדימה עשויה להיות פחות יקרה, אם כי בכל זאת ישנה עלות הקשורה להכללת הוראה זו.

הערפול הוא עוד תלונה אפשרית. איזה סוג הודעה צריך להציג? אם אין תקנים, זה אומר שיצרני הבינה המלאכותית יצטרכו ליצור משהו חדש. לא רק שהעלות הנוספת הזו, היא אולי פותחת את הדלת לתביעה. אתה יכול לדמיין שיצרן בינה מלאכותית עשוי להילקח למשימה שהאזהרה שלו לא הייתה טובה כמו מערכת AI אחרת. עורכי דין יעשו בסופו של דבר צרור מהבלבול שנוצר.

יש גם חשש שאנשים יפחדו יתר על המידה מהודעות הבטיחות הללו.

יצרן בינה מלאכותית עשוי לראות ירידה חדה במספר המשתמשים עקב הודעת בטיחות שנועדה רק לספק אזהרה אינפורמטיבית. אנשים לא יידעו מה לעשות עם ההודעה. אם הם לא ראו הודעות כאלה בעבר, הם עלולים להתחרפן מיד ולהימנע מיותר משימוש ב-AI.

אני מזכיר את ההיבטים האלה כי חלקם כבר מכריזים ש"זה לא יכול להזיק" להתחיל לכלול אזהרות בינה מלאכותית או הודעות בטיחות. בעיניהם, הרעיון אידיאלי כמו פאי תפוחים. אף אחד לא יכול היה להפריך ברצינות את היתרונות של צורך תמיד בבטיחות או אזהרות הקשורות לבינה מלאכותית. אבל כמובן, זו לא דרך חשיבה בעולם האמיתי על העניין.

אתה יכול אפילו ללכת רחוק יותר ולטעון שהודעות האזהרה של הבינה המלאכותית עלולות לייצר צורה כלשהי של היסטריה המונית. אם פתאום התחלנו לאלץ מערכות בינה מלאכותיות לקבל הודעות כאלה, אנשים עלולים לפרש את הכוונה בצורה לא נכונה. אתם מבינים, יש המון קריאות לכך שאנו עומדים בפני משבר קיומי של בינה מלאכותית, לפיה בינה מלאכותית עומדת להשתלט על העולם ולמחוק את המין האנושי. הקישור כאן לניתוח שלי של טענות מסוג זה.

השימוש בהודעת האזהרה של AI עשוי "לעורר" אנשים מסוימים להאמין שהסוף קרוב. אחרת למה ההודעות יופיעו עכשיו? אין ספק, זו אינדיקציה לכך שסוף סוף, AI מתכוננת להפוך לאדונים המעיקים שלנו.

סוג של תוצאה עגומה עד ייאוש של ניסיון לעשות את הדבר הנכון על ידי הפיכת הציבור למודע לאופן שבו ניתן להחדיר AI עם יכולות מפלה או אחרות AI למען הרע היבטים.

סיכום

ג'יימס ראסל לואל, המשורר האמריקאי המפורסם, אמר פעם את זה: "קוץ אחד של ניסיון שווה שממה שלמה של אזהרה".

אני מעלה את ההערה הנעלה כדי להעיר כמה הערות סיכום בעניין אזהרות AI או הודעות בטיחות.

רוב הסיכויים שעד שתהיה לנו הבנה רחבה במקצת של AI עושה מעשים רעים, לא תהיה רעש גדול להודעות אזהרה הקשורות לבינה מלאכותית. יצרני בינה מלאכותית שיבחרו לעשות זאת מרצונם יזכו אולי לשבחים, אם כי הם עלולים גם למצוא את עצמם מוטרדים שלא בכוונה. כמה מבינים עשויים ללכת אחריהם על מינוף בינה מלאכותית שלכאורה זקוקה לאזהרות, מלכתחילה, ובינתיים מזניחים להבין שהם ניסו ללכת ראשונים וכל יצרני הבינה המלאכותית האחרים מפגרים מאחור.

ארור אם אתה עושה זאת, אולי לא ארור אם לא.

שיקול נוסף עוסק בהפיכת מה שנראה כרעיון רעיוני נחמד לפרקטיקה מעשית ושימושית. קל לנופף בידיים ולצעוק במעורפל לרוחות שצריכות להיות לבינה מלאכותית הודעות אזהרה ובטיחות. החלק הקשה מגיע כאשר מחליטים מה אמורים להיות המסרים האלה, מתי ואיפה הם צריכים להיות מוצגים, האם או באיזו מידה העלות שלהם מפיקה תועלת מספקת, וכן הלאה.

כאן ניתן לג'יימס ראסל לואל את המילה האחרונה (באופן פואטי) בנושא זה לעת עתה: "יצירתיות היא לא מציאת דבר, אלא יצירת משהו ממנו לאחר שהוא נמצא."

אני מניח שהגיע הזמן להפשיל שרוולים ולהתחיל לעבוד על זה. וזו לא רק אזהרה, זו פעולה.

מקור: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- אזהרות-על-כל-קיים-ועתיד-AI/