אתיקה של בינה מלאכותית וחוק בינה מלאכותית שוקלת דרכים מרכזיות ליישום מגילת זכויות בינה מלאכותית שפורסמה לאחרונה, כולל ובאופן מדהים על ידי שימוש מוחלט בבינה מלאכותית

אין ספק שאנו זקוקים לשרטוטים בחיי היומיום שלנו.

אם אתם מתכוונים לבנות את בית החלומות הממושך שלכם, יהיה חכם להרכיב תחילה שרטוט שמיש.

שרטוט מציג בצורה מוחשית ומתועדת כל פרספקטיבה של חזון פעורת עיניים עשויה להיות נעולה בגוף שלך. אלה שיתבקשו לבנות את ביתכם היקר יוכלו להתייחס לשרטוט ולנסח את הפרטים כיצד לבצע את העבודה. שרטוטים שימושיים. היעדר שרטוט חייב להיות בעייתי להתמודדות עם כל סוג של מטלה או פרויקט מורכבים.

בואו נעביר את המחווה הרגשנית משהו אך האמיתית הזו לשרטוטים לתחום הבינה המלאכותית (AI).

אלו מכם שעוסקים באופן מהותי ב-AI עשויים להיות מודעים במעורפל לכך שהוא מכוון מדיניות חשוב תכנית אב שוחרר לאחרונה בארה"ב הנוגע באופן מופגן לעתיד הבינה המלאכותית. ידוע באופן לא רשמי בשם מגילת זכויות AI, הכותרת הרשמית של המסמך הלבן המוכרז הוא "מתווה תכנית לזכויות בינה מלאכותית: לגרום למערכות אוטומטיות לעבוד עבור העם האמריקני" והוא זמין באינטרנט.

המסמך הוא תוצאה של מאמץ בן שנה ומחקר מודע של המשרד למדיניות מדע וטכנולוגיה (OSTP). OSTP הוא ישות פדרלית שהוקמה באמצע שנות ה-1970 ומשמשת לייעץ לנשיא האמריקני ולמשרד ההנהלה של ארה"ב בהיבטים טכנולוגיים, מדעיים והנדסיים שונים בעלי חשיבות לאומית. במובן זה, אתה יכול לומר שמגילת זכויות הבינה המלאכותית הזו היא מסמך שאושר על ידי הבית הלבן הקיים בארה"ב ואושר על ידי זה.

מגילת זכויות הבינה המלאכותית מתארת ​​את זכויות האדם שהמין האנושי צריך לקבל ביחס להופעת הבינה המלאכותית בחיי היומיום שלנו. אני מדגיש את הנקודה הכבדה הזו מכיוון שכמה אנשים היו תמהים בהתחלה שאולי זה היה סוג של הכרה בכך שיש לבינה מלאכותית אישיות משפטית ושזו הייתה אוסף של זכויות לבינה מלאכותית ולרובוטים דמויי אדם. לא, אנחנו עדיין לא שם. כפי שתראו בעוד רגע, אנחנו לא קרובים ל-AI חיוני, למרות כותרות הבאנרים שאומרים לנו אחרת.

אוקיי, אז האם אנחנו צריכים תוכנית שמפרטת את זכויות האדם בעידן של AI?

כן, אנחנו בהחלט עושים זאת.

כמעט תצטרך להיות נעול במערה ולהיעדר גישה לאינטרנט כדי לא לדעת שבינה מלאכותית כבר פוגעת יותר ויותר בזכויות שלנו. העידן האחרון של AI נתפס בתחילה ככזה AI לתמיד, כלומר נוכל להשתמש בבינה מלאכותית לשיפור האנושות. על עקבותיו של AI לתמיד הגיעה ההבנה שגם אנחנו שקועים בה AI למען הרע. זה כולל בינה מלאכותית שהומצאה או משתנה בעצמה להיות מפלה ועושה בחירות חישוביות המטפחות הטיות מיותרות. לפעמים הבינה המלאכותית בנויה כך, בעוד שבמקרים אחרים היא פונה לתוך הטריטוריה הלא-מכוונת הזו.

לסיקור וניתוח המתמשכים והנרחבים שלי של דיני בינה מלאכותית, אתיקה של בינה מלאכותית ומגמות מפתח אחרות בינה מלאכותית טכנולוגית וחברתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

פורקים את מגילת זכויות הבינה המלאכותית

דיברתי בעבר על מגילת זכויות הבינה המלאכותית ואעשה כאן סיכום מהיר.

מלבד זאת, אם תרצו לדעת לעומק את היתרונות והחסרונות שלי של מגילת זכויות הבינה המלאכותית שפורסמה לאחרונה, פירטתי את הניתוח שלי בפרסום ב- מִשׁפְּטָןראה הקישור כאן. ה מִשׁפְּטָן הוא אתר אינטרנטי בולט לחדשות ופרשנות משפטיות, הידוע ברבים כשירות חדשות משפטי עטור פרסים המופעל על ידי צוות עולמי של סטודנטים למשפטים כתבים, עורכים, פרשנים, כתבים ומפתחי תוכן, ומרכזו בבית הספר של אוניברסיטת פיטסבורג החוק בפיטסבורג, שם זה התחיל לפני יותר מ-25 שנה. צעקה לצוות המצטיין והחרוץ ב מִשׁפְּטָן.

במגילת זכויות הבינה המלאכותית, ישנן חמש קטגוריות אבן מפתח:

  • מערכות בטוחות ויעילות
  • הגנות אפליה אלגוריתמית
  • פרטיות מידע
  • הודעה והסבר
  • אלטרנטיבות אנושיות, התחשבות וסתירה

שימו לב שלא מספרתי אותם מאחד עד חמש מכיוון שעשייה זו עשויה לרמוז שהם נמצאים ברצף מסוים או שאחת הזכויות לכאורה חשובה יותר מהאחרת. נניח שהם כל אחד מהיתרונות שלו. כולם במובן מסוים ראויים באותה מידה.

כאינדיקציה קצרה ממה מורכב כל אחד מהם, הנה קטע מהספר הלבן הרשמי:

  • מערכות בטוחות ויעילות: "אתה צריך להיות מוגן מפני מערכות לא בטוחות או לא יעילות. יש לפתח מערכות אוטומטיות תוך התייעצות ממגוון קהילות, בעלי עניין ומומחי תחום כדי לזהות חששות, סיכונים והשפעות אפשריות של המערכת."
  • הגנות אפליה אלגוריתמית: "לא צריך להתמודד עם אפליה על ידי אלגוריתמים ויש להשתמש במערכות ולעצב אותן בצורה שוויונית. אפליה אלגוריתמית מתרחשת כאשר מערכות אוטומטיות תורמות ליחס שונה בלתי מוצדק או משפיעות על אנשים על סמך גזע, צבע, מוצא, מוצא, מין (כולל הריון, לידה ומצבים רפואיים קשורים, זהות מגדרית, מצב אינטרסקס ונטייה מינית), דתם, גילם. , מוצא לאומי, נכות, מעמד ותיק, מידע גנטי או כל סיווג אחר המוגן בחוק".
  • פרטיות מידע: "אתה צריך להיות מוגן מפני נוהלי מידע פוגעניים באמצעות הגנות מובנות וצריך להיות לך סוכנות לגבי אופן השימוש בנתונים עליך. אתה צריך להיות מוגן מפני הפרות של פרטיות באמצעות בחירות עיצוב שמבטיחות שהגנות כאלה כלולות כברירת מחדל, כולל הבטחה שאיסוף הנתונים תואם את הציפיות הסבירות ושרק נתונים הנחוצים להקשר הספציפי נאספים".
  • הודעה והסבר: "עליך לדעת שמשתמשים במערכת אוטומטית ולהבין כיצד ולמה היא תורמת לתוצאות שמשפיעות עליך. מעצבים, מפתחים ומפריצים של מערכות אוטומטיות צריכים לספק תיעוד נגיש בדרך כלל בשפה פשוטה, כולל תיאורים ברורים של תפקוד המערכת הכוללת והתפקיד שממלא האוטומציה, לשים לב שמערכות כאלה נמצאות בשימוש, האדם או הארגון האחראי על המערכת, והסברים על תוצאות ברורות, בזמן, ונגישות."
  • חלופות אנושיות, התחשבות וסתירה: "אתה אמור להיות מסוגל לבטל את הסכמתך, היכן שמתאים, ולקבל גישה לאדם שיכול לשקול ולתקן במהירות בעיות שאתה נתקל בהן. אתה אמור להיות מסוגל לבטל את הסכמתך ממערכות אוטומטיות לטובת חלופה אנושית, במידת הצורך."

בגדול, אלו הם היבטים של זכויות המין האנושי שנכרכו כבר די הרבה זמן בהקשר של אתיקה של בינה מלאכותית וחוק בינה מלאכותית, ראה סיקור שלי כמו ב הקישור כאן. הנייר הלבן, לכאורה, אינו מוציא בקסם ארנב מהכובע באשר לאיזו זכות שהתגלתה או התגלתה לאחרונה שעד כה לא הובהרה בהקשר של עידן הבינה המלאכותית.

זה בסדר.

אתה יכול לטעון שהאוסף שלהם לאוסף אחד ארוז בצורה מסודרת ומפורמל מספק שירות חיוני. בנוסף, על ידי כך שנמשח כבעל שבחים מגילת זכויות AI, זה עוד מכניס את כל העניין בגלוי וביכולת לתודעת המרחב הציבורי. הוא מאחד שפע קיים של דיונים מגוונים לכדי מערך יחידני שניתן כעת להשמיע ולהעביר לכל מיני בעלי עניין.

הרשה לי להציע רשימה זו של תגובות חיוביות למגילת זכויות הבינה המלאכותית שהוכרזה:

  • מספק אוסף חיוני של עקרונות אבן מפתח
  • משמש כתוכנית או בסיס לבנייה
  • פועל כקריאה לפעולה
  • ספרס מתעניין ומציג לראווה שמדובר בשיקולים רציניים
  • מאחד שפע של דיונים שונים
  • מעורר ותורם למאמצי אימוץ בינה מלאכותית אתית
  • ללא ספק יזרום להקמת חוקי AI
  • אחר

אנחנו צריכים גם לשקול את התגובות הפחות טובות, תוך התחשבות בכך שיש עוד הרבה עבודה שצריך לעשות ושזו רק ההתחלה של מסע ארוך בדרך המפרכת של ניהול AI.

ככזה, ביקורת קצת חריפה, או שנגיד, ביקורת בונה על מגילת זכויות הבינה המלאכותית כוללת:

  • לא ניתן לאכיפה משפטית ולגמרי לא מחייב
  • מייעץ בלבד ולא נחשב למדיניות ממשלתית
  • פחות מקיף בהשוואה ליצירות אחרות שפורסמו
  • מורכב בעיקר ממושגים רחבים וחסר פרטי יישום
  • יהיה מאתגר להפוך לחוקים מעשיים מעשיים
  • לכאורה שותק על הנושא הממשמש ובא של אולי איסור AI בהקשרים מסוימים
  • מכיר באופן שולי ביתרונות של שימוש בבינה מלאכותית מתוכננת היטב
  • אחר

אולי הפרשנות החריפה הבולטת ביותר התמקדה בעובדה שמגילת זכויות הבינה המלאכותית הזו אינה ניתנת לאכיפה משפטית ולכן אינה מחזיקה מים בכל הנוגע להקמת עמדות יעד ברורות. יש שאמרו שלמרות שהנייר הלבן מועיל ומעודד, בהחלט חסרות לו שיניים. הם מפקפקים במה יכול לצאת ממערכת חלולות שיניים של מצוות חכמות.

אתייחס להערות הנושכות הללו בעוד רגע.

בינתיים, הספר הלבן מציין בשפע את המגבלות של מגילת זכויות הבינה המלאכותית הזו:

  • "התוכנית למגילת זכויות בינה מלאכותית אינה מחייבת ואינה מהווה את מדיניות ממשלת ארה"ב. הוא אינו מחליף, משנה או מכוון פרשנות של כל חוק, תקנה, מדיניות או מכשיר בינלאומי קיימים. הוא אינו מהווה הנחיה מחייבת לציבור או לסוכנויות הפדרליות ולכן אינו מחייב ציות לעקרונות המתוארים כאן. זה גם לא קובע מה תהיה עמדת ממשלת ארה"ב בכל משא ומתן בינלאומי. אימוץ עקרונות אלה עשוי שלא לעמוד בדרישות של חוקים קיימים, תקנות, מדיניות או מכשירים בינלאומיים, או בדרישות של הסוכנויות הפדרליות האוכפות אותם. עקרונות אלה אינם נועדו, ואינם אוסרים או מגבילים כל פעילות חוקית של סוכנות ממשלתית, לרבות פעילות אכיפת חוק, ביטחון לאומי או מודיעין" (לפי המסמך הלבן).

לאלו שמיהר לחתוך את מגילת זכויות הבינה המלאכותית כבלתי מחייבת מבחינה משפטית, בואו נעשה קצת ניסוי מחשבתי על הטענה העוקצנית הזו. נניח שהספר הלבן שוחרר והיה לו את מלוא תוקף החוק. אני מעז לומר שהתוצאה תהיה קטקלזמית במקצת, לפחות במידת התגובות המשפטיות והחברתיות להכרזה.

המחוקקים היו מודעים לכך שהמאמץ לא ביצע את התהליכים הנורמטיביים וההליכים המשפטיים בהרכבת חוקים כאלה. עסקים יכעסו, בצדק, על כך שייצצו חוקים חדשים ללא הודעה מספקת ומודעות למה הם החוקים הללו. כל מיני זעם וזעם יבואו בעקבותיו.

לא דרך טובה להימשך לחיזוק זכויות המין האנושי בעידן AI.

נזכיר שהתחלתי קודם לכן את הדיון הזה בהעלאת הערך והחיוניות של שרטוטים.

תארו לעצמכם שמישהו דילג מעבר לשלב של יצירת שרטוטים וקפץ מיד לבניית בית החלומות שלכם. איך נראה לך הבית? זה נראה הימור הוגן שהבית לא יתאים במיוחד למה שהיה לך בראש. החווה שתתקבל עשויה להיות בלגן מוחלט.

העיקר הוא שאנו זקוקים לשרטוטים ועכשיו יש לנו אחד כדי להתקדם בהבנת חוקי AI נבונים והעצמת אימוץ AI אתי.

לכן ברצוני להתייחס לדרכים שבהן ניתן להפוך את תוכנית מגילת זכויות הבינה המלאכותית הזו לבית, כביכול. איך אנחנו הולכים לנצל את התוכנית? מהם השלבים הבאים המתאימים? האם השרטוט הזה יכול להספיק, או שצריך יותר בשר על העצמות?

לפני שנקפוץ לעניינים הכבדים האלה, אני רוצה קודם כל לוודא שכולנו נמצאים באותו עמוד לגבי אופי הבינה המלאכותית וממה מורכב הסטטוס של היום.

הגדרת השיא של ה-AI של היום

אני רוצה להצהיר אמירה מאוד נחרצת.

האם אתה מוכן?

אין כיום AI שהוא בעל רגישות.

אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הולמת אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיה תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי AI חיוני, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לקחת בחשבון שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שיש המשערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

אני ממליץ בחום שנשמור את הדברים על הקרקע ונשקול את ה-AI החישובי הלא-רגיש של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

היזהר מאוד מאנתרופומורפיזציה של הבינה המלאכותית של היום.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

לכל זה יש השלכות משמעותיות במיוחד לאתיקה של AI ומציע חלון שימושי ללקחים שנלמדו (עוד לפני שכל הלקחים קורים) בכל הנוגע לניסיון לחוקק AI.

מלבד שימוש במצוות האתיקה של בינה מלאכותית באופן כללי, ישנה שאלה מקבילה האם צריכים להיות לנו חוקים שישלטו על שימושים שונים בבינה מלאכותית. חוקים חדשים מתגבשים ברמה הפדרלית, המדינתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא הדרגתי. אתיקה של בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים נחרצות שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית האלה, נהרוג את אווז הזהב על ידי פגיעה בהתקדמות בבינה מלאכותית שמעניקה יתרונות חברתיים עצומים.

בטורים קודמים, כיסיתי את המאמצים הלאומיים והבינלאומיים השונים ליצור ולחוקק חוקים המסדירים בינה מלאכותית, ראה הקישור כאן, לדוגמה. כיסיתי גם את העקרונות וההנחיות השונות של AI אתיקה שאומות שונות זיהו ואימצו, כולל למשל את המאמץ של האומות המאוחדות כגון קבוצת האתיקה של AI של אונסק"ו שכמעט 200 מדינות אימצו, ראה הקישור כאן.

הנה רשימה מועילה של אבן מפתח של קריטריונים או מאפיינים אתיים של בינה מלאכותית לגבי מערכות בינה מלאכותית שחקרתי מקרוב בעבר:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים ברצינות על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית.

כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שהודגש כאן קודם לכן, נדרש כפר כדי לתכנן ולהשיג בינה מלאכותית, ועבורו על כל הכפר להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

כעת, לאחר שהנחתי בסיס מועיל, אנו מוכנים לצלול עוד יותר לתוך מגילת זכויות הבינה המלאכותית.

ארבע דרכים חיוניות ליישום מגילת זכויות הבינה המלאכותית

מישהו נותן לך שרטוט ואומר לך ללכת לעבודה.

מה אתה עושה?

במקרה של מגילת זכויות הבינה המלאכותית כתוכנית, שקול את ארבעת השלבים החיוניים הבאים להתקדם:

  • שימשו כקלט לקראת ניסוח חוקי AI: השתמש בתוכנית כדי לסייע בניסוח חוקי AI, עשה זאת בתקווה על בסיס מיושר ברמה הפדרלית, המדינתית והמקומית (אולי מסייע גם למאמצים משפטיים בינלאומיים של AI).
  • סיוע בקבלת אתיקה של בינה מלאכותית לאימוץ נרחב יותר: השתמש בתוכנית כדי לטפח ניסוחים של אתיקה בינה מלאכותית (המכונה לפעמים "חוקים רכים" בהשוואה ל"חוקים קשיחים" מחייבים מבחינה משפטית), עשה זאת כדי לעורר ולהנחות עסקים, יחידים, גופים ממשלתיים ומחוזות אחרים לקראת אתיקה טובה ועקבית יותר. תוצאות בינה מלאכותית.
  • פעילויות פיתוח בינה מלאכותית של Shape: השתמש בתוכנית כדי לדרבן יצירת מתודולוגיות פיתוח בינה מלאכותית והיבטי הכשרה, עשה זאת כדי לנסות לגרום למפתחי בינה מלאכותית ואלו העוסקים בינה מלאכותית או להעסיק את הבינה המלאכותית להיות מודעים יותר כיצד לתכנן בינה מלאכותית בהתאם למצוות האתיקה הרצויות של בינה מלאכותית ובציפייה של חוקי AI הממשמשים ובא.
  • הניע את הופעת הבינה המלאכותית כדי לסייע בשליטה בבינה מלאכותית: השתמש בתוכנית כדי להמציא בינה מלאכותית שתשמש כדי לנסות ולשמש כביסה ואיזון מול בינה מלאכותית אחרת שעלולה לסטות לטריטוריה הלא נעימה. זוהי אחת מאותן נקודות מבט מקרוסקופיות שבהן אנו יכולים להשתמש בדיוק בדבר שאנו מוצאים מדאיג לכאורה גם (באופן אירוני, אפשר לומר) לסייע בהגנה עלינו.

דיברתי על כל אחד מארבעת השלבים שהוזכרו לעיל לאורך כל הפוסטים שלי בטור.

לדיון זה כאן, ברצוני להתמקד בשלב הרביעי ברשימה, כלומר מגילת זכויות הבינה המלאכותית יכולה לשמש מניע לקראת הופעת הבינה המלאכותית כדי לסייע בשליטה בבינה מלאכותית. זהו צעד מעט מזעזע או מפתיע עבור רבים שעדיין לא נכנסו במלואם לתחום מקדם AI זה.

הרשו לי להרחיב.

אנלוגיה פשוטה אמורה לעשות את העבודה. כולנו רגילים בימים אלה לפרצות אבטחת סייבר ולפריצות של האקרים. כמעט כל יום אנו שומעים על פרצה אחרונה במחשבים שלנו או מושפעים ממנה, שתאפשר לעושעים מרושעים לחטוף את הנתונים שלנו או למקם תוכנת כופר מגוחכת במחשבים הניידים שלנו.

אחד האמצעים להילחם נגד אותם ניסיונות נתעבים מורכב משימוש בתוכנה מיוחדת המנסה למנוע את אותן פריצות. כמעט בטוח שיש לך חבילת תוכנת אנטי-וירוס על המחשב שלך בבית או בעבודה. סביר להניח שיש משהו דומה בסמארטפון שלך, בין אם אתה מבין שהוא נמצא שם או לא.

הנקודה שלי היא שלפעמים אתה צריך להילחם באש באש (ראה את הסיקור שלי על זה, כמו ב הקישור כאן ו הקישור כאן).

במקרה של AI שנוחת לתחום verboten של AI למען הרע, אנחנו יכולים לחפש להשתמש AI לתמיד שמתמודד עם הזדון הזה AI למען הרע. זו כמובן לא תרופת פלא. כפי שאתה יודע, קיים הימור מתמשך של חתול ועכבר בין עושי רשעים המבקשים לפרוץ למחשבים שלנו לבין ההתקדמות המתבצעת בהגנות אבטחת סייבר. זה משחק כמעט אינסופי.

אנחנו יכולים להשתמש בבינה מלאכותית כדי לנסות להתמודד עם בינה מלאכותית שעברה דרך אסורה. פעולה זו תעזור. זה לא יהיה כדור כסף במיוחד, שכן הבינה המלאכותית השלילית שאליו ממוקדים תוכנן כמעט בוודאות כדי למנוע הגנות כאלה. זה יהיה חתול ועכבר מתמשך של AI מול AI.

בכל מקרה, הבינה המלאכותית שבה אנו משתמשים כדי להגן על עצמנו תספק כמות מסוימת של הגנה מפני בינה מלאכותית גרועה. לפיכך, אין ספק שאנו צריכים לתכנן בינה מלאכותית שיכולה להגן עלינו או להגן עלינו. ועלינו גם לשאוף לעצב את ה-AI המגן כדי להתאים אותו ככל שה-AI הגרוע מסתגל. יהיה מראה עז של חתול ועכבר במהירות הבזק.

לא כולם מתענגים על הרחבת תפקידה של AI.

אלה שכבר תופסים את בינה מלאכותית כקונצרן אמורפי הומוגני, יקבלו עור אווז וסיוטים בהימור המדומה הזה של בינה מלאכותית מול בינה מלאכותית. אם אנחנו מנסים להדליק אש מול אש, אולי אנחנו רק עושים אש גדולה עוד יותר. בינה מלאכותית הולכת להפוך למדורה מסיבית, כזו שאנחנו כבר לא שולטים בה ונבחר לשעבד את האנושות או למחוק אותנו מהכוכב. כשמדובר בדיון בבינה מלאכותית כסיכון קיומי, בדרך כלל מובילים אותנו להאמין שכל הבינה המלאכותית יתאחדו, ראה את הדיון שלי בנושאים אלה ב- הקישור כאן. אתה מבין, נאמר לנו שכל פיסת בינה מלאכותית תתפוס את אחיו בינה מלאכותית ותהפוך למשפחה יחידה אחת גדולה.

זה התרחיש הנורא והמדאיג בעליל של בינה מלאכותית חיה כמאפיה חלקה של הכל לאחד ואחד בשביל כולם.

למרות שאתה מוזמן להעלות השערות כאלה על כך שזה עלול להתרחש מתישהו, אני מבטיח לך שלעת עתה, הבינה המלאכותית שיש לנו היום מורכבת ממשאיות של תוכניות בינה מלאכותיות שונות ומנותקות שאין להן דרך מיוחדת לקשר זו עם זו.

לאחר שאמרתי זאת, אני בטוח שאלו המאמינים בלהט בתיאוריות קונספירציה של AI יתעקשו שאמרתי זאת בכוונה כדי להסתיר את האמת. אהה! אולי משלמים לי את הבינה המלאכותית של היום שכבר מתכננת את ההשתלטות הגדולה על הבינה המלאכותית (כן אדוני, אני ארחץ בעושר ברגע ששרי הבינה המלאכותית ישלטו). או, ואני בהחלט לא מעדיף את הזווית האחרת הזו, אולי אני לא מודע באופן עיוור לאופן שבו AI זוממת בסתר מאחורי הגב שלנו. אני מניח שנצטרך לחכות ולראות אם אני חלק מההפיכה של הבינה המלאכותית או חולה בינה מלאכותית (אוי, זה כואב).

אם נחזור לשיקולים ארציים, בואו נחקור בקצרה כיצד ניתן להשתמש בבינה מלאכותית עכשווית כדי לסייע ביישום מגילת זכויות הבינה המלאכותית. אתייחס לזה בצורה נוחה ובתמצית AI טוב.

נשתמש בחמש אבני המפתח המגולמות במגילת זכויות הבינה המלאכותית:

  • AI טוב לקידום מערכות בטוחות ויעילות: בכל פעם שאתה כפוף למערכת בינה מלאכותית או משתמשת בה, הבינה המלאכותית הטובה מנסה להבין אם הבינה המלאכותית שבה נעשה שימוש אינה בטוחה או לא יעילה. לאחר זיהוי כזה, הבינה המלאכותית הטובה עשויה להתריע בפניך או לבצע פעולות אחרות כולל חסימת הבינה המלאכותית הרעה.
  • AI טוב לספק הגנות אפליה אלגוריתמית: בזמן שימוש במערכת AI שעשויה להכיל אלגוריתמים מפלים, ה AI טוב מנסה לברר אם קיימות הגנות לא מספקות עבורך ומבקש לקבוע אם אכן קיימות הטיות מיותרות ב-AI שבו נעשה שימוש. הבינה המלאכותית הטובה יכולה ליידע אותך ואולי גם לדווח אוטומטית על הבינה המלאכותית האחרת לרשויות שונות, כפי שעשוי להיקבע בחוקי הבינה המלאכותית ובדרישות החוק.
  • AI טוב לשימור פרטיות מידע: סוג זה של AI טוב מנסה להגן עליך מפני פלישות לפרטיות נתונים. כאשר בינה מלאכותית אחרת מבקשת לבקש ממך נתונים שאולי אינם נחוצים באמת, הבינה המלאכותית הטובה תגרום לך להיות מודע לפעולת החריגה. הבינה המלאכותית הטובה יכולה גם להסוות את הנתונים שלך באופן שעם הזנת הבינה המלאכותית האחרת עדיין ישמור על זכויות פרטיות הנתונים שלך. וכו.
  • AI טוב לביסוס הודעה והסבר: כולנו צפויים להיתקל במערכות בינה מלאכותית שחסרות מאוד במתן הודעות נאותות ומתאימות, ולמרבה הצער אינן מצליחות להציג הסבר הולם לפעולות שלהן. AI טוב יכול לנסות לפרש או לתחקר את ה-AI האחר, לעשות זאת כדי לזהות הודעות והסברים פוטנציאליים שהיו צריכים להיות מסופקים. גם אם זה לא אפשרי לעשות במקרה נתון, הבינה המלאכותית הטובה לפחות תתריע על הכשלים של הבינה המלאכותית האחרת, ואולי תדווח על הבינה המלאכותית לרשויות ייעודיות בהתבסס על חוקי הבינה המלאכותית והדרישות החוקיות.
  • AI טוב להציע חלופות אנושיות, התחשבות וסתירה: נניח שאתה משתמש במערכת בינה מלאכותית ונראה שה-AI אינו עומד במשימה שלפנינו. יכול להיות שאתה לא מבין שהדברים הולכים ומחריפים, או שאתה עלול להיות קצת זהיר ולא בטוח מה לעשות עם המצב. במקרה כזה, בינה מלאכותית טובה תבדוק בשקט מה עושה הבינה המלאכותית האחרת ויכולה להזהיר אותך מפני דאגות חיוניות לגבי הבינה המלאכותית הזו. לאחר מכן תתבקש לבקש חלופה אנושית ל-AI (או שה-Good AI יוכל לעשות זאת בשמך).

כדי להבין יותר איך זה סוג של AI טוב ניתן לפתח ולשטח, ראה את ספר הבינה המלאכותית הפופולרית והמוערכת מאוד שלי (לכבוד הוא לומר שהוא צוין כ"עשרת המובילים") על מה שבדרך כלל התייחסתי אליו כמלאכי שומר בינה מלאכותית, ראה הקישור כאן.

סיכום

אני יודע מה אתה חושב. אם יש לנו AI טוב שנועד להגן עלינו, נניח שה- AI הטוב מושחת והופך לבינה מלאכותית גרועה. הביטוי הלטיני המפורסם או הידוע לשמצה נראה רלוונטי לחלוטין לאפשרות הזו: האם אתה שומר על ipsos custodiet?

הביטוי מיוחס למשורר הרומי יובנאל וניתן למצוא אותו ביצירתו בשם סאטירים, ואפשר לתרגם באופן רופף כמשמעות מי ישמור או ישמור על השומרים עצמם. סרטים ותוכניות טלוויזיה רבות כגון מסע בין כוכבים מינפו את הקו הזה שוב ושוב.

זה בוודאי בגלל שזו נקודה מצוינת.

אין ספק, כל חוקי בינה מלאכותית שנחקקים יצטרכו להקיף גם את הבינה המלאכותית הרעה ואפילו את הבינה המלאכותית הטובה שמתקלקלת. לכן זה יהיה חיוני לכתוב חוקי AI הגיוניים ומקיפים. מחוקקים שפשוט מנסים לזרוק חוקים אקראי על הקיר ומקווים שזה יישאר בקשר לחוקי בינה מלאכותית ימצאו את עצמם מפספסים עמוקות את המטרה.

אנחנו לא צריכים את זה.

אין לנו זמן ולא נוכל לשאת בהוצאות החברתיות להתמודד עם חוקי בינה מלאכותית שהוצבו בצורה לא מספקת. ציינתי שלצערי לפעמים אנו עדים לחוקים חדשים הקשורים לבינה מלאכותית המורכבים בצורה גרועה וגדושים בכל מיני מחלות משפטיות, ראה למשל את הניתוח החקר שלי של חוק הביקורת על הטיות בינה מלאכותית של ניו יורק (NYC) בכתובת הקישור כאן.

בואו נוודא שאנו משתמשים כראוי בתוכנית מגילת זכויות הבינה המלאכותית שיש לנו כעת ביד בנוגע לבינה מלאכותית. אם נתעלם מהתוכנית, הפסדנו בכך שהגברנו את המשחק שלנו. אם אנחנו מיישמים את התוכנית בצורה שגויה, תתבייש לנו על שגזלנו בסיס שימושי.

המשורר הרומי המוערך יובנאל אמר עוד משהו שאנחנו יכולים למנף בנסיבות האלה: Anima sana in corpore sano.

באופן כללי, זה מתורגם לקביעה שזה יהיה נבון להיות בעל נפש תקינה או בריאה וגוף בריא או בריא. זה מאפשר לנו לסבול כל סוג של עמל, על פי Juvenal, ובוודאי יהיה הדרך היחידה לחיים של שלום או סגולה.

הגיע הזמן שנשתמש בנפש איתנה ובגוף בריא כדי לוודא שאנו מבטיחים שהזכויות האנושיות שלנו ישמרו ויתבצרו בצורה מוצקה בעולם המתפתח של בינה מלאכותית ולעתים לא מתקדמת. זו עצה נכונה מהרומאים שעלינו לציית לה במהלך העומס של היום, בתוך עידן של בינה מלאכותית ועתיד מלא באופן מכריע בבינה מלאכותית טובה ורעה כאחד.

מקור: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- כתב-זכויות-כולל-והמדהים-בשימוש-באופן מוחלט/