אתיקה של בינה מלאכותית להעריך בזהירות האם להציע הטיות בינה מלאכותית ציד פרס לתפוס ולמצוא מערכות מרושעות אתיות אוטונומיות לחלוטין היא נבונה או חסרת תועלת

מבוקש: ציידי הטיית בינה מלאכותית.

זו יכולה להיות מודעה מודרנית שתתחיל לראות צצה בערוצי המדיה החברתית ומופיעה בפרסומי דרושים שונים באינטרנט. זהו מושג או תפקיד חדש יחסית. זה טומן בחובו מחלוקת. כמה מאמינים נלהבים טוענים בלהט שזה הגיוני מאוד והיה צריך לקרות כל הזמן, בעוד שאחרים עושים קצת עצבנות רצינית ולא בטוחים שזה רעיון טוב.

תמצית התפקיד מורכבת מהוצאת הבינה המלאכותית של כל הטיות נסתרות או פרקטיקות מפלות מוטבעות. להצלה באים הציידים הנלהבים והבינה המלאכותית לשעבר משוחדת. יש להניח שהם יהיו ציידי ראשים בעלי ידע במחשבים. יותר מכך, יש לקוות, ספוגים במעמקי יכולות הבינה המלאכותית.

יש לך אקדח, ייסע, ויכול באמצעות קליעה נלהבת מיומנת בינה מלאכותית להצליח לחשוף את ההטיות המרושעות והבלתי רצויות של בינה מלאכותית.

זה מעלה שלל שאלות קוצניות לגבי הרגישות של נטילת טקטיקה כזו בכל הנוגע לגילוי הטיות בינה מלאכותית. כפי שאדון לרגע, אנא דעו כי הופעת הבינה המלאכותית הביאה איתה גם את הופעתן של הטיות בינה מלאכותית. מבול של הטיות בינה מלאכותית. לסיקור המתמשך והנרחב שלי על אתיקה של בינה מלאכותית ובינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

איך נוכל לגלות שלמערכת בינה מלאכותית מסוימת יש הטיות?

אתה יכול להפקיד את מפתחי הבינה המלאכותית שהמציאו את הבינה המלאכותית לעשות זאת. העניין הוא שהם עלולים להיות כל כך שקועים בהטיות שהם עצמם לא יכולים לזהות את ההטיות בתוך הבינה המלאכותית שלהם. הכל נראה להם טוב. או שאולי הם כל כך מתלהבים מה-AI ויש להם תחושת גאווה עצמית לגביו, שלאחר מכן להקפיד על עין ביקורתית כדי לבחון אותו לאיתור הטיות זה יהיה קשה ונחלש של ממש. הרבה סיבות אחרות עשויות להיראות חותכות למפתחי AI לקחת על עצמם את המשימה הזו, כולל חוסר מיומנויות להבין את ההטיות המוטבעות, חוסר זמן בפרויקט לעשות זאת וכו'.

אוקיי, אז קדימה לשכור יועצים חיצוניים שיעשו את העבודה המלוכלכת בשבילך, כביכול. מסתבר שיועצים יבדקו בשמחה את הבינה המלאכותית שלך לאיתור הטיות, ויגבו ממך אגורה יפה כדי לעשות זאת (המון המון אגורות). תבין שאתה צריך לשלם כדי שהם יתאימו למערכת הבינה המלאכותית שלך. לאחר מכן אתה צריך לגרום להם לחטט, מה שעשוי לקחת מספר לא ידוע של שעות עבודה יקרות. שימוש ביועצים היא אופציה אם יש לך תקציב לכך.

לתוך ה"פער" הפוטנציאלי של איך למצוא את הטיות בינה מלאכותיות ערמומיות, נכנסים ציידי ראשים ההרואיים והנוקבים.

אתה בדרך כלל לא משלם להם מראש. הם מנסים למצוא את הטיות ה-AI בזמן שלהם וצריכים לשלם את החשבונות שלהם בזמן שהם עושים זאת. רק אם הם מצליחים למצוא הטיות, הם מקבלים תשלום. אני מניח שאתה יכול לטעון בקלות שבאופן חשיבה מתאים, זו ההגדרה המקובלת של צייד ראשים. קבל תשלום אם אתה מצליח. אל תקבל תשלום אם אתה לא מצליח. תקופה, סוף הסיפור.

תוכניות הבאונטי קיימות לפחות מאז תקופת הרומאים ולכן אנו עשויים לשער שהן אכן עובדות, לאחר שהצליחו להחזיק מעמד כתרגול לאורך כל השנים הללו.

הנה חתיכת טריוויה היסטורית מרתקת בשבילך. לפי הדיווחים, הודעה שפורסמה במהלך האימפריה הרומית בעיר פומפיי הכריזה כי יש צורך בציידי ראשים כדי למצוא סיר נחושת שנעלם מחנות קטנה. הפרס על שחזור סיר הנחושת היה פרס מרשים של שישים וחמישה מטבעות ברונזה. מצטערים לומר שאנחנו לא יודעים אם צייד ראשים כלשהו מצא את סיר הנחושת ותבע את מטבעות הברונזה, אבל אנחנו כן יודעים שציד ראשים בהחלט נמשך מאז אותן תקופות קדומות.

בזמנים מודרניים יותר, אתה עשוי להיות מודע לכך שבשנות ה-1980 היו כמה פרסים בולטים שהוצעו למציאת באגים במחשב או שגיאות בחבילות תוכנה מדף, ולאחר מכן בשנות ה-1990 נטסקייפ הציעה פרס בולט למציאת באגים בדפדפן האינטרנט שלהם. (הופכת לאחת החברות הבולטות ביותר של אותו יום לעשות זאת). גוגל ופייסבוק בחרו כל אחת בציד ראשים אחר באגים החל מ-2010 ו-2013 שנים, בהתאמה. כמה שנים מאוחר יותר, בשנת 2016 אפילו משרד ההגנה האמריקאי (DoD) נכנס לפעולה על ידי מאמץ פרס של "Hack the Pentagon" (שים לב שהשפע הממוקד הציבורי היה עבור באגים שנמצאו באתרים שונים הקשורים ל-DoD ולא ב מערכות קריטיות למשימות הגנה).

בואו נחפור יותר לעומק בנושא פרס הבאג. אני מבין שאני מכוון בעיקר לדבר על הטיות בינה מלאכותית בציד ראשים בדיון הזה, אבל יש כמה הקבלות די רלוונטיות לזירת הבאונטי.

חלקם מבולבלים באופן מוכח שכל חברה תרצה להציע פרס כדי למצוא באגים (או, במקרה הזה, הטיות AI) במערכות שלהם.

על פני השטח, זה נראה כמו אסטרטגיה מסוג "אתה מבקש את זה". אם תודיע לעולם שאתה מקבל בברכה את אלה שעשויים לנסות למצוא חורים בתוכנה שלך, נראה שזה כמו אומר לפורצים להמשיך ולנסות לפרוץ לבית שלך. גם אם אתם כבר מאמינים שיש לכם מערכת אזעקה די טובה ושאף אחד לא יוכל להיכנס לביתכם המאובטח, דמיינו לעצמכם שואלים ואכן מתחננים לפורצים שכולם ירדו למקום מגוריכם ותראו אם הם יכולים. לפצח לתוכו. הו, הצרות שאנו טווים לעצמנו.

ניתן לומר את אותו הדבר לגבי בקשת ציידי ראשים כדי למצוא הטיות ב-AI שלך.

ראשית, זה אולי מרמז שאתה כבר מאמין או אפילו יודע על הסף של-AI שלך יש הטיות. זו הודאה מרומזת בצורה מזעזעת שרק מעטים נראים מוכנים לעשות ויכולים להשפיע על כך.

שנית, אתה לא יודע בוודאות מה אותם ציידי ראשים עשויים לעשות. הם יכולים לבחור לספר לכל העולם שהם מצאו הטיות ב-AI שלך. אפשר להניח שזה עלול להפסיד את קבלת הפרס, אם כי חלקם עשויים להתענג על תשומת הלב או לשאוף לחזק את מעמדם לקבלת הופעות ייעוץ ואפשרויות אחרות להפקת הכנסות. זה יכול להיות אלטרואיסטי לחלוטין. זה יכול להיות סוג של אקטיביזם בינה מלאכותית. אני יכול להמשיך.

שלישית, יכול להיות טוויסט ערמומי לכל הפרשה. צייד ראשים שטוען שהוא מחפש הטיות בינה מלאכותית עשוי לחטט בשטניות כדי למצוא דרכים לתקוף את מערכת הבינה המלאכותית שלך. כל העניין הוא מצמרר לבצע בסופו של דבר מתקפת סייבר חמורה. אולי הנחת שהם ניסו לעזור, בעוד שיש להם עוולות בליבם. עצוב, אבל אפשרי.

רביעית, אנחנו יכולים להתעוות אפילו יותר בערמומיות בעניין הזה. צייד ראשים מוצא כמה הטיות בינה מלאכותיות מביכות ועלולות לעורר תביעות משפטיות. הפרס הוא סכום של דולרים שנקרא X. במקום לתבוע את הפרס, צייד הראשים עושה סוג של פרובוקציה מוזרה של תוכנת כופר. אם אתה משלם לצייד ראשים סכום של עשרה פעמים X או אולי השמים את הגבול, הם יספרו לך על הטיות הבינה המלאכותית. יש לך עד יום ראשון בערב בחצות לענות. לאחר נקודת זמן זו, הטיות ה-AI ייחשפו לעיני כל. איכס, מצוקה מפחידה להיות בה.

חמישית, האחרונים הם אותם נוכלי סייבר כביכול "האק להחזיר" שאחרי שגנבו חבורה של בצק מקוון, הם מחליטים לחזור בתשובה ולהחזיר חלק מהשלל שלא תפסו. החברה שמקבלת את כספיה מוחזרים חלקית מוכנה אז לשקול את יתרת הסכום שנגנב כפרס לאחר מעשה המתוגמל לגנבים. נראה שכולם "מנצחים" בכך שחלק הארי של הכספים מוחזר ובינתיים לא רודפים אחרי נוכלי הסייבר באופן חוקי, בנוסף הם מקבלים את השפע הפיראטי. האם זה נבון או מנציח באופן ערמומי מעשים פסולים?

אני מבין שחלק מכם אולי אומרים שאף אחד לא צריך לשחרר בינה מלאכותית שיש בה הטיות. נראה שזה פותר את כל הדילמה הזו לגבי האם להשתמש בציידי ראשים של AI או לא. רק אל תכניס את עצמך למצב של שפע. ודא שמפתחי הבינה המלאכותית שלך עושים את הדבר הנכון ולא מאפשרים הטיות בינה מלאכותית למערכות הבינה המלאכותית שלהם. אולי השתמש ביועצים כדי לעשות בדיקה כפולה. בעצם, עשה כל מה שאתה צריך לעשות כדי להימנע מלחשוב על או לבקש מאותם ציידי ראשים הטיית AI לבוא לשולחן.

כן, זה ייראה הגיוני לחלוטין. הבעיה היא שזה גם קצת חלומי. המורכבות של מערכות בינה מלאכותיות רבות כל כך גדולה, עד שהניסיון להבטיח שלא תופיע אפילו גרם אחד של הטיות בינה מלאכותית יהיה קשה לעשות. נוסף על כך, מערכות AI מסוימות מתוכננות בכוונה להתאים ו"ללמוד" תוך כדי. זה אומר שבנקודת זמן עתידית כלשהי, הבינה המלאכותית שהמצאת, שבהתחלה נניח שהיא נקייה לחלוטין וללא הטיות, עשויה להימשך לכיוון של הטיות מגלם (אני לא מתכוון לכך בצורה אנתרופומורפית, כפי שאסביר בהמשך. הצטרפו לנושא זה).

אלה שמעדיפים ציד ראשים עבור באגי תוכנה נוטים לטעון שיש הגיון להציע פרסים כאלה. אנחנו יכולים לשקול את הרציונל שלהם ולראות אם זה חל גם על תחום הטיות הבינה המלאכותית.

התומכים בהטבות באגים מדגישים שבמקום לנסות להעמיד פנים שאין חורים במערכת שלך, למה שלא תעודדו למצוא חורים, לעשות זאת בצורה "מבוקרת"? לעומת זאת, בלי מאמץ פרס כזה, אתה יכול פשוט לקוות ולהתפלל שבמקרה אקראי אף אחד לא ימצא חור, אבל אם במקום זאת אתה מציע פרס ואומר למי שימצא חור שהם יתוגמלו, זה מציע הזדמנות לאחר מכן לחזק את החור בעצמך ואז למנוע מאחרים למצוא אותו בסתר בנקודת זמן מאוחרת יותר.

ניתן לומר אותו דבר במקרה השימוש של הטיות בינה מלאכותית. אם תציעו פרס מספיק, יש לקוות שציידי הראשים יביאו לתשומת לבכם את הגילוי של הטיות בינה מלאכותית. לאחר מכן תוכל להתמודד עם הטיות ה-AI בצורה שקטה ומדודה יחסית. זה עשוי למנוע בעיה הרבה יותר גדולה ומרתיעה בהמשך, כלומר שמישהו אחר מוצא הטיות בינה מלאכותית ב-AI שלך וצורח על כך לשמיים הגבוהים.

בדרך כלל, חברה שרוצה לאפשר מאמץ של ציד ראשים של באגים תפעיל מדיניות גילוי פגיעות (VDP). ה-VDP מציין כיצד יש למצוא את הבאגים ולדווח לחברה, יחד עם האופן שבו הפרס או הפרס יסופקו לצייד. בדרך כלל, ה-VDP ידרוש מהצייד בסופו של דבר לחתום על הסכם סודיות (NDA) כך שהם לא יחשפו לאחרים מה הם מצאו.

לרעיון השימוש ב-NDA עם ציידי ראשים יש מחלוקת מסוימת. למרות שאולי הגיוני לחברה שמציעה את השפע לרצות לשמור על החשיפות שנמצאו לאמא, אומרים שזה גם מחניק את המודעות הכללית לגבי באגים כאלה. יש להניח שאם מותר לדבר על באגי תוכנה, זה עשוי לסייע לבטיחותן של מערכות אחרות בחברות אחרות, שאחר כך יעצימו את חשיפותיהן. חלק מציידי ראשים לא יחתמו על NDA, חלקית בשל הרצון הציבורי וחלקית בשל ניסיון לשמור על זהותם מוסתרת. זכור גם שהיבט ה-NDA לא מתעורר בדרך כלל רק לאחר שהצייד טוען שמצא באג, במקום לדרוש אותו מראש.

חלק מה-VDP קובעים שה-NDA הוא רק לתקופת זמן מוגבלת, מה שמאפשר לחברה למצוא תחילה פתרון לחור הנראה ואז לאחר מכן כדי לאפשר חשיפה רחבה יותר לגביו. לאחר שהחור נסתם, החברה מאפשרת התרופפות של ה-NDA כך ששאר העולם יוכל לדעת על הבאג. על פי הדיווחים, הזמן הטיפוסי עד לפתרון עבור באגים שניצודו בשפע הוא כ-15-20 ימים כאשר חברה רוצה לחבר אותו מיד, בעוד שבמקרים אחרים זה עשוי להימשך עד 60-80 ימים. במונחים של תשלום לצייד ראשים, מה שנקרא זמן לתשלום, לאחר אימות החור כקיים בפועל, תשלומי הפרסים נוטים להיות בתוך כ-15-20 ימים עבור המקרים הקטנים יותר ובסביבות 50-60 ימים עבור המופעים הגדולים יותר (אלו אינדיקציות בתעשייה המשתנות ללא הרף ומוזכרות רק כהמחשה).

האם גם ציידי ראשים צריכים להתבקש להשתתף ב-VDP ולהתמודד עם NDA?

אתה יכול לקבל כן ולא לשאלה הזו. כן, חברות מסוימות צריכות ללכת בדרך זו. לא, ייתכן שלא בהכרח תבחר ללכת בדרך זו. הגורמים כוללים את הגודל והטבע של הבינה המלאכותית, הפוטנציאל של כל חשיפה להטיות בינה מלאכותית המעורבים, ועוד שלל שיקולים אתיים, משפטיים ועסקיים שבא לידי ביטוי.

אני יכול להוסיף שהקמת מאמץ לציד ראשים עבור הטיות בינה מלאכותית של הבינה המלאכותית שלך היא סדר גבוה בהרבה ממה שאתה יכול להניח במבט ראשוני.

נתחיל עם האפשרות האדירה שתהיה המום על ידי ציידי ראשים של הטיות בינה מלאכותית.

נכון לעכשיו, יהיה לך קשה למצוא רבים שיש להם כרטיס ביקור כזה. אין הרבה בסביבה. זה ימי המערב הפרוע בהקשר הזה. אבל אם הרעיון של הטיות בינה מלאכותית בציד ראשים תופס, במיוחד כשהפרסים בשפע ומתגמלים בשפע, אתה יכול להמר שכולם יצללו לתוך בריכת השחייה לציד הטיות.

האם אתה רוצה כל מיני רפרפים שרודפים אחרי הטיות בינה מלאכותית במערכת הבינה המלאכותית שלך? אתה תקבל כמה לוקחים שהם למעשה מומחים בדברים מסוג זה. תקבלו לוקחים אחרים שהם חובבנים ועשויים לעשות בלגן או לבכות זאב. הדבר הבא שאתה יודע, כל מי שיכול לאיית "בינה מלאכותית" יבוא לחפור במכרה הזהב שלך של מערכת בינה מלאכותית עבור גושי הזהב היקרים של הטיות בינה מלאכותית. הבהלה לזהב מופעלת. זה אולי לא טוב בשבילך.

תצטרך לבחון את ההגשות של צייד ראשים. יהיה הרבה "רעש" בטענות המדווחות, במובן זה שרבות מהטיות ה-AI הנטענות אינן קיימות, אם כי צייד הראשים מתעקש שהם מצאו כמה. תארו לעצמכם כמה עבודה יידרשו צוותי הבינה המלאכותית שלכם כדי לבחון את תביעות הפרס, לחקור את תקפותן של כל אחת מהן, ואז פוטנציאל ללכת הלוך ושוב עם צייד הראשים לגבי האם זהב התגלה או לא.

יש שיטענו שזו סיבה נוספת לעשות את כל העניין בעצמך. אתה עלול לגלות בהכרח שעניין השפע הוא יותר צרות ממה שהיה שווה.

הנה עוד שאלה שצריך לחשוב עליה. איך יידעו ציידי הראשים איך נראית הטיית בינה מלאכותית? למעשה, ללא מראית עין של מה לחפש, ניתן לטעון שכל סלע נוצץ כמראה הטיה של בינה מלאכותית במכרה הזהב הנחשב של AI שנחפר.

בימי המערב הישן, נניח שהצעת פרס על לכידתו של בילי הילד (פורע חוק מפורסם). אם עשית זאת ולא כללת תמונה של איך בילי נראה, דמיינו את מספר ציידי הראשים שעלולים לגרור אל משרד השריף מישהו שהם קיוו או חשבו שהוא בילי הילד. אתה עלול להיות מוצף בבילי מזויף. זה רע מכיוון שככל הנראה תצטרך להסתכל על כל אחד מהם, לשאול שאלות חקירה ולנסות לוודא אם האדם באמת היה בילי או לא.

הנקודה היא שכדי להגדיר את מאמץ השפע של הטיות בינה מלאכותית יהיה חכם לנסות ולהבהיר ממה אתה מחשיב הטיות בינה מלאכותית. זה דורש כיול מסוג זהב. אתה לא רוצה להיות כל כך מוגבל שציידי הראשים מתעלמים מהטיות בינה מלאכותית רק בגלל שהן לא מתאימות להגדרה שנקבעה לך, וגם אינך רוצה שהם יצעקו "אאוריקה!" בכל טיפת הטיית בינה מלאכותית שהם אולי מוצאים.

תצטרך בדיוק את האיזון הנכון של Goldilocks של מה מורכבות הטיות AI ובכך לספק הנחיות מפורשות לגביהן.

הרבה מהטיות בינה מלאכותית הזו יתמקדו במערכות למידת מכונה (ML) ולמידה עמוקה (DL) מבוססות בינה מלאכותית. זה הגיוני מכיוון שההתפשטות של ML/DL הולכת וגוברת, בנוסף נראה שיש לה כמה מהאתגרים הסבירים ביותר להקיף הטיות בינה מלאכותית מיותרות.

חוקרים אלו מזהים עד כמה בולט יכול להיות מאמץ ציד ראשים ב-AI, במיוחד בהקשר של ML/DL: "עם הזמן, קהילות התוכנה והאבטחה פיתחו 'פרסומי באגים' בניסיון להפוך דינמיקה דומה בין מפתחי מערכות למבקרים שלהם. (או האקרים) למטרות אינטראקטיביות ופרודוקטיביות יותר. התקווה היא שעל ידי הזמנה מכוונת של גורמים חיצוניים למצוא באגי תוכנה או חומרה במערכות שלהם, ולעתים קרובות מתן תמריצים כספיים לכך, תתפתח מערכת אקולוגית בריאה יותר ותגובה מהירה יותר. זה טבעי שקהילת ה-ML תשקול גישה דומה של 'הטייה' דומה לגילוי ותיקון בזמן של מודלים ומערכות עם הטיה או התנהגויות לא רצויות אחרות. במקום למצוא באגים בתוכנה, גורמים חיצוניים מוזמנים למצוא הטיות - למשל, תת-קבוצות (דמוגרפיות או אחרות) של תשומות שעליהן מודל מאומן מתפקד נמוך - ומתוגמלים על כך" (במאמר "מסגרת אלגוריתמית להטיה Bounties" מאת אירה גלובוס-האריס, מייקל קרנס ואהרון רוט).

במאמר המחקר, המחברים מתארים גישה מוצעת לאילו סוגים של הטיות בינה מלאכותית ניתן לחפש על ידי ציידי ראשים. יש גם אינדיקציה כיצד להעריך את הטענות של צייד ראשים הקשורות להטיות AI לכאורה שהתגלו כך. לפי ההערות המוקדמות שלי כאן, רוב הסיכויים שתקבלו תביעות מופרכות ותצטרכו להפריד את הטיות הבינה המלאכותית בין חיטה למוץ.

לפני שנכנס לעוד קצת בשר ותפוחי אדמה על השיקולים הפראיים והצמריים העומדים בבסיס ציד הטיית בינה מלאכותית, בואו נבסס כמה יסודות נוספים בנושאים אינטגרליים מעמיקים. עלינו לצלול בקצרה לתוך אתיקה של בינה מלאכותית ובמיוחד בהופעת למידת מכונה (ML) ולמידה עמוקה (DL).

אולי אתם מודעים במעורפל לכך שאחד הקולות החזקים ביותר בימינו בתחום הבינה המלאכותית ואפילו מחוץ לתחום הבינה המלאכותית מורכב מהצעקה למראה גדול יותר של בינה מלאכותית אתית. בואו נסתכל על מה זה אומר להתייחס לאתיקה של בינה מלאכותית ולאתיקה בינה מלאכותית. נוסף על כך, נחקור למה אני מתכוון כשאני מדבר על למידת מכונה ולמידה עמוקה.

פלח או חלק מסוים של אתיקה של בינה מלאכותית שזכו לתשומת לב רבה בתקשורת מורכבים מבינה מלאכותית המפגינה הטיות וחוסר שוויון לא רצויים. אתה אולי מודע לכך שכשהעידן האחרון של בינה מלאכותית יצא לדרך, היה פרץ עצום של התלהבות ממה שחלק מכנים עכשיו AI לתמיד. לרוע המזל, בעקבות אותה התרגשות גועשת, התחלנו להיות עדים AI למען הרע. לדוגמה, מערכות שונות של זיהוי פנים מבוססות בינה מלאכותית התגלו כמכילות הטיות גזעיות והטיות מגדריות, שעליהן דיברתי ב- הקישור כאן.

מאמצים להילחם נגד AI למען הרע פועלים באופן פעיל. חוץ מזה קולני משפטי בשאיפה לרסן את העוולות, יש גם דחיפה מהותית לאימוץ אתיקה של AI כדי לתקן את גנאי הבינה המלאכותית. הרעיון הוא שעלינו לאמץ ולאמץ עקרונות מפתח אתיים בינה מלאכותית לפיתוח ותחום ה- AI לעשות זאת כדי להפחית את AI למען הרע ובו זמנית מבשר וקידום העדיף AI לתמיד.

לגבי רעיון קשור, אני תומך בניסיון להשתמש בבינה מלאכותית כחלק מהפתרון לבעיות בינה מלאכותית, להילחם באש עם אש באופן חשיבה זה. אנו יכולים למשל להטמיע רכיבי בינה מלאכותית אתית לתוך מערכת בינה מלאכותית שתפקח על אופן הפעולה של שאר הבינה המלאכותית ובכך עשויה לתפוס בזמן אמת כל מאמצים מפלים, ראה הדיון שלי ב- הקישור כאן. יכול להיות לנו גם מערכת AI נפרדת הפועלת כסוג של צג אתיקה של AI. מערכת הבינה המלאכותית משמשת כמפקחת כדי לעקוב ולזהות מתי בינה מלאכותית אחרת נכנסת לתהום הלא אתית (ראה ניתוח שלי של יכולות כאלה ב הקישור כאן).

בעוד רגע, אשתף אתכם בכמה עקרונות-על העומדים בבסיס אתיקה של AI. יש המון רשימות כאלה שמסתובבות פה ושם. אפשר לומר שעדיין אין רשימה יחידה של ערעור והסכמה אוניברסליים. אלו החדשות המצערות. החדשות הטובות הן שלפחות ישנן רשימות אתיקה של AI והן נוטות להיות די דומות. בסך הכל, זה מצביע על כך שבאמצעות סוג של התכנסות מנומקת אנו מוצאים את דרכנו לעבר משותף כללי של מה שמכיל אתיקה של AI.

ראשית, הבה נסקור בקצרה כמה מהמצוות האתיות הכוללות בינה מלאכותית כדי להמחיש מה אמור להיות שיקול חיוני עבור כל מי שמעצב, מעבד או משתמש בבינה מלאכותית.

לדוגמה, כפי שנאמר על ידי הוותיקן ב רומא קריאה לאתיקה של AI וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • שקיפות: באופן עקרוני, מערכות AI חייבות להיות ניתנות להסבר
  • הַכלָלָה: יש לקחת בחשבון את הצרכים של כל בני האדם כדי שכולם יוכלו להפיק תועלת, ולהציע לכל הפרטים את התנאים הטובים ביותר להתבטא ולהתפתח
  • אַחֲרָיוּת: מי שמתכננים ומפרסים את השימוש ב-AI חייבים להמשיך באחריות ובשקיפות
  • חוסר זוגיות: אין ליצור או לפעול על פי הטיה, ובכך לשמור על הגינות וכבוד האדם
  • אֲמִינוּת: מערכות AI חייבות להיות מסוגלות לעבוד בצורה אמינה
  • בטיחות ופרטיות: מערכות AI חייבות לעבוד בצורה מאובטחת ולכבד את פרטיות המשתמשים.

כפי שנאמר על ידי משרד ההגנה האמריקאי (DoD) בכתביהם עקרונות אתיים לשימוש בבינה מלאכותית וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • אחראי: אנשי DoD יפעילו רמות מתאימות של שיקול דעת וטיפול תוך שהם יישארו אחראים לפיתוח, פריסה ושימוש ביכולות AI.
  • הוֹגֶן: המחלקה תנקוט בצעדים מכוונים כדי למזער הטיה לא מכוונת ביכולות הבינה המלאכותית.
  • ניתן למעקב: יכולות ה-AI של המחלקה יפותחו וייפרסו כך שלצוות הרלוונטי יהיה הבנה מתאימה של הטכנולוגיה, תהליכי הפיתוח והשיטות התפעוליות החלות על יכולות בינה מלאכותית, לרבות מתודולוגיות שקופות וניתנות לביקורת, מקורות נתונים ונוהל עיצוב ותיעוד.
  • אָמִין: ליכולות הבינה המלאכותית של המחלקה יהיו שימושים מפורשים ומוגדרים היטב, והבטיחות, האבטחה והיעילות של יכולות כאלה יהיו כפופות לבדיקה והבטחה במסגרת אותם שימושים מוגדרים לאורך כל מחזור החיים שלהן.
  • ניתן לממשל: המחלקה תתכנן ותהנדס יכולות בינה מלאכותית למילוי הפונקציות המיועדות להן תוך יכולת לזהות ולהימנע מהשלכות לא מכוונות, ויכולת לנטרל או להשבית מערכות פרוסות המפגינות התנהגות לא מכוונת.

דנתי גם בניתוחים קולקטיביים שונים של עקרונות האתיקה של בינה מלאכותית, כולל כיסיתי סט שהומצא על ידי חוקרים שבדק וריכז את המהות של עקרונות אתיקה לאומיים ובינלאומיים רבים של AI במאמר שכותרתו "הנוף הגלובלי של הנחיות האתיקה של בינה מלאכותית" (שפורסם) ב טבע), ושהסיקור שלי בוחן ב הקישור כאן, שהובילה לרשימת אבני המפתח הזו:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

כפי שאתה יכול לנחש ישירות, הניסיון לדייק את הפרטים העומדים בבסיס העקרונות הללו יכול להיות קשה מאוד. אפילו יותר מכך, המאמץ להפוך את העקרונות הרחבים הללו למשהו מוחשי ומפורט מספיק כדי לשמש בעת יצירת מערכות בינה מלאכותית הוא גם אגוז קשה לפיצוח. קל בסך הכל לנפנף קצת ביד על מה הם מצוות האתיקה של בינה מלאכותית וכיצד יש להקפיד עליהן באופן כללי, בעוד שזה מצב הרבה יותר מסובך בקידוד הבינה המלאכותית שצריך להיות הגומי האמיתי שפוגש את הדרך.

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים את מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית. כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שצוין קודם לכן, נדרש כפר כדי להמציא ולהשיג בינה מלאכותית, ועבורו הכפר כולו צריך להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

בואו גם נוודא שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי מרגיש AI, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לשקול שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שחלק משערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

בואו נשאיר את הדברים יותר מדוייקים ונשקול את הבינה המלאכותית החישובית הלא-חושית של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

הבה נחזור כעת לנושא ציד הטיית AI.

לאלו מכם ששוקלים מאמץ לציד ראשים עם הטיית בינה מלאכותית, הנה שבעת השלבים העיקריים המומלצים שלי כיצד להמשיך בצורה הטובה ביותר:

1) להעריך. הערכת ההתאמה של מאמץ ציד ראשים הטיית בינה מלאכותית לנסיבות שלך ולפי מערכות הבינה המלאכותית שלך

2) עיצוב. תכנן גישת ציד ראשים הולמת בינה מלאכותית

3) יישום . יישם ופרסם את מאמצי ציד ראשים להטיית AI שלך

4) שדה. שדה את הבינה המלאכותית משטה את תביעות הפרס ומעבדים בהתאם

5) לסדר. תקן או התאם את ה-AI שלך בהתאם לחשיפות הטיית AI שהתגלו

6) להתאים. התאם את ההטיות בינה מלאכותית לציד ראשים לפי הצורך

7) להפסיק. הפסק את ציד ראשים להטיה בינה מלאכותית כאשר אין בו עוד צורך

בסדרת השלבים שלי לעיל, שים לב שאני מזכיר שככל הנראה תרצה לתקן או להתאים את ה-AI שלך על סמך בירור שהטיית AI נטענת אכן קיימת במערכת ה-AI שלך. זה הגיוני בשפע. כמעט בוודאות תרצה לחזק את כל הטיות AI שנמצאו. חשבו על ההשלכות המשפטיות (ואתיות) אם לא תעשו זאת. זה דבר אחד לטעון שלא ידעת שקיימת הטיית בינה מלאכותית ולכן אפשרת לה להתקיים, בעוד שזה הרבה יותר מטלטלת לדווח על כך שנודע לך על הטיית בינה מלאכותית ולא עשית דבר בנידון.

אופי ומידת התיקון או ההתאמה של הבינה המלאכותית יהיו כמובן תלויים במידת המשמעותיות של הטיות הבינה המלאכותית ועד כמה עמוקות הבעיות מוטמעות. אם יתמזל מזלכם, אולי כמות צנועה של שינויים ב-AI תתקן את העניינים. הפוטנציאל הנוסף הוא שאולי תצטרך לבצע שכתוב שלם של ה-AI. עבור סוג ML/DL של AI, זה עשוי לדרוש חזרה ללוח השרטוטים ולהתחיל מחדש עם סט נתונים חדש לגמרי ומודל ML/DL נקי. דיברתי על הופעתה של הפרעת בינה מלאכותית או השמדת בינה מלאכותית כתרופה משפטית אפשרית נגד בינה מלאכותית לא טעימה, ראה הקישור כאן.

שאלה אחת שכדאי לחשוב עליה היא האם הייתם רוצים שציידי הראשים יעשו יותר מאשר רק לזהות את קיומן של הטיות בינה מלאכותית. לדוגמה, תוכל להמתיק את השפע על ידי ציון שגם תיקונים מוצעים יתקבלו בברכה. הטיית AI מצא על ידי צייד ראשים עשוי להיות משולם פרס או פרס מסומן. אם צייד ראשים יכול גם להציע רווח קבוע להטיית הבינה המלאכותית ייתכן שיוענק להם פרס נוסף.

יש הטוענים שזהו גשר רחוק מדי. הם אומרים שאתה צריך לשמור על ציידי ראשים של AI ממוקדים בלעדית במציאת הטיות AI. אתה הולך ליצור חבורה של השלכות שליליות לא רצויות על ידי הזמנתם להציע גם תיקונים. שמרו על דברים פשוטים. המטרה היא להביא כמה שיותר עיניים נוספות לגלות הטיות בינה מלאכותית כדי שתוכל להחליט מה לעשות הלאה. אל תבלום את המים.

היבט קוצני שצריך להבין כרוך בגודל הפרס או הפרס עבור ציידי ראשים שבאמת מגלים הטיות בינה מלאכותית. אתה רוצה שהתמורה תהיה מופגנת. ללא פרס גבוה מספיק, לא תקבל הרבה ציידי ראשים או שהם לא יהיו להוטים במיוחד לחפש את הטיות הבינה המלאכותית במערכות הבינה המלאכותית שלך. במקום זאת הם עשויים להתרכז במאמצים אחרים של הטיית AI.

יתרה מכך, כאמור, אתה רוצה לנסות להדחיק דחף של ציידי ראשים להפוך את תגליות הטיית הבינה המלאכותית שלהם לצורות אחרות של זהב. אם התגמול נראה עלוב, זה עלול להדאיג ציידי ראשים בחיפוש אחר תמורה גבוהה יותר. הם יכולים לנקוט בגישת תוכנת כופר כלפיך. הם עשויים להצהיר שיש להם הטיית בינה מלאכותית עסיסית שמתחרה ישמח לדעת עליה ויוכל להשתמש נגד החברה שלך על ידי הסבר שהטיית הבינה המלאכותית קיימת ב-AI שלך. לפיכך, הם מוכרים את הטיית הבינה המלאכותית שהתגלתה להצעה הגבוהה ביותר. וכן הלאה.

אחד מניח שאם אתה מגדיר את התגמול בטווח גבוה במיוחד, אתה גם מבקש צרות פוטנציאליות. זה יכול למשוך כל מיני ציידי ראשים אגוזים. הם מצידם עלולים להציף את המדיה החברתית בטענות מעורפלות שהם מצאו שפע של הטיות בינה מלאכותית, עושים זאת למען הקידום העצמי שלהם ומבלי שבאמת ניצלו הטיות בינה מלאכותית. במובן מסוים, התגמול המוגבר שלך מאיר מבלי משים אור על הבינה המלאכותית שלך ומדרבן שלל עשים לא יפים כדי להימשך באופן מזיק לאלומת האור הזוהרת.

שיקול נוסף כרוך בנגישות ל-AI שלך.

כדי לאפשר אפשרות של ציד ראשים בינה מלאכותית, ציידי ראשים צריכים לקבל מספיק גישה ל-AI שלך. לא יהיה להם הרבה מזל במציאת הטיות בינה מלאכותית אם הם יהיו נעולים לחלוטין. אבל אתה לא רוצה לוותר על ההגנות שלך על אבטחת הסייבר, שכן פעולה זו עלולה לסכן לחלוטין את מערכת הבינה המלאכותית שלך.

אולי תנסה לגרום לציידי הראשים לחתום על הצהרות משפטיות מחייבות שונות ואז לספק להם את הגישה הדרושה. כמה ציידי ראשים לא יאהבו סוג כזה של גישה. נקודת המבט שלהם היא שהם יעשו רק כל מה שכל נתיב זמין ופתוח מאפשר. הם כביכול מנוסים חופשיים ואינם אוהבים להיות אוכפים, כביכול. לגרום להם לשים את חתימתם על מסמכים משפטיים מאיימים יגרום לרבים מהם להימנע מחיפוש הטיות בינה מלאכותית ב-AI שלך. או שהם עלולים להתעצבן על הכפפה המשפטית שלך ולהחליט שהם יראו מה הם יכולים למצוא באמצעים ציבוריים, עושים זאת מתוך דחף עז אולי להראות לך עד כמה אתה באמת פגיע.

יש לי עוד זווית שעשויה לגרום לראש שלך להסתחרר.

צייד ראשים מנוסה בבינה מלאכותית עשוי להחליט להמציא מערכת בינה מלאכותית שתוכל לבחון את הבינה המלאכותית שלך ואולי לגלות הטיות בינה מלאכותית בבינה המלאכותית שלך. זהו יצרן הכלים שבוחר ליצור כלי לעשות את העבודה במקום לבצע עבודת כפיים בעצמם. במקום לבחון בעמל רב את הבינה המלאכותית שלך, צייד הראשים הבקיא בבינה מלאכותית מבלה את זמנו ברקוח כלי בינה מלאכותית שעושה את אותו הדבר. לאחר מכן הם משתמשים בכלי AI ב-AI שלך. גם היופי הוא שהם כנראה יכולים לעשות שימוש חוזר בכלי הבינה המלאכותית על כל אחד אחר שמציע גם הזדמנות לציד ראשים ב-AI שלו.

אני יודע מה אתה בטח חושב. אם ניתן להמציא כלי בינה מלאכותית לבחינת הטיות בינה מלאכותית, יצרנית ה-AI שנבדקת לגבי הטיות בינה מלאכותית צריכה ליצור כלי בינה מלאכותית כזו או לקנות אחד לשימוש עצמי. בתיאוריה, אז הם לא צריכים להתמודד עם כל קרנבל צייד הראשים, מלכתחילה. פשוט השתמש ב-AI כדי למצוא את הטיות ה-AI שלהם.

כן, זה משהו שאתה יכול לצפות שיתעורר בהדרגה. בינתיים, עיקר המאמצים הללו יהיו ככל הנראה ממפתחי בינה מלאכותית שיעשו ציד ראשים. הם עשויים להשתמש בכלים שונים כדי לסייע למאמצים שלהם, אבל בטווח הקרוב, לא סביר שהם פשוט יגדירו את כלי הבינה המלאכותית על אוטומטי ויתנו תנומה כזו שהכלי יעשה את כל הטיית הבינה המלאכותית בחיפוש אחריהם.

אנחנו עדיין לא שם.

בשלב זה של הדיון הכבד הזה, אני מתערב שאתה מעוניין בכמה דוגמאות להמחשה שעשויות להציג את הנושא הזה. יש מכלול מיוחד ופופולארי של דוגמאות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית, כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות מציאותיות המציגות דילמות של אתיקה של בינה מלאכותית, כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות בינה מלאכותית זו הוא הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות נהיגה עצמית אמיתיות מבוססות בינה מלאכותית מאירה משהו לגבי השימוש בציד ראשים בינה מלאכותית, ואם כן, מה זה מציג לראווה?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

לשם הבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שבהן ה- AI נוהג במכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לשתף פעולה במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות המשותפות במשימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAADA
S (מערכות סיוע לנהג מתקדמות).

עדיין אין מכונית נהיגה עצמית אמיתית ברמה 5, ואנחנו עדיין לא יודעים אפילו אם זה יהיה אפשרי, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מכוניות בנהיגה עצמית וציד ראשי בינה מלאכותית

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני מקווה שזה מספק כמות מספקת של אזהרות כדי לעמוד בבסיס מה שאני עומד להתייחס אליו.

בטורים שלי, כבר דנתי בהרחבה בשימוש בציידי ראשים מוכווני באגים בתחום הרכב האוטונומי והמכוניות האוטונומיות. גישה זו אכן התקיימה בנישה זו. יש את הוויכוחים הרגילים אם זה רעיון טוב או לא. המאמצים היו בדרך כלל בעלי אופי מוגבל, לעתים קרובות נשמרו בשקט יחסית.

שיח באופן דומה יכול להתפתח כאשר הפוקוס עובר לציד אחר הטיות בינה מלאכותית במקום לחפש באגים במערכת כשלעצמם. יש הטוענים שזה מטורף אם אתה עושה זאת, ארור אם אתה לא מתלבט.

הנה למה.

ראשית, כדי להיות ברור, ישנן דרכים רבות בהן כלי רכב אוטונומיים ומכוניות בנהיגה עצמית יהיו כפופים להטיות AI מכילות, ראה הסיקור שלי ב- הקישור כאן ו הקישור כאן, רק כדי להזכיר כמה. נראה ליצרני רכב וחברות רכב לנהיגה עצמית נבונים לנסות ולמנוע את הטיות הבינה המלאכותיות האלה להופיע במערכות הבינה המלאכותית שלהן. סערת האש המשפטית והאתית נגד חברות כאלה תהיה ללא ספק עזה.

האם השימוש ב-AI הטיית ציד ראשים הוא גישה מתאימה בהקשר הספציפי הזה?

תשובה אחת היא שכן, זה יהיה שימושי ויספק שפע של סטים "חינם" של עיניים חדשות כדי לנסות ולתפוס את הטיות הבינה המלאכותית המוטבעות של מכונית בינה מלאכותית בנהיגה עצמית או דומה. רוב מפתחי הבינה המלאכותית שבונים מכוניות בנהיגה עצמית עסוקים ביצירת בינה מלאכותית שיכולה לנהוג בבטחה במכונית מנקודה A לנקודה B. הם עסוקים ביכולת הליבה הזו ואין להם לא זמן ולא תשומת לב להטיות בינה מלאכותית שעשויות להיות איפשהו. ה-AI שלהם.

התשובה האחרת היא שלא, לאפשר ציד ראשים עבור כלי רכב אוטונומיים ומכוניות בנהיגה עצמית על כל בסיס, בין אם בגלל באגים או הטיות בינה מלאכותית, פשוט צריך להימנע בתוקף. הטענה היא שכלי הרכב וה-AI שלהם הם בקליבר של חיים או מוות. התעסקות עם הבינה המלאכותית בכל צורה שהיא עלולה להרוס איכשהו את הבינה המלאכותית ולהשפיע על מה שמערכת הנהיגה של הבינה המלאכותית עושה.

טיעון נגד לנקודה האחרונה היא שציידי ראשים אמורים לא להיות מסוגלים לשנות את ה-AI שהם בודקים. לפיכך, אין סכנה שהם יתעסקו עם ה-AI ויגרמו ל-AI בהקשר הזה להפוך פתאום למערכת נהיגה מטורפת של AI. לציידי הראשים יש גישה לקריאה בלבד. לאפשר להם ללכת רחוק יותר יהיה טיפשי וטעות ענקית.

הטיעון הנגדי לטענת הנגד ההיא היא שעל ידי מתן אפשרות ועידוד ציידי ראשים לבחון את הבינה המלאכותית שלך, כל העניין הופך לבעייתי. אותם ציידי ראשים עשויים למצוא דרכים לנצל באגים או הטיות שנמצאו. מעללים אלה בתורם עשויים להיות למטרות ערמומיות. עדיף לך לא להזמין "פורצים" לביתך, כביכול. ברגע שהם יוציאו את הג'וינט, אתה בסופו של דבר תהיה בצרות.

עבור אלה שיש להם מערכות בינה מלאכותית בסדר גודל של פחות מחיים או מוות, האמונה היא שההשלכות של גיחת ציד ראשים שמשתבשת הן הרבה פחות מסוכנות. אולי. מצד שני, אם חברה שפכה את הכספים שלה למערכת בינה מלאכותית שציידי ראשים מצליחים לגזול, אתה יכול להניח שהנזקים למוניטין ונזקים פוטנציאליים אחרים עדיין יפגעו.

אין ארוחת צהריים חינם כשזה מגיע לציד ראשים הטיית AI.

הערת סיום מהירה לעת עתה.

כשחיפשו את פורע החוק הידוע לשמצה, ג'סי ג'יימס, במהלך המערב הישן, הודפסה פוסטר "מבוקש" שהציע פרס של 5,000 דולר עבור לכידתו (הציינה "מת או חי"). זה היה סכום כסף עצום למדי בזמנו. אחד מחברי הכנופיה שלו בחר לירות למוות בג'סי ולאסוף את הפרס. אני מניח שזה מראה עד כמה פרס יכול להיות יעיל.

האם השימוש בציידי ראשים להטיית בינה מלאכותית יהיה דבר טוב, או שזה יהיה דבר רע?

אם תבחר להפעיל מאמץ של צייד ראשים הטיית בינה מלאכותית, הייתי מציע לך לפקוח עיניים לרווחה ולהסתכל מעבר לכתף כל הזמן. זה נבון עבורך ועבור הבינה המלאכותית שלך. אתה אף פעם לא יודע מה עלול לקרות, כולל זה שצייד ראשים מזדהה איכשהו מכניס בחשאי הטיית AI לתוך ה-AI שלך וצועק לעולם שהם מצאו הטיית AI חסרת מצפון ב-AI שלך. אולי עושים זאת בניסיון חצוף ומימדים לחפש את פרס הפרס, בנוסף להכריז על עצמם כגיבור שבעצם קיבל את ג'סי ג'יימס המהולל.

כשחושבים על זה, בינה מלאכותית חיה כנראה לא תאהב את הרעיון הזה של אספקה ​​מדאיגה של מת או חי, אפשר לשער כל כך בכעס.

מקור: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- מערכות-אוטונומיות-מוסריות-מולאות-זהירות-או-חסרות תועלת/