אתיקה של בינה מלאכותית מוטרדת על ידי סין האחרונה שהמציאה בינה מלאכותית בינה למפלגה נאמנות זיהוי פנים לקריאת מחשבות שעשויה לבשר על מערכות אוטונומיות מעיקות

האם אתה נאמן?

בתיאוריה, ייתכן שניתן יהיה לבחון את המעשים הגלויים שלך ולוודא האם נאמנות מפגינה במעשיך.

אם כי נניח שבמקום זאת נעשה ניסיון לקרוא את מחשבותיך ובינתיים לסרוק את פניך כדי לקבוע את מנת הנאמנות שלך. זה פולשני להחריד; אתה יכול בקלות לגנות. נשמע כמו אחד מסרטי המדע הבדיוני המטורפים האלה שצופים חברה דיסטופית עתידית.

למרבה המזל, אתה לוחש לעצמך בחשאי, אין לנו דבר כזה היום.

וואו, תחזיק את הסוסים שלך.

לאחרונה זוהרות כותרות החדשות שמאמר מחקר שפורסם באינטרנט בסין ב-1 ביולי 2022 תיאר מחקר שכלל כביכול הערכה של גלי המוח של אנשים והבעות הפנים שלהם למטרות לחשב אם הם נאמנים למפלגה הקומוניסטית הסינית (מק"ס) . אז הנה, העתיד הולך ומתקרב, לפחות במונחים של השגת החברה הדיסטופית שממנה חששנו שיבוא יום.

עבודת המחקר נעלמה במהירות מהקישור שפורסם באינטרנט.

יש להניח, הבוז המהיר ששטף במהירות את האינטרנט הספיק כדי להוריד את העיתון. לחלופין, אולי החוקרים רק רוצים לערוך כמה שינויים בניסוח ותיקונים תמימים אחרים, במטרה לבצע פרסום מחדש ברגע שתהיה להם הזדמנות יסודית יותר להבטיח שה-i מנוקדים וה-t'ים כולם נחצה. נצטרך לפקוח עיניים כדי לראות אם העיתון יקבל חיים שניים.

אני הולך לעשות צלילה עמוקה לתוך מה שאנחנו יודעים על המחקר ולנסות לחבר את הנקודות לגבי האופן שבו יש משמעות לסוג זה של עבודה הקשורה בינה מלאכותית עבור כולנו, מעבר לטווח של לראות את זה. מוגבל למדינה מסוימת. הסיקור שלי יהיה קצת יותר נרחב מהדיווחים האחרונים על האייטם החדשותי הזה, אז בבקשה סבלו איתי.

גם ההדגשה הנוספת שלי תהיה שיש שלל שיעורי אתיקה חיוניים בינה מלאכותית שנוכל להפיק מהעיתון לכאורה. לסיקור המתמשך והנרחב שלי על אתיקה של בינה מלאכותית ובינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

הנה מה שהוזכר עד כה על מחקר המחקר.

ככל הנראה, כמה "מתנדבים" גויסו להשתתף בניסוי לגבי תפיסות המק"ס. לא ידוע אם הם היו מתנדבים מוכנים או יותר דומים למתנדבים מוכשרים או אולי מודרכים. נניח לצורך הדיון שהם היו מסכימים להיות נושא במחקר.

אני מעלה את זה כדי לא להיות סתם גס רוח. בכל פעם שנעשה ניסוי עם נבדקים אנושיים, יש שפע של פרקטיקות מקובלות לגבי גיוס והטמעה של נבדקים כאלה במאמץ מחקר. זה נובע חלקית ממחקרים קודמים שלעתים קרובות רימו או אילצו אנשים להשתתף בניסוי, ולעתים הובילו להשלכות פסיכולוגיות שליליות או אפילו לפגיעה פיזית עבור אותם משתתפים. הקהילה המדעית ניסתה רבות לצמצם את סוגי המחקרים הערמומיים ודורשת לספק כל מיני גילויים ואזהרות למי שמבוקש להיכלל במחקרים הקשורים לבני אדם.

להבהיר, לא כולם מצייתים להנחיות זהירות ומצפוניות כאלה.

בהמשך, על פי הדיווחים היו 43 נבדקים, ונאמר שהם חברים במפלגה הקומוניסטית של סין. זכור כי בחירת הנבדקים לניסוי היא קריטית למדי לניסוי ויש לקחת אותה בחשבון גם לגבי כל מסקנות שאולי תנסה להגיע אליהן לאחר מכן לגבי תוצאות הניסוי.

נניח שאני רוצה לעשות ניסוי על איך אנשים תופסים את סדרת מלחמת הכוכבים המוערכת. אם אני בוחר מראש נושאים שכולם שונאים את מלחמת הכוכבים בצורה מהדהדת (איך אנשים כאלה יכולים להתקיים?), ואראה להם קטעי וידאו של מלחמת הכוכבים, רוב הסיכויים שהם כנראה יגידו שהם עדיין לא אוהבים את מלחמת הכוכבים. בהתבסס על הניסוי הפסאודו-מדעי הזה, אולי אני טוען בערמומיות שאנשים - באופן כללי - באמת שונאים את מלחמת הכוכבים, מה ש"הוכח" (קריצה-קריצה) במסגרת המחקר שלי שהוכנה בקפידה.

אולי אתה לא יודע שחיבשתי את גלגל הרולטה, כביכול, על ידי בחירה מראש של הנושאים שציפיתי שיפיקו את התוצאות הרצויות בחשאי. כמובן, לו הייתי מגייס בכוונה אנשים שאוהבים את מלחמת הכוכבים והיו מעריצים נלהבים, רוב הסיכויים שהם היו מדווחים כמתלהבים מהצפייה בקטעי מלחמת הכוכבים האלה. שוב, כל מסקנות שהושגו לגבי האופן שבו אנשים, באופן כללי, מגיבים למלחמת הכוכבים, יתמתן על ידי סט הנושאים שנבחרו מראש למאמץ.

נראה שהמחקר המתמקד במק"ס גרם לנבדקים לשבת מול תצוגת וידאו דמוית קיוסק ולקרוא מאמרים שונים על המדיניות וההישגים של המק"ס. זהו כנראה "הטיפול הניסיוני" הנחשב אליו נחשפים הנבדקים. כאשר מתכננים ניסוי, אתה בדרך כלל מעלה גורם ניסיוני או היבט שאתה רוצה לראות אם הוא משפיע על המשתתפים.

שאלת המחקר שנבדקה ככל הנראה הייתה האם לפעולת סקירת החומרים הללו תהיה השפעה כלשהי על הנבדקים במונחים של עלייה, ירידה או ניטרליות לגבי התרשמותם הבאים מהמק"ס.

בהשערת אפס קלאסית, אתה יכול לארגן מחקר כזה כדי לקבוע שלחומרים הנצרכים אין השפעה על ההתרשמות הבאה לידי ביטוי על ידי הנבדקים. לאחר שעשית השוואה לפני ואחרי של נקודות המבט שלהם לגבי המק"ס, היית מנסה סטטיסטית לראות אם היה זיהוי מובהק סטטיסטית של שינוי בהתרשמות שלהם.

יכול להיות שהלפני ואחרי אינם שונים מבחינה סטטיסטית, לכן אתה עשוי להסיק באופן סביר שעבור מחקר מסוים זה החומרים המוצגים (טיפול ניסיוני) לא עשו הבדל בהתרשמות שלהם. מצד שני, אם היה הבדל תקף סטטיסטית, היית מסתכל לראות אם האחורי היה גדול יותר מהקודם, מה שמאפשר לך להציע בזהירות שהחומרים הגבירו את ההתרשמות שלהם (ומצד השני של המטבע, אם האחורי היה פחות מהקודם, זה עשוי לרמוז שהחומרים הפחיתו או הורידו את התרשמותם).

יש הרבה קצוות רופפים ומטרידים שצריכים להתמודד איתם במחקר כזה.

לדוגמה, בדרך כלל נרצה שתהיה לנו מה שנקרא קבוצת ביקורת שנוכל להשוות לאלה שמקבלים את הטיפול הניסיוני. הנה למה. נניח שפעולת הישיבה מול קיוסק לקריאת חומרים הייתה הבסיס האמיתי לכך שהתרשמות שונו. יכול להיות שאופי החומרים הנצרכים אינו מהותי בערך להשפעת הרושם. רק לשבת ולקרוא כל דבר, כמו הסיפורים האחרונים על חתולים שעושים דברים מצחיקים, לבד עשוי לעשות את העבודה. לכן אנו עשויים לארגן שכמה נושאים יהיו בקבוצת הביקורת שלנו שנחשפת לחומר אחר לקריאה, מלבד מדיניות המק"ס וחומרי ההישגים.

אנחנו לא יודעים אם זה נעשה במקרה זה (נראה שאף אחד לא הזכיר את הפן הזה עדיין).

אני מבין שאתה כבר מתעצבן מהחלק הנפיץ התקשורתי של המחקר. נעבור במהירות לחלק הזה.

כיצד נוכל לזהות אם הנבדקים בניסוי זה הגיבו או שינו את ההתרשמות שלהם כתוצאה מקריאת החומרים המוצגים?

אמצעי מקובל יהיה לשאול אותם.

הייתם שולחים מראש אולי שאלון ששואל אותם את התרשמותם מהמק"ס. לאחר מכן, בעקבות החשיפה לטיפול הניסיוני, כמו בקריאה של חומרים המוצגים, נוכל להגיש שאלון נוסף. לאחר מכן ניתן להשוות את התשובות שנתנו הנבדקים על בסיס לפני ואחרי. אם היינו משתמשים גם בקבוצת ביקורת, היינו מניחים שתשובות קבוצת הביקורת לא ישתנו מהותית מהקודם לאחרי (בהתפיסה שהסתכלות בסיפורים על חתולים משתובבים לא הייתה אמורה להשפיע על התרשמותם של המק"ס).

מעשה זה של שאלת הנבדקים להתרשמותם אינו בהכרח פשוט כפי שהוא עשוי להיראות.

נניח שהנבדקים בניסוי מקבלים תחושה או סחיפה כללית שאתה רוצה שהם יגיבו לטיפול הניסיוני בצורה מסוימת. במקרה כזה, הם עלולים להגזים בכוונה בתגובות שלהם בחלק שלאחר הניסוי. בהחלט ראית את זה קורה. אם אני עושה מבחן טעימה לסודה חדשה שיוצאת לשוק, אני עשוי להתנהג כאילו התענגתי בטירוף על הסודה, אעשה זאת בתקווה אולי להופיע בפרסומת של יצרנית הסודה ולקבל את חמש עשרה דקות התהילה הראויות ביותר. .

העיקר הוא שעצם לשאול אנשים את דעתם אינו אמצעי בטוח למדידת שינויים. זו גישה אחת. גישות אחרות יכולות וננקטות גם הן לעתים קרובות.

כיצד בחר המחקר המסוים הזה לאמוד את התגובות של הנבדקים?

ככל הנראה, נעשה שימוש בשתי שיטות לפחות. שיטה אחת כללה ביצוע סריקת פנים ושימוש בתוכנת זיהוי פנים מבוססת AI כדי להעריך את תגובות הנבדקים. השיטה האחרת, לפי הדיווחים, הייתה סוג כלשהו של סריקת גלי מוח. עדיין לא דווח באיזה סוג של מכשירי סריקת גלי מוח נעשה שימוש, וגם לא איזו תוכנת ניתוח גלי מוח מבוססת בינה מלאכותית הופעלה.

דיווחים שונים הצביעו על כך שהמחקר קבע זאת לגבי אופי הניסוי: "מצד אחד, הוא יכול לשפוט כיצד חברי המפלגה קיבלו מחשבה וחינוך פוליטי". והמחקר כביכול הזכיר גם את זה: "מצד שני, הוא יספק נתונים אמיתיים למחשבה ולחינוך פוליטי כדי שניתן יהיה לשפר ולהעשיר אותו." המחקר יוחס לביצוע בחסות מרכז המדע הלאומי המקיף של Hefei בסין.

דיווחים בתקשורת מצביעים על כך שהמחקר רמז לטענה שסריקות זיהוי הפנים וסריקות גלי המוח הצליחו לסייע בזיהוי שהתרשמות שאחרי הועצמו לגבי המק"ס.

ברצוני לציין עבורך שבלי להיות מסוגלים לסקור ישירות את המערכות המשמשות ולבחון מקרוב את עבודת המחקר, איננו יודעים את הפרטים של האופן שבו נעשה שימוש בדיוק במערכות מבוססות AI.

יכול להיות שהנבדקים הגיבו למסגרת הניסוי ולא הגיבו לטיפול הניסיוני. כל מי שמשתתף במחקר עלול להיות מודאג מלכתחילה. זה עלול לבלבל את כל המאמצים לבצע סריקות גלי מוח או ניתוח דפוסי פנים. יש גם סיכוי שהם חשו מוטיבציה לרצות את החוקרים, ובחרו להמציא מחשבות חיוביות לאחר שראו את החומרים, וזה יכול לבוא לידי ביטוי בתיאוריה בסריקות גלי המוח ובסריקות הפנים (אולי, אם כי בבקשה דעו שיש עסקה של מחלוקת נלהבת לגבי תקפותן של טענות כאלה, כפי שאבהיר לרגע), בתקווה להטות את התוצאות ולהראות שהן הושפעו לטובה.

תגובת הטוויטר דחתה באופן מהותי כי עצם הרעיון של שימוש בסריקות גלי מוח המועצמות בינה מלאכותית וזיהוי פנים הוא כשלעצמו מעשה מזעזע ומקומם. רק מפלצות אנושיות ישתמשו במכשירים מסוג זה, נאמר לנו על ידי כמה מהציוצים האלה.

אני חייב לבקש ממך לשבת ולהכין את עצמך למשהו שעלול להיות הפתעה גסה ומזעזעת.

ישנם חוקרים רבים ברחבי העולם המשתמשים באותם סוגים של טכנולוגיות במחקריהם. זו בהחלט לא הפעם הראשונה שבה נעשה שימוש ביכולת סריקת גלי מוח על נבדקים אנושיים במאמץ מחקר. זו גם בהחלט לא הייתה הפעם הראשונה בה נעשה שימוש בזיהוי פנים על נבדקים אנושיים למטרות ניסוי. אפילו חיפוש שטחי מקוון יראה לך המון המון מחקרים ניסיוניים בכל מיני מדינות ומעבדות שהשתמשו במכשירים מסוג זה.

עכשיו, עם זאת נאמר, השימוש בהם כדי לאמוד נאמנות למק"ס זה לא משהו שתמצאו בו הרבה התמקדות. כאשר משתמשים בבינה מלאכותית כזו לשליטה ממשלתית, נחצה קו אדום, כמו שאומרים.

זה החלק המצמרר בעליל של כל הערכה והקבוץ.

החשש המובע על ידי רבים הוא שאם ממשלות יבחרו להשתמש בטכנולוגיית סריקת גלי מוח ובזיהוי פנים כדי לוודא נאמנות למשטרים בהישג יד, אנו הולכים למצוא את עצמנו בעולם דיסטופי של פגיעה. כאשר אתה הולך ברחוב ציבורי, יכול להיות שמכשיר המותקן על עמוד תאורה יקבע באופן חשאי את מנת הנאמנות שלך.

אחד מניח שאם נראה שהפנים שלך לא רומזות שאתה נאמן מספיק, או אם סריקת גלי המוח מציעה את אותו הדבר, בריונים ממשלתיים עלולים לפתע למהר ולהתפוס בך. מטריד. תְהוֹמִי. אסור לאפשר.

זה העיקר מדוע עלתה כותרת זורמת סערה וזעם על ידיעה זו.

תדמיין את זה. אולי אנחנו הולכים לבנות מערכות ממוחשבות ולאחר מכן להפעיל אותן שמשתמשות בחדשנות הבינה המלאכותית כדי להחליט אם אנחנו נאמנים או לא. אם הייתם מנסים לשכור אנשים לשבת ולעשות את אותו הדבר, הייתם צריכים הרבה אנשים והייתה לכם בעיה לוגיסטית של לנסות למקם אותם כדי שיראו את כולם. במקרה של מערכת מבוססת בינה מלאכותית, כל מה שאתה צריך לעשות הוא להגדיר את המכשירים האלקטרוניים על עמודי תאורה, דפנות מבנים וכו'. סריקת הנאמנות יכולה להתרחש 24×7, בכל עת, בכל המקומות המאובזרים כך. לאחר מכן ניתן להזין את זה למסד נתונים מסיבי.

אנחנו הופכים לבני אדם שהם בסך הכל גלגלי שיניים בתוך מערכת אקולוגית חברתית מדכאת ורואה-כל צופה הכל. העין הרואה אינה רק צופה במה שאנו עושים. זה גם מפרש את מה שהפנים שלנו מתיימרים לומר על הנאמנות שלנו לממשלה. כמו כן יש לבחון את מוחנו בשל סיבה איומה דומה.

Yikes!

יש חשש משני הנובע גם מזה, אם כי אולי לא ממש קוצני בהשוואה להשלכות האח הגדול כפי שכבר שורטט.

תחשוב על שתי השאלות הדוחקות האלה:

  • האם נוכל לקבוע באופן אמין שסריקת גלי מוח יכולה להעיד על נאמנותך?
  • האם נוכל לקבוע בצורה מהימנה שסריקת זיהוי פנים יכולה להעיד על נאמנותך?

תחזיקו מעמד, אולי אתם צועקים בקצה העליון של הריאות.

אני מבין ומכיר שאולי לא אכפת לך כל כך מהיבטי האמינות כשלעצמם. האם זה יכול להיעשות בצורה מהימנה פחות מכריע מהעובדה שזה נעשה בכלל. אף אחד לא צריך להיות תחת ביקורת כזו. שכח אם הטכנולוגיה עובדת כראוי למשימה זו. אנחנו צריכים לא לקחת על עצמו את המשימה בתחילת הדרך.

בכל מקרה, התשובה כרגע היא לא נחרץ, כלומר שמערכות AI קיימות שעושות מראית עין של "סריקות גלי מוח" וזיהוי פנים אינן מסוגלות מספיק לעשות את הקפיצה הזו.

אולי ראית לאחרונה שחלק מיצרני זיהוי הפנים עשו קצת נסיגה במונחים של אופן השימוש במערכות זיהוי הפנים שלהם. בפוסט הקרוב, אדון במאמצים האחרונים, למשל של מיקרוסופט, לנסות ולבלום את הזרם של אלה המשתמשים בכלי זיהוי הפנים שסופקו על ידי מיקרוסופט למטרות הרבה מעבר למה שהטכנולוגיה מסוגלת לעשות או צריכה לשמש עבורם. . אולי תמצא לעניין את ההסתכלות הקודמת שלי על הסתייגויות האתיקה של AI שכבר פורסמו היטב על זיהוי פנים, ראה הקישור כאן. דנתי גם בזירה של סריקות גלי מוח, ראה את הדיון שלי ב הקישור כאן.

בקצרה, אין אמצעים מהימנים או הגיוניים להציע עד כה שסריקת גלי מוח או סריקת זיהוי פנים יכולים להתיימר לתאר את נאמנותו של מישהו. אפילו היבטים בסיסיים ככל הנראה כמו האם אתה יכול לתאם באופן מהימן את הסריקות האלה לשאלה אם מישהו שמח מול עצוב עדיין נידונים בלהט. הניסיון להעלות את ההקדמה למשהו אמורפי ומשתנה כמו נאמנות הוא גשר רחוק מדי.

אני יכול להוסיף, שיש המאמינים בלהט שבסופו של דבר נגיע לשם. לכן ניסיתי בזהירות לציין שאנחנו עדיין לא שם, במקום להצהיר שלעולם לא נגיע לשם. אף פעם היא מילה גדולה. אתה צריך להיות בטוח לחלוטין אם אתה מתכוון להסתובב שזה יקרה לעולם לא להיות בר ביצוע (יש לזכור ש"לעולם לא" מקיף עשרות שנים מהיום, מאות שנים מהיום, ואלפי או מיליוני שנים מהיום).

חלקם הגיבו לסיפור החדשותי על מחקר מעבדה סינית זה כאינדיקטור למידת הסיכון שבה העולם נוטה לשימושים לא הולמים ומסוכנים של AI. אשתף אתכם לרגע בהצצה על מה זה AI Ethics. זה יעזור לך לראות בצורה ברורה יותר מדוע נראה שהמחקר הספציפי הזה מפר רבים אם לא כמעט כל המצוות המקובלות של AI אתי.

תאמינו או לא, יש שהציעו שאולי אנחנו עושים הר מגבעת חפרפרת בנוגע למחקר הספציפי הזה.

האם אנחנו?

הטענה הנגדית היא שחפרפרת יכולה להפוך בקרוב להר. ברעיון הפתגמי של כדור שלג שהולך וגדל ככל שהוא מתגלגל במורד גבעה מושלגת, עלינו לעצור את כדור השלג מלצאת לדרך. אם נסבול מחקרים מסוג זה, אנו נותנים לכדור השלג הזה להתחיל את דרכו. על ידי דיבור וקריאת מחקרים כאלה, אולי נוכל למנוע את כדור השלג.

דבר אחד בטוח, אנחנו על סף פתיחת תיבת פנדורה בכל הנוגע להיבטי בינה מלאכותית, ונשארת השאלה האם נוכל למנוע את פתיחת הקופסה או לפחות למצוא אמצעים להתמודדות זהירה עם כל מה שיוצא. ברגע שהקופסה שחררה את תוכנה השטני.

אם שום דבר אחר, יש לקוות, סופות תקשורת מסוג זה יעוררו דיון נרחב על האופן שבו אנו הולכים למנוע מעשי רשעים הקשורים לבינה מלאכותית ולמנוע סיכונים קיומיים רבים הנגרמים בבינה מלאכותית. אנחנו צריכים להעלות מדרגה את המודעות החברתית שלנו לאתיקה של AI ושיקולי AI אתיים.

לפני שנכנס לעוד קצת בשר ותפוחי אדמה על השיקולים הפראיים והצמריים העומדים בבסיס מערכות בינה מלאכותיות מסוג זה, בואו נבסס כמה יסודות נוספים בנושאים חיוניים מאוד. עלינו לצלול בקצרה לתוך אתיקה של בינה מלאכותית ובמיוחד בהופעת למידת מכונה (ML) ולמידה עמוקה (DL).

אולי אתם מודעים במעורפל לכך שאחד הקולות החזקים ביותר בימינו בתחום הבינה המלאכותית ואפילו מחוץ לתחום הבינה המלאכותית מורכב מהצעקה למראה גדול יותר של בינה מלאכותית אתית. בואו נסתכל על מה זה אומר להתייחס לאתיקה של בינה מלאכותית ולאתיקה בינה מלאכותית. נוסף על כך, נחקור למה אני מתכוון כשאני מדבר על למידת מכונה ולמידה עמוקה.

פלח או חלק מסוים של אתיקה של בינה מלאכותית שזכו לתשומת לב רבה בתקשורת מורכבים מבינה מלאכותית המפגינה הטיות וחוסר שוויון לא רצויים. אתה אולי מודע לכך שכשהעידן האחרון של בינה מלאכותית יצא לדרך, היה פרץ עצום של התלהבות ממה שחלק מכנים עכשיו AI לתמיד. לרוע המזל, בעקבות אותה התרגשות גועשת, התחלנו להיות עדים AI למען הרע. לדוגמה, מערכות שונות של זיהוי פנים מבוססות בינה מלאכותית התגלו כמכילות הטיות גזעיות והטיות מגדריות, שעליהן דיברתי ב- הקישור כאן.

מאמצים להילחם נגד AI למען הרע פועלים באופן פעיל. חוץ מזה קולני משפטי בשאיפה לרסן את העוולות, יש גם דחיפה מהותית לאימוץ אתיקה של AI כדי לתקן את גנאי הבינה המלאכותית. הרעיון הוא שעלינו לאמץ ולאמץ עקרונות מפתח אתיים בינה מלאכותית לפיתוח ותחום ה- AI לעשות זאת כדי להפחית את AI למען הרע ובו זמנית מבשר וקידום העדיף AI לתמיד.

לגבי רעיון קשור, אני תומך בניסיון להשתמש בבינה מלאכותית כחלק מהפתרון לבעיות בינה מלאכותית, להילחם באש עם אש באופן חשיבה זה. אנו יכולים למשל להטמיע רכיבי בינה מלאכותית אתית לתוך מערכת בינה מלאכותית שתפקח על אופן הפעולה של שאר הבינה המלאכותית ובכך עשויה לתפוס בזמן אמת כל מאמצים מפלים, ראה הדיון שלי ב- הקישור כאן. יכול להיות לנו גם מערכת AI נפרדת הפועלת כסוג של צג אתיקה של AI. מערכת הבינה המלאכותית משמשת כמפקחת כדי לעקוב ולזהות מתי בינה מלאכותית אחרת נכנסת לתהום הלא אתית (ראה ניתוח שלי של יכולות כאלה ב הקישור כאן).

בעוד רגע, אשתף אתכם בכמה עקרונות-על העומדים בבסיס אתיקה של AI. יש המון רשימות כאלה שמסתובבות פה ושם. אפשר לומר שעדיין אין רשימה יחידה של ערעור והסכמה אוניברסליים. אלו החדשות המצערות. החדשות הטובות הן שלפחות ישנן רשימות אתיקה של AI והן נוטות להיות די דומות. בסך הכל, זה מצביע על כך שבאמצעות סוג של התכנסות מנומקת אנו מוצאים את דרכנו לעבר משותף כללי של מה שמכיל אתיקה של AI.

ראשית, הבה נסקור בקצרה כמה מהמצוות האתיות הכוללות בינה מלאכותית כדי להמחיש מה אמור להיות שיקול חיוני עבור כל מי שמעצב, מעבד או משתמש בבינה מלאכותית.

לדוגמה, כפי שנאמר על ידי הוותיקן ב רומא קריאה לאתיקה של AI וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • שקיפות: באופן עקרוני, מערכות AI חייבות להיות ניתנות להסבר
  • הַכלָלָה: יש לקחת בחשבון את הצרכים של כל בני האדם כדי שכולם יוכלו להפיק תועלת, ולהציע לכל הפרטים את התנאים הטובים ביותר להתבטא ולהתפתח
  • אַחֲרָיוּת: מי שמתכננים ומפרסים את השימוש ב-AI חייבים להמשיך באחריות ובשקיפות
  • חוסר זוגיות: אין ליצור או לפעול על פי הטיה, ובכך לשמור על הגינות וכבוד האדם
  • אֲמִינוּת: מערכות AI חייבות להיות מסוגלות לעבוד בצורה אמינה
  • בטיחות ופרטיות: מערכות AI חייבות לעבוד בצורה מאובטחת ולכבד את פרטיות המשתמשים.

כפי שנאמר על ידי משרד ההגנה האמריקאי (DoD) בכתביהם עקרונות אתיים לשימוש בבינה מלאכותית וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • אחראי: אנשי DoD יפעילו רמות מתאימות של שיקול דעת וטיפול תוך שהם יישארו אחראים לפיתוח, פריסה ושימוש ביכולות AI.
  • הוֹגֶן: המחלקה תנקוט בצעדים מכוונים כדי למזער הטיה לא מכוונת ביכולות הבינה המלאכותית.
  • ניתן למעקב: יכולות ה-AI של המחלקה יפותחו וייפרסו כך שלצוות הרלוונטי יהיה הבנה מתאימה של הטכנולוגיה, תהליכי הפיתוח והשיטות התפעוליות החלות על יכולות בינה מלאכותית, לרבות מתודולוגיות שקופות וניתנות לביקורת, מקורות נתונים ונוהל עיצוב ותיעוד.
  • אָמִין: ליכולות הבינה המלאכותית של המחלקה יהיו שימושים מפורשים ומוגדרים היטב, והבטיחות, האבטחה והיעילות של יכולות כאלה יהיו כפופות לבדיקה והבטחה במסגרת אותם שימושים מוגדרים לאורך כל מחזור החיים שלהן.
  • ניתן לממשל: המחלקה תתכנן ותהנדס יכולות בינה מלאכותית למילוי הפונקציות המיועדות להן תוך יכולת לזהות ולהימנע מהשלכות לא מכוונות, ויכולת לנטרל או להשבית מערכות פרוסות המפגינות התנהגות לא מכוונת.

דנתי גם בניתוחים קולקטיביים שונים של עקרונות האתיקה של בינה מלאכותית, כולל כיסיתי סט שהומצא על ידי חוקרים שבדק וריכז את המהות של עקרונות אתיקה לאומיים ובינלאומיים רבים של AI במאמר שכותרתו "הנוף הגלובלי של הנחיות האתיקה של בינה מלאכותית" (שפורסם) ב טבע), ושהסיקור שלי בוחן ב הקישור כאן, שהובילה לרשימת אבני המפתח הזו:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

כפי שאתה יכול לנחש ישירות, הניסיון לדייק את הפרטים העומדים בבסיס העקרונות הללו יכול להיות קשה מאוד. אפילו יותר מכך, המאמץ להפוך את העקרונות הרחבים הללו למשהו מוחשי ומפורט מספיק כדי לשמש בעת יצירת מערכות בינה מלאכותית הוא גם אגוז קשה לפיצוח. קל בסך הכל לנפנף קצת ביד על מה הם מצוות האתיקה של בינה מלאכותית וכיצד יש להקפיד עליהן באופן כללי, בעוד שזה מצב הרבה יותר מסובך בקידוד הבינה המלאכותית שצריך להיות הגומי האמיתי שפוגש את הדרך.

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים את מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית. כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שצוין קודם לכן, נדרש כפר כדי להמציא ולהשיג בינה מלאכותית, ועבורו הכפר כולו צריך להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

בואו גם נוודא שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי מרגיש AI, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לשקול שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שחלק משערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

בואו נשאיר את הדברים יותר מדוייקים ונשקול את הבינה המלאכותית החישובית הלא-חושית של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

הבה נחזור להתמקדות שלנו במערכות בינה מלאכותית המשמשות למטרות בלתי הולמות או אולי עוולות מוחלטות וכיצד זה קשור למחקר שפורסם לאחרונה על נאמנות המק"ס.

שני שיקולים עיקריים עולים בראש:

1) מופע זה של בינה מלאכותית הוא חלק מדפוס מתמשך גדול יותר של שימוש מבינה מלאכותית מדאיג ולכן מבשר רעות ומאיר עיניים לגבי המתרחש

2) אפשר להוציא את החתול מהשק כך שאם בינה מלאכותית כזו מאומצת במדינה אחת היא יכולה להתפשט בקלות גם למדינות אחרות

התחל עם הנקודה הראשונה לגבי מופע זה של AI שהוא חלק מדפוס מתמשך.

בסיס חשוב במיוחד להטריד במיוחד מהמחקר הספציפי הזה הוא שהוא חלק מדפוס גדול יותר של האופן שבו בינה מלאכותית שואפת לשמש חלק. אם זה היה המחקר היחיד שכזה שנערך אי פעם, יכול להיות שאנחנו מתרגשים ממנו קלות. אף על פי כן, זה כנראה לא יהדהד בלהט כזה כפי שאנו רואים כעת.

זה אולי טפטוף-טפטוף של סנטימטר לכיוון משהו שהולך לצאת משליטה.

כפי שדווח בחדשות, סין ידועה כמי שהתעקשה על נאמנות עזה למק"ס. יתר על כן, הוקמו או הוקמו אמצעים שונים כדי להבטיח שאנשים יוכנסו לדוקטרינה השלטונית. צוינו מקרים של מחקרים קודמים המבקשים להמציא אלגוריתמי בינה מלאכותית שיוכלו לאמוד את תנאי החשיבה של חברי המפלגה (ראה הנתון הנתמך על ידי סין זמני לימוד בשנת 2019 שהזכיר מאמצים אלה).

אתם אולי זוכרים שבשנת 2018, סגן הנשיא מייק פנס נשא נאום במכון הדסון והדגיש ש"שליטי סין שואפים ליישם מערכת אורווליאנית המבוססת על שליטה כמעט בכל היבט של חיי אדם" (זו הייתה התייחסות ליישום המק"ס של מערכת ניקוד אשראי חברתית, נושא של מחלוקת בולטת). אתה יכול לטעון בקלות שהמחקר האחרון של המק"ס הוא צעד נוסף בכיוון הזה.

אנחנו לא יודעים מתי או אם הקש האחרון ישבור את גב הגמל, כך שהמחקרים החד-פעמיים הללו הופכים למערכות ניטור נרחבות מבוססות בינה מלאכותית.

הנקודה השנייה שראויה לתשומת לב היא שאיננו יכולים להניח שסוג זה של AI יהיה מוגבל רק לסין. בעיקרו של דבר, למרות ששימוש ב-AI מסוג זה בסין שעלול להתפשט הוא כשלעצמו מטריד, מדינות אחרות עשויות לעשות את אותו הדבר.

ברגע שאומרים שה-AI לכך מוכן לפריים טיים, סביר להניח שלא יידרש הרבה עד שמדינות אחרות יחליטו שגם הן רוצות ליישם את זה. החתול ייצא מהשק. יש להניח שמדינות מסוימות ישתמשו בבינה מלאכותית זו בדרכים מעיקות לחלוטין ולא ינסו להעמיד פנים על כך. מדינות אחרות עשויות לכאורה לנסות להשתמש בסוג זה של בינה מלאכותית למטרות שנראות מועילות, שמתוכם יש בסופו של דבר חיסרון שכמעט יהיה בלתי נמנע.

למעשה, להציע שסוג זה של בינה מלאכותית אולי יאומץ רק ברגע שהוא ייראה כמוכן לפריים טיים הוא קצת כינוי שגוי. אולי זה לא משנה אם ה-AI יכול לעבוד בצורה בטוחה בצורה זו. ה-AI יכול לשמש כסיפור כיסוי, ראה את ההסבר שלי ב הקישור כאן. ללא קשר למה שה-AI באמת מסוגל להשיג, הרעיון הוא שה-AI יכול להוות יומרה שימושית כדי להביא לניטור אוכלוסייה ותכניות לאמוד ולהבטיח נאמנות מוחלטת לרשויות.

בשלב זה של הדיון הכבד הזה, אני מתערב שאתה מעוניין בכמה דוגמאות להמחשה שעשויות להציג את הנושא הזה. יש מכלול מיוחד ופופולארי של דוגמאות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית, כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות מציאותיות המציגות דילמות של אתיקה של בינה מלאכותית, כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות בינה מלאכותית זו הוא הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות נהיגה עצמית אמיתיות מבוססות בינה מלאכותית מאירה משהו לגבי שימוש לרעה בבינה מלאכותית, ואם כן, מה זה מציג לראווה?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

לשם הבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שבהן ה- AI נוהג במכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לחלוק במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות שחולקות בשיתוף את משימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAS (Advanced Driver-Assistance Systems).

עדיין אין מכונית נהיגה עצמית אמיתית ברמה 5, ואנחנו עדיין לא יודעים אפילו אם זה יהיה אפשרי, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מכוניות בנהיגה עצמית ושימוש לרעה בבינה מלאכותית

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני מקווה שזה מספק כמות מספקת של אזהרות כדי לעמוד בבסיס מה שאני עומד להתייחס אליו.

הבה נשרטט תרחיש של מכונית בנהיגה עצמית שעשוי למנף את הבינה המלאכותית בדרכים משורטטות או שגויות.

אני הולך לחלוק איתכם כמה השלכות לרכב נהיגה עצמית מבוססת בינה מלאכותית שעלולות לגרום לכם לרעוד ולהפריע. אלו היבטים שכמעט אף אחד לא דן בהם כרגע. העליתי את העניינים שוב ושוב, אם כי אני מכיר בגלוי שעד שלא יהיה לנו אימוץ נפוץ של מכוניות בנהיגה עצמית, אנחנו לא הולכים לקבל הרבה אחיזה באשר לחברה להיות מודאגת או כועסת על מה שנראה כמו היום כרעיונות מופשטים בלבד .

האם אתה מוכן?

נתחיל בהנחת יסוד.

מכוניות לנהיגה עצמית מבוססות בינה מלאכותית יצוידו במצלמות וידאו, באופן הגיוני. זה מאפשר למכונית בנהיגה עצמית לקבל תמונות וידאו של סצנת הנהיגה. בתורה, מערכת נהיגת הבינה המלאכותית שפועלת על גבי המחשבים במכונית הנוהגת בעצמה נועדה לבחון באופן חישובי את הסרטון שנאסף ולהבין היכן נמצא הכביש, היכן נמצאות המכוניות הסמוכות, היכן נמצאים הולכי הרגל וכן הלאה. אני מבין שאני מדקלם מכוניות בנהיגה עצמית 101 יסודות.

ישנן מצלמות וידאו המותקנות בחלק החיצוני של הרכב האוטונומי והן מצביעות החוצה. בנוסף, בגדול, אפשר לצפות שיהיו מצלמות וידאו על הרכב או בתוכו המכוונות פנימה אל פנים המכונית הנוהגת בעצמה. למה ככה? קל-פייזי, כי יהיו הרבה שימושים חשובים לצילום וידאו של המתרחש בתוך הרכב האוטונומי.

כשאתה יוצא לסיבוב במכונית שנוהגת בעצמך, אתה כבר לא צריך להיות הנהג. מה תעשה אז בתוך מכונית נהיגה עצמית?

דבר אחד שאתה יכול לעשות הוא ליצור אינטראקציה עם אחרים בבית או במשרד. הנה אתה, בדרך לעבודה, שיגיד קחו שעה של נסיעה במכונית הנוהגת בעצמכם, ואתם כבר יכולים להתחיל את יום העבודה שלכם על ידי ביצוע סשן אינטראקטיבי מקוון בזמן אמת דמוי זום. הם יכולים לראות אותך, בגלל המצלמות הפונות פנימה לתוך המכונית הנוהגת בעצמה. אתה יכול לראות אותם אולי על מסך LED בתוך המכונית לנהיגה עצמית. בסוף היום שלך, בזמן שאתה חוזר הביתה, אתה יכול לעשות דיון וידאו אינטראקטיבי דומה עם הילדים שלך כשהם מתחילים להכין את שיעורי הבית שלהם לערב.

שימוש נוסף יהיה לקחת שיעורים. עכשיו, כשאתה לא צריך לבזבז את זמנך בנהיגה, אתה יכול להפוך את הזמן המוות הזה בתוך מכונית נהיגה עצמית לשיפור הכישורים שלך או קבלת הסמכה או תואר. באמצעות המצלמות הפונות פנימה, המדריך שלך יכול לראות אותך ולדון כיצד מתקדם האימונים שלך.

שימוש נוסף יהיה לנסות ולהבטיח שרוכבים במכוניות בנהיגה עצמית לא ישתוללו. במכונית המונעת על ידי אדם, הנהג הוא נוכחות בוגרת שבדרך כלל מונעת מהרוכבים לעשות דברים מטורפים כמו סימון הפנים בגרפיטי. מה יקרה עם מכוניות לנהיגה עצמית מבוססות בינה מלאכותית? יש החוששים שהרוכבים יבחרו לקרוע את פנים הרכבים. כדי לנסות ולמנוע זאת, חברת שיתוף הנסיעות שפורסת את המכוניות האוטונומיות תשתמש ככל הנראה במצלמות וידאו הפונות פנימה כדי לפקח על מה שאנשים עושים בתוך הרכב האוטונומי.

אני מניח שאתה משוכנע שיהיו לנו מצלמות וידאו שמצביעות על הפנים של מכוניות בנהיגה עצמית, בנוסף למצלמות שמצביעות החוצה כדי להבחין בסצנת הנהיגה.

אתה מוכן עכשיו למה שהתייחסתי אליו כעין השוטטת, ראה את הניתוח שלי ב הקישור כאן.

ראשית, שקול את מצלמות הווידאו המצביעות החוצה.

לאן שלא תלך המכונית הנוהגת בעצמה, היא עשויה להיות מסוגלת להקליט בווידיאו את כל מה שהמצלמות רואות. מכונית בנהיגה עצמית שנותנת טרמפ למישהו מביתו ולוקחת אותו למכולת יחצה שכונה והסרטון יתעד לא רק את הכביש אלא גם את כל מה שקורה בטווח הראייה. אב ובנו משחקים בחצר הקדמית שלהם. משפחה יושבת במרפסת הקדמית שלה. עוד ועוד זה ממשיך.

נכון לעכשיו, יש לנו כל כך מעט מכוניות בנהיגה עצמית על הכבישים הציבוריים שהיכולת הזו לצלם וידאו של פעילויות יומיומיות היא נדירה יחסית ואינה מהותית.

דמיינו שבסופו של דבר נשיג מכוניות בטוחות ונרחבות בנהיגה עצמית. אלפים מהם. אולי מיליונים. יש לנו כיום כ-250 מיליון מכוניות מונעות על ידי אדם בארה"ב. בסופו של דבר, אלה יוחלפו פחות או יותר במכוניות בנהיגה עצמית או פשוט לא יהיו בשימוש יותר, ובעיקר יהיו לנו מכוניות בנהיגה עצמית בכבישים שלנו. המכוניות הנוהגות בעצמן מונעות על ידי AI וככאלה יכולות לשוטט בעצם 24×7. אין הפסקות מנוחה, אין הפסקות שירותים.

ניתן להעלות את נתוני הווידאו ממכוניות אלה בנהיגה עצמית באמצעות חיבורי רשת אלקטרוניים של OTA (Over-TheAir). מכוניות בנהיגה עצמית ישתמשו ב-OTA כדי להוריד את עדכוני תוכנת הבינה המלאכותית האחרונה לרכב. בנוסף, ה-OTA יכול לשמש להעלאת נתונים מהמכונית הנוהגת בעצמה לתוך מסד נתונים מבוסס ענן.

בסך הכל, ניתן יהיה לחבר את הנתונים שהועלו יחד. עם התפירה, אתה יכול להרכיב את היציאות היומיומיות של כל מי שיצא החוצה בכל יום בכל מקום שעשה שימוש נרחב במכוניות בנהיגה עצמית.

זו העין המשוטטת שממנה הזהרתי.

כעת אנו יכולים לצרף את מחקר המק"ס לסוג כזה של יכולת. נניח שלממשלה יש גישה לכל נתוני הווידאו שנאספו. לאחר מכן הם יכלו להשתמש באלגוריתם זיהוי פנים מבוסס בינה מלאכותית כדי לברר לאן הלכת, באיזו שעה ביום, במהלך מסעות חייך היומיומיים. בנוסף, יש להניח שהם יכולים להשתמש בנתח מבוסס AI מבוסס "נאמנות" כדי לראות אם נראה שיש לך מבט נאמן על הפנים שלך או לא.

רק תארו לעצמכם שביום שלישי אחר הצהריים הלכתם כדי לקבל כריך במסעדה מקומית. מכוניות בנהיגה עצמית עברו על הכביש. כל הסרטונים הרבים תפסו אותך תוך כדי הליכה של חמש דקות כדי לקבל ביס. הנתונים הועלו למסד נתונים מרכזי. הממשלה הפעילה את תוכנית זיהוי הפנים שלה בינה מלאכותית על הנתונים.

מסתבר שה-AI "קבע" שיש לך מבט לא נאמן על הפנים שלך.

אולי המבט הלא נאמן הזה קרה רק לרגע. חיכית בפינת רחוב שהאור יתחלף כדי שתוכל לחצות את הרחוב למסעדה. באותו רגע, היה לך עווית קלה של גועל שנאלצת לחכות יותר מדי זמן לסמל ההליכה. האם זה היה אינדיקציה אולי לחוסר נאמנותך לממשלה?

כן, ה-AI מחושב בחישוב, היית חוסר נאמנות בשפע באותו רגע בזמן. כשתגיע הביתה באותו לילה, הממשלה ארגנה את מעצרך.

אבל רגע, יש עוד.

זכרו שגם מצלמות וידאו מופנות פנימה.

באותו יום שלישי, כשנסעת לעבודה במכונית בנהיגה עצמית, מצלמות הווידאו לכדו כל רגע שלך. זה הועלה למסד נתונים מרכזי. תוכנת הבינה המלאכותית שמנתחת דפוסי פנים לחוסר נאמנות ערכה בדיקת דפוס חישובי של הבעות הפנים שלך במהלך המסע למשרד.

בשלב מסוים, הסתכלת כלאחר יד אל מחוץ לרכב האוטונומי והבחנת בפועל בניין שחסם חלקית את הכביש וגרם למערכת הנהיגה בינה מלאכותית להאט את המכונית הנוהגת בעצמך. לשבריר שנייה, הפנים שלך רשמו מבט של לעג לפועל הבניין הזה שמאט את התנועה.

ניתוח דפוסי הפנים של AI פירש זאת כסימן לאי נאמנות לממשלה.

שתי מכות נגדך ביום אחד.

אתה חי על קרח דק.

כמובן, האם ה-AI "צודק" או "שגוי" לגבי היכולת לקבוע את הנאמנות שלך הוא כמעט חסר משמעות בהקשר זה. העיקר הוא ש-AI הוכנס למטרה זו. לבני האדם שפורסים את הבינה המלאכותית אולי אכפת או לא אכפת אם הבינה המלאכותית היא שימוש מתאים לסוג זה של משימה. ה-AI מאפשר שליטה ממשלתית, ללא קשר לתוקף הטכנולוגי עצמו.

זה מכסה את סריקת הפנים.

אם יש לנו בסופו של דבר כל סוג של מכשירים ניידים חסכוניים לביצוע סריקת גלי מוח (לכאורה), זה בהחלט יכול להיכלל גם במכוניות בנהיגה עצמית. מצלמות וידאו הן דבר בטוח עכשיו. האפשרות להחזיק מכשירי סריקת גלי מוח בקליבר הזה לא נמצאת בכרטיסים כרגע, אבל ברור שזה משהו שחושבים עליו לעתיד.

לחקירה שלי איך ממשלה עשויה לנסות להשתלט על אוכלוסייה על ידי שליטה במכוניות בנהיגה עצמית, ראה הקישור כאן. קיימת אפשרות דומה ששחקן זדוני עלול לנסות לעשות את אותו הדבר, ראה הקישור כאן. אלה לא נועדו להיות טקטיקות הפחדה באשר לסיקור על אותם נושאים קשורים, ובמקום זאת, הסבר על החשיבות של אבטחת סייבר ואמצעי זהירות אחרים שעלינו כחברה לשאוף לנקוט לגבי הופעתן של מכוניות בנהיגה עצמית בכל מקום. רכבים אוטונומיים אחרים.

סיכום

אני רוצה לכסות במהירות היבט אחד נוסף לגבי הבינה המלאכותית המשמשת לבירור נאמנות, שלדעתי הוא נושא נפרד במקצת, אבל כזה שכמה ציוצים ומדיה חברתית עבדו עליו.

ציינתי קודם שאין לנו בינה מלאכותית ואיננו יודעים אם ומתי. בוא נבדר את הרעיון שיהיה לנו AI חיוני. במקרה כזה, שקול את התרחיש הבא.

אנו באמצעות בינה מלאכותית שאינה תודעתית בוחרים להפעיל שימוש נרחב בבינה מלאכותית המוודאת מבחינה חישובית אם אנשים נאמנים לממשלה שלהם, באמצעות סריקות פנים, סריקות גלי מוח וכו'. זה מנוהל לחלוטין על ידי בני אדם בסמכות ומשמש אותם. זה התרחיש המטריד שתיארתי רק כמה רגעים קודם לכן.

הגיע הזמן להעלות את ההקדמה.

בינה מלאכותית הופכת לחושית. כעת, פוטנציאלית, הענקנו לבינה מלאכותית זו יכולת נרחבת של כנראה לזהות נאמנות וחוסר נאמנות בבני אדם. בינה מלאכותית רעה ששוקלת למחוק בני אדם עשויה להשתמש ביכולת הזו כדי להחליט שאכן בני אדם הולכים להיות לא נאמנים ויש להשמיד אותם לחלוטין. או אולי רק אותם בני אדם שמפגינים אינדיקציה של חוסר נאמנות דרך הפנים שלהם או המחשבות שלהם צריכים להימחט במיוחד.

זווית נוספת היא שה-AI רוצה לשעבד בני אדם, ראה הדיון שלי ב הקישור כאן.

נראה שהענקנו ל-AI מתנה מושלמת לביצוע המסע הזה. התשתית הקיימת שהקמנו מאפשרת ל-AI לשמור עלינו, בני האדם. אלה שנראה שהביעו אינדיקציה פנים לא נאמנה או חשבו על אדוני הבינה המלאכותית, הולכים להרגיש את זעמו של הבינה המלאכותית.

אני מבין שאמרתי שזו הגדלה. אני לא בטוח שזה המצב. נראה לי שבין אם יש לנו אדוני AI שמחליטים ישירות על גורלנו לעומת אדונים אנושיים שאולי משתמשים במערכת AI כדי לקבוע נאמנות, ובכן, אף אחת מההצעות לא נראית רצויה במיוחד.

הערה אחרונה לעת עתה.

החוקר והפילוסוף הרומי מרקוס טוליוס קיקרו קבע כי אין דבר אצילי יותר, דבר מכובד יותר, מנאמנות. אולי אנחנו נותנים לבינה מלאכותית להקדים אותנו ולהפוך לכלי להתגייס ולהבטיח "נאמנות" באמצעים איומים.

סיבה ראויה לתשומת לב לשים את AI אתיקה בראש רשימת המטלות שלנו.

מקור: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- אישור-שעשוי-לבשר על מערכות אוטונומיות-מעיקות/