אתיקה של בינה מלאכותית וחיסון פסיכולוגי המושרה על ידי בינה מלאכותית כדי לעזור לבני אדם עם דיסאינפורמציה

מה אנחנו הולכים לעשות לגבי השפע האדיר של דיסאינפורמציה ומידע מוטעה?

הכל הולך ומחמיר באופן מופגן, עם כל יום שעובר.

אולי בינה מלאכותית (AI) יכולה לבוא לעזרתנו. כן, זה נכון, אולי נוכל לרתום את השימושים המועילים של AI כדי להתמודד עם הצונאמי הבלתי פוסק שלנו של דיסאינפורמציה ומידע מוטעה. אולי נהיה חכמים לנסות לעשות זאת. כל שדרה של פתרון פוטנציאלי נראה ראוי למרדף.

מלבד זאת, ברצוני להודות מיד ולציין כי AI ללא ספק הולך גם להיות גם חלק מהבעיה. אין ספק שבני אדם יכולים בקלות למנף בינה מלאכותית כדי ליצור דיסאינפורמציה ומידע מוטעה. יתר על כן, ניתן להשתמש בבינה מלאכותית באופן ערמומי כדי לגרום לדיסאינפורמציה ומידע מוטעה להיראות תקפים להפליא ולהטעות בני אדם להאמין שהמידע המוצג הוא מדויק ועובדתי בצורה מפתה. צד פנים עצוב בהחלט של מה ש-AI מביא לשולחן. אנו נחזור לבעיית החיסרון הזו לקראת סוף הדיון הזה.

לעת עתה, בואו לעטות את פרצופי הסמיילי שלנו ולחקור כיצד AI מועיל להבאת דיסאינפורמציה ומידע מוטעה לברכיו האדירות. זרם תת חשוב אחד יהיה שכל זה משתלב במרכיבים חיוניים של אתיקה של AI. סיקור העמודים שלי בנושא אתיקה של AI ו-Ethical AI הוא מתמשך ונרחב, כולל הקישור כאן ו הקישור כאן, רק כדי שם כמה.

שקול את הדרכים הבאות של אבן הפינה שבהן AI יכול להיות בעל ברית מועיל במיוחד במלחמה בדיסאינפורמציה ובאינפורמציה שגויה:

  • עצור בהתחלה: ניתן להשתמש בבינה מלאכותית כדי לזהות ולנסות למחוק דיסאינפורמציה ומידע מוטעה לפני שהוא משתחרר
  • סינון לפני שנראה: ניתן להשתמש בבינה מלאכותית כדי לסנן דיסאינפורמציה ואינפורמציה שגויה כך שאינך צריך לדאוג לראות אותו
  • להכין אותך להיות חסין: ניתן להשתמש בבינה מלאכותית כדי לחזק את המוכנות והיכולת שלך להתמודד עם דיסאינפורמציה ואינפורמציה שגויה (הידועה באופן רשמי במקצת כמספקת סוג של חיסון פסיכולוגי)
  • אחר

נקודת התבליט הרשומה הראשונה כוללת ניסיון לעצור דיסאינפורמציה ומידע מוטעה ברגע המוקדם ביותר האפשרי, לפני שהתוכן מגיע לעולם.

זו גישה מאוד בעייתית. יש שיטענו בקול רם שזה עשוי להיות ניסיון של האח הגדול לדכא את חופש הביטוי. עד כמה ה-AI הזה יוכל להגיע? האם זה יכול למנוע מאנשים להביע את דעותיהם בחופשיות? באופן מוזר זה יכול להפוך למדרון חלקלק של AI שבסופו של דבר יהפוך לסיוט הגרוע ביותר של תוצאות מרושעות שהתחיל בתמימות עם הכוונות הטובות ביותר.

אני בטוח שהבנת את התמונה.

נקודת התבליט השנייה היא קצת יותר מתונה ומציעה שנוכל להשתמש ב-AI כדי לסנן עבורנו תוכן.

יכול להיות שיש לך בוט מסנן AI שיסרוק את כל עדכוני הנתונים הנכנסים שלך ממגוון חדשות ומקורות אחרים. ה-AI מותאם לתפוס כל דיסאינפורמציה או מידע שגוי שמתאימים לקריטריונים האישיים שלך. לפיכך, בתרחיש כזה, לא מדובר במצב של צנזורה של האח הגדול. אתה שולט ב-AI וכיצד הוא מסנן את תיבת הדואר הנכנס האמיתית שלך של מידע בשמך.

נשמע די טוב.

יש אמנם כמה חששות ראויים לציון.

לדוגמה, אנחנו כבר מאוד מקוטבים בדעותינו והשימוש הזה ב-AI עשוי להפוך את הקיטוב הזה לעמוק ואפל יותר. תארו לעצמכם שעם ה-AI החלקלק הזה שעובד ללא הפסקה 24×7, לעולם לא תצטרכו לראות שמץ של מידע שסיווגתם כעל פוטנציאל דיסאינפורמציה ומידע מוטעה. נקודת המבט המקוטבת שלך כעת כמעט מובטחת להישאר שלמה. כל היום ובכל פעם שאתה מבקש להעיף מבט במידע שמחכה לתשומת לבך, הוא תמיד נבחר מראש במלואו, ואין סיכוי להציץ במה שנקרא דיסאינפורמציה ומידע מוטעה.

אני אומר שדיסאינפורמציה ומידע מוטעה יכולים להיות מה שנקרא כי יש כמות עצומה של מחלוקת על מה בעצם מהווה דיסאינפורמציה ומידע מוטעה. יש מומחים שמתעקשים שיש בסיס מוחלט לבירור מהו דיסאינפורמציה ומהו דיסאינפורמציה. יש נכון ולא נכון. הכל יכול להיות מחושב מבלי לטעות שמשהו הוא או דיסאינפורמציה או דיסאינפורמציה.

לא כולם רואים את הדברים כל כך ברורים.

ניגוד הדיכוטומיה הפתגם או כיבוי הפתגם הוא הלך רוח מטעה. דיסאינפורמציה של אדם אחד עשויה שלא להיחשב דיסאינפורמציה לאדם אחר. כך גם לגבי מידע מוטעה. הקביעה היא שדיסאינפורמציה ומידע מוטעה נעים במונחים של טבע וגודל. הניסיון לסווג באופן סופי את כל המידע לערימה כזו או אחרת הוא הרבה יותר קשה ממה שמרמזת הנפת ידיים.

התמצית היא שלנקודת התבליט השנייה לגבי שימוש ב-AI כמנגנון סינון יש יתרונות. אין ספק שבינה מלאכותית תיושם יותר ויותר לשימוש זה. יחד עם זאת, עלינו להיות מודעים לאתגרים שבינה מלאכותית כזו עומדת להביא לידי ביטוי. בינה מלאכותית כמסנן לדיסאינפורמציה ואינפורמציה שגויה היא לא איזה כדור כסף או טריקה.

זה לוקח אותנו לנקודה השלישית, כלומר האפשרות להשתמש בבינה מלאכותית כדי להפוך את בני האדם לטובים יותר בהתמודדות עם דיסאינפורמציה ומידע מוטעה.

אני בספק אם בטח שמעתם הרבה על השדרה השלישית הזו של שימוש ב-AI בהקשר זה. זה רק מתחיל להופיע. אתה עכשיו בחזית של משהו שסביר שיגדל ויוכנס לשימוש בהדרגה. עם זאת, אנא דע כי ככל שהפופולריות הזו מתרחבת, גם המחלוקת בשאלה אם זו גישה מתאימה הולכת להיות גלויה מאוד.

חלק מהבעיה הוא שבינה מלאכותית משמשת במקצת עבור מה שחלקם יתייחסו בצורה מבזה כאל לשחק משחקי חשיבה עם בני אדם.

זה נראה מבשר רעות.

זה גם מביא אותנו לתחום האתיקה של AI.

כל זה קשור גם לחששות המתעוררים באופן מפוכח לגבי הבינה המלאכותית של היום, ובמיוחד השימוש ב- Machine Learning ו-Deep Learning כסוג של טכנולוגיה וכיצד היא מנוצלת. אתה מבין, ישנם שימושים ב-ML/DL הנוטים לכרוך באנתרופומורפיזציה של הבינה המלאכותית על ידי הציבור הרחב, מתוך אמונה או בחירה להניח שה-ML/DL הוא בינה מלאכותית או קרובה אליו (לא כך). בנוסף, ML/DL יכול להכיל היבטים של התאמת דפוסים חישוביים שאינם רצויים או בלתי הולמים בעליל, או בלתי חוקיים מנקודת מבט אתית או משפטית.

זה עשוי להיות שימושי קודם כל להבהיר למה אני מתכוון כשמתייחסים ל-AI באופן כללי וגם לספק סקירה קצרה של למידת מכונה ולמידה עמוקה. יש הרבה מאוד בלבול לגבי המשמעות של בינה מלאכותית. אני גם רוצה להציג בפניכם את מצוות האתיקה של AI, שיהיו חלק בלתי נפרד במיוחד בהמשך השיח הזה.

ציון הרשומה על AI

בואו נוודא שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות.

אין לנו את זה.

אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לנבא בצורה הולמת אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיה תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה סיקור שלי ב- הקישור כאן).

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום צורה בהשוואה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning וב-Deep Learning, הממנפים התאמת דפוסים חישוביים. זה הוביל למערכות בינה מלאכותית שיש להן מראה של נטיות דמויות אדם. בינתיים, אין היום בינה מלאכותית שיש לה מראית עין של שכל ישר, וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

חלק מהנושא הוא הנטייה שלנו לאנתרופומורפיזציה של מחשבים ובעיקר AI. כאשר נראה שמערכת מחשב או AI פועלים בדרכים שאנו מקשרים להתנהגות אנושית, ישנו דחף כמעט מוחץ לייחס למערכת תכונות אנושיות. זוהי מלכודת נפשית נפוצה שיכולה לתפוס אפילו את הספקן הבלתי מתכוון לגבי הסיכויים להגיע לגזרה.

במידה מסוימת, זו הסיבה שהאתיקה של AI ובינה מלאכותית אתית היא נושא כה מכריע.

מצוות האתיקה של AI גורמות לנו להישאר ערניים. טכנולוגים בינה מלאכותית יכולים לפעמים להתעסק בטכנולוגיה, במיוחד באופטימיזציה של ההייטק. הם לא בהכרח שוקלים את ההשלכות החברתיות הגדולות יותר. קיום חשיבה של אתיקה בינה מלאכותית ועושה זאת באופן אינטגרלי לפיתוח ותחום בינה מלאכותית היא חיונית להפקת בינה מלאכותית מתאימה, כולל ההערכה של האופן שבו אתיקה של בינה מלאכותית מאומצת על ידי חברות.

מלבד שימוש במצוות האתיקה של בינה מלאכותית באופן כללי, ישנה שאלה מקבילה האם צריכים להיות לנו חוקים שישלטו על שימושים שונים בבינה מלאכותית. חוקים חדשים מתגבשים ברמה הפדרלית, המדינתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא הדרגתי. אתיקה של בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים נחרצות שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית האלה, נהרוג את אווז הזהב על ידי פגיעה בהתקדמות בבינה מלאכותית שמעניקה יתרונות חברתיים עצומים. ראה למשל את הסיקור שלי ב הקישור כאן.

בטורים קודמים, כיסיתי את המאמצים הלאומיים והבינלאומיים השונים ליצור ולחוקק חוקים המסדירים בינה מלאכותית, ראה הקישור כאן, לדוגמה. כיסיתי גם את העקרונות וההנחיות השונות של AI אתיקה שאומות שונות זיהו ואימצו, כולל למשל את המאמץ של האומות המאוחדות כגון קבוצת האתיקה של AI של אונסק"ו שכמעט 200 מדינות אימצו, ראה הקישור כאן.

הנה רשימה מועילה של אבן מפתח של קריטריונים או מאפיינים אתיים של בינה מלאכותית לגבי מערכות בינה מלאכותית שחקרתי מקרוב בעבר:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים את מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית. כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שהודגש כאן קודם לכן, נדרש כפר כדי לתכנן ולהשיג בינה מלאכותית, ועבורו על כל הכפר להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

בואו נשאיר את העניינים על הקרקע ונתמקד ב-AI החישובי הלא-רגיש של היום.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

אני מאמין שכעת הכנתי את הבמה לדון מספיק בתפקידה של AI כאמצעי להניע חיסון פסיכולוגי הקשור להתמודדות עם דיסאינפורמציה ומידע מוטעה.

להיכנס למוחם של בני האדם

בואו נתחיל עם היסודות או היסודות העומדים בבסיס המידע השגוי והדיסאינפורמציה.

בדרך כלל, מידע מוטעה מתייחס למידע שקרי או מטעה.

דיסאינפורמציה זהה בערך אם כי מורכבת מהאלמנט הנוסף של כוונה. בדרך כלל אנו מפרשים מידע כדיסאינפורמציה כאשר זהו המידע התכוון להודיע ​​לא נכון.

אולי אני אגיד לך שכרגע השעה 10 בלילה, נניח שזה שקר כי השעה היא באמת חצות. אם הייתי אומר לך את השעה 10 בתור תחושה ולא ניסיתי להטעות, בדרך כלל היינו אומרים שהטעיתי אותך. העברתי מידע מוטעה. אולי התעצלתי או אולי באמת האמנתי שהשעה 10. מצד שני, אם ציינתי את השעה 10 כי בכוונה רציתי להונות אותך לחשוב שהשעה היא 10 ושידעתי שהשעה היא בעצם חצות, אפשר לומר שזו סוג של דיסאינפורמציה. .

היבט בולט אחד של מידע בסך הכל הוא שבדרך כלל אנו מסוגלים להפיץ מידע מסביב, וכך המידע יכול להתפשט במידה מסוימת. מידע יכול באמת לזרום כמו מים, במובן הרחב.

אני אומר לך השעה 10 בלילה. כעת יש לך את פיסת המידע המסוימת הזו. אולי תצעק בקול לקבוצה של אנשים קרובים שהשעה 10 בלילה. עכשיו יש להם גם את אותו מידע. אולי חלק מהאנשים האלה נכנסים לטלפונים הסלולריים שלהם ומתקשרים לאנשים אחרים כדי להגיד להם שהשעה 10:XNUMX. בסך הכל, ניתן להפיץ או לשתף מידע ולפעמים לעשות זאת מהר כל כך, בעוד שבמקרים אחרים לעשות זאת לאט.

במובן מסוים, אתה יכול לטעון שמידע יכול להפוך לוויראלי.

יש מילה או מינוח שנטבע שאולי לא ראית או השתמשת במיוחד שעוזר בתיאור התופעה הזו של מידע שהופך ויראלי, המילה היא אינפודמיה. המילה הזו היא שילוב של מידע וגם של מגיפה. בגדול, אינפודמי קשור לנסיבות הכרוכות בהפצת מידע מוטעה או דיסאינפורמציה. הרעיון הוא שמידע כוזב או מטעה עלול להפוך לוויראלי, באופן בלתי רצוי, בדומה להתפשטות בלתי רצויה של מחלות או מחלות.

בדוגמה על השעה 10 בלילה, עובדה זו לכאורה הייתה פיסת מידע שהופצה לקבוצת האנשים הסמוכה. הם בתורם הפיצו את העובדה לאחרים. אם השעה 10 הייתה מזויפת אז המקרה המסוים הזה של דיסאינפורמציה או מידע מוטעה הופץ לרבים אחרים. ייתכן שהם לא ידעו שהמידע הוא מידע מוטעה או אולי דיסאינפורמציה.

אני סומך על כך שכל ההגדרות והיסודות הללו נראים הגיוניים ואתה נמצא בסיפון עד כה.

מעולה, בואו נמשיך.

הובלתי אותך קצת בחשאי למשהו שמעסיק הרבה מאוד קסם וגם חרדה. התמצית היא שישנן הקבלות סבירות למדי בין מה שמחלות עושות ויראלית לבין מה שמידע שגוי או דיסאינפורמציה עושה ויראלית.

לא כולם מסכימים עם ההקבלות הנטענות הללו. למרות זאת, הם מסקרנים וראויים להתייחסות.

הרשו לי להרחיב.

אתה מבין, אנחנו יכולים לנסות למנף את האנלוגיה השימושית של התייחסות למחלות ומחלות הנישאות על ידי אדם שהתפשטו, לעשות זאת כדי להשוות אפשרות דומה להפצה של מידע מוטעה ודיסאינפורמציה. כדי לנסות ולעצור את התפשטות המחלות, אנו יכולים לשאוף לאתר מוקדם ולבקש להכיל נקודת מקור חולה מתעוררת של התפשטות פוטנציאלית של המחלה. גישה נוספת להתמודדות עם מחלה מתפשטת תהיה להישמר מפני הידבקות בה באמצעות שימוש מושכל בחבישת מסכה או ציוד מגן. גישה שלישית יכולה להיות נטילת חיסונים כדי לנסות ולבנות את חסינותך הקשורה למחלה.

כעת הגענו למעגל בכך שניתן להשוות את אותן גישות להתמודדות עם מחלות במפורש להתמודדות עם מידע מוטעה ודיסאינפורמציה. ציינתי קודם שישנם מאמצים דומים להפעיל בינה מלאכותית למטרות של ניסיון להתמודד עם דיסאינפורמציה ומידע מוטעה, בעיקר (כפי שהוזכר קודם לכן):

  • עצור בהתחלה: ניתן להשתמש בבינה מלאכותית כדי לזהות ולנסות למחוק דיסאינפורמציה ומידע מוטעה לפני שהוא משתחרר
  • סינון לפני שנראה: ניתן להשתמש בבינה מלאכותית כדי לסנן דיסאינפורמציה ואינפורמציה שגויה כך שאינך צריך לדאוג לראות אותו
  • להכין אותך להיות חסין: ניתן להשתמש בבינה מלאכותית כדי לחזק את המוכנות והיכולת שלך להתמודד עם דיסאינפורמציה ואינפורמציה שגויה (הידועה באופן רשמי במקצת כמספקת סוג של חיסון פסיכולוגי)
  • אחר

ההיבט השלישי יהיה המעניין ביותר כאן.

הנה העסקה.

אנחנו יודעים שמחלות בדרך כלל מכות את הגוף האנושי. עם האנלוגיה של האופן שבו מתרחשים מידע מוטעה ודיסאינפורמציה, אנו יכולים להציע שמידע לא טוב פוגע ב מוח אנושי. כן, יש להניח שאתה יכול לבוא במגע עם דיסאינפורמציה או מידע שגוי שזורם למוחך. הדיסאינפורמציה או המידע השגוי עלולים להשחית או להרעיל את דרך החשיבה שלך.

ניתן לחסן גוף אנושי כדי לנסות ולהכין את עצמו לבוא במגע עם מחלות. מתעוררת שאלה גדולה האם אנחנו יכולים לעשות את אותו הדבר עבור המוח האנושי. האם אפשר לנסות ולחסן את התודעה כך שכאשר עולה על דעתך דיסאינפורמציה או דיסאינפורמציה, אתה מוכן לכך וחוסן בהתאם?

תחום מחקר המכונה חיסון פסיכולוגי טוען שאכן ניתן לחסן את המוח במובן של מוכנה להתמודד עם מידע מוטעה או דיסאינפורמציה.

שקול את התיאור הזה במחקר שנערך לאחרונה לגבי חיסון פסיכולוגי ומה מתויג לפעמים כעשייה prebunking:

  • "הסרת מידע מוטעה הוא גם בעייתי מכיוון שתיקון מידע מוטעה לא תמיד מבטל את השפעותיו לחלוטין, תופעה המכונה אפקט ההשפעה המתמשכת. בהתאם לכך, בניגוד להכחשה, הפרה-באנקינג זכה לפרסום כאמצעי לבניית חוסן מונע מפני חשיפה צפויה למידע מוטעה. גישה זו מבוססת בדרך כלל על תורת החיסון. תיאוריית החיסון עוקבת אחר אנלוגיית חיסונים רפואית וגורסת שאפשר לבנות עמידות פסיכולוגית נגד ניסיונות שכנוע לא רצויים, בדומה לחיסונים רפואיים בונים עמידות פיזיולוגית נגד פתוגנים" (התקדמות מדע, 24 באוגוסט 2022, "חיסון פסיכולוגי משפר את החוסן נגד מידע שגוי במדיה חברתית" מאת שותפים למחברים Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje, and Stephan Lewandowsky).

אם נחזור לדוגמה שלי לגבי השעה 10 בלילה, נניח שאמרתי לך בעבר שלפעמים השעה הנטענת אינה השעה בפועל. מעתה והלאה יש לך סוג של חיסון כדי להיזהר מזמנים נטענים. חיסון זה הכין אותך לבוא במגע עם זמנים נטענים שהם דיסאינפורמציה או מידע מוטעה.

אם הייתי מזהיר אותך לפני מספר שנים על כך שהזמנים הנטענים אינם זמנים אמיתיים, יש סיכוי שלא תחשוב על האזהרה הזו מזמן. לפיכך, החיסון המוקדם יותר נשחק (שנגיד). אולי צריך להגביר את החיסון שלי בשבילך.

יש גם סיכוי שהחיסון לא היה מספיק ספציפי כדי שתוכל להשתמש בו בעת הצורך. אם הייתי מזהיר אותך לפני שנים לגבי זמנים שנטען לעומת זמנים בפועל, זה עלול להיות רחב מדי. ייתכן שהחיסון לא יעבוד במקרה הספציפי שבו נאמר לך בערך בשעה 10:10. במובן הזה, אולי החיסון שלי היה צריך להיות שאתה צריך להיזהר כאשר משתמשים בשעה נטענת של XNUMX:XNUMX. כמובן, החיסונים במקרה של מחלות זהים במקצת, לפעמים הם מאוד ספציפיים למחלות ידועות בעוד שבמקרים אחרים הם ספקטרום רחב.

מחקר מצוטט לעתים קרובות שנעשה בשנת 1961 על חיסון פסיכולוגי על ידי ויליאם מקגווייר מאוניברסיטת קולומביה נחשב כיום בדרך כלל לקלאסיקה בתחום המחקר הזה. אתה עשוי למצוא עניין בנקודות המפתח האלה שהוא ציין באותה תקופה:

  • "חיסון כללי כזה יכול לנבוע משני מנגנונים. חשיפה מוקדמת עלולה לזעזע את האדם להבין שה"טרואיזמים" שהוא תמיד קיבל הם אכן פגיעים, ובכך לעורר אותו לפתח הגנה על אמונתו, וכתוצאה מכך הוא עמיד יותר לטיעוני הנגד החזקים בבואם. לחלופין, ההפרכות הכרוכות בחשיפה המוקדמת עשויות לגרום לכל טיעוני הנגד שהוצגו לאחר מכן נגד האמונה להיראות פחות מרשימים" (וויליאם מקגווייר, "התנגדות לשכנוע שהוענקה על ידי הפרכה פעילה ופסיבית קודמת של אותם טיעוני נגד ואלטרנטיביים", Journal of Abnormal and פסיכולוגיה חברתית, 1961).

האם אתה מוצא את האנלוגיה הזו של חיסונים וחיסונים השוואה שימושית ומתאימה לתחום של מידע מוטעה ודיסאינפורמציה?

חלק כן, חלק לא.

למטרות הדיון הזה, נא לקבל שהנחת היסוד היא סבירה ומתאימה.

איך עלינו לנסות לחסן או לחסן את מוחם של אנשים?

נוכל לגרום לאנשים לקרוא ספרים שעשויים להאיר את דעתם. אולי נספר להם על זה, או שנבקש מהם לצפות בסרטונים או להאזין לקלטות אודיו. וכו.

ואולי נשתמש ב-AI כדי לעשות את אותו הדבר.

ניתן לתכנן מערכת בינה מלאכותית שתהיה המחסן שלך. בכל פעם שאתה מתחיל להתחבר לאינטרנט, כמו להסתכל על האינטרנט, אפליקציה מבוססת בינה מלאכותית עשויה להכין אותך למסע המקוון שלך. הבינה המלאכותית עשויה להאכיל אותך בכמות זעירה של דיסאינפורמציה שמתויגת ככזו, ומאפשרת לך להבין שאתה עומד לראות משהו שהוא שקרי בכוונה.

לאחר החשיפה לדיסאינפורמציה זו המוזנת בבינה מלאכותית, המוח שלך מתחיל כעת להתמודד עם דיסאינפורמציה או מידע מוטעה שאתה עלול להיתקל בהן בטבע באינטרנט. המחשבה שלך הוכנה. וואלה, אתה רואה בלוג באינטרנט שמציע עובדה נטענת שיצורים חייזרים ממאדים כבר נמצאים כאן על פני כדור הארץ ומתחבאים לעין, אבל דיסאינפורמציה או מידע שגוי זה נדחה בקלות על ידי המוח שלך בגלל החיסון הקודם (טוב, ואז שוב, אולי זה אמיתי והם באמת כאן!).

בכל מקרה, אני מקווה שאתה מסוגל להבחין עכשיו איך זה שבינה מלאכותית יכולה לעזור לחסן או לחסן בני אדם ביחס לדיסאינפורמציה או מידע מוטעה.

מתכננים אפליקציות AI שונות שיפעלו כמחסני דיסאינפורמציה או שגוי מידע. ה-AI עשוי לשאוף לספק חיסון רחב ומספק מראה כולל של חיסון. ניתן גם לתכנן AI עבור צורות ספציפיות יותר של חיסון. יתר על כן, ה-AI יכול לעבוד על בסיס מותאם אישית המותאם לצרכים או לתחומי העניין הספציפיים שלך. בינה מלאכותית מתקדמת בתחום זה תנסה גם לקבוע את רמת הסובלנות שלך, שיעור הקליטה המנטאלית, יכולת השימור וגורמים אחרים בעת חיבור והצגת זריקות חיסון כביכול.

נראה שימושי למדי.

AI כשחקן משחקי חשיבה מסוכנים

בינה מלאכותית המשמשת בצורה זו תיראה במבט ראשון שימושי למדי (היי, ציינתי את זה רק לפני שנייה).

יש שלל חסרונות ובעיות פוטנציאליים שמדאיגים ואולי מפחידים.

בטורים שלי, אני דן לעתים קרובות ביכולות השימוש הכפול של AI, ראה למשל הקישור כאן. AI יכול להיות תורם חיוני למין האנושי. למרבה הצער, בינה מלאכותית מרותקת גם להרבה סכנות ומלכודות מצערות.

במקרה של בינה מלאכותית כמחנכת, הבה נבחן את הנושאים המדגימים הללו הקשורים לאתיקה בינה מלאכותית:

  • תגובות שליליות של בני אדם
  • תגובות לא מגיבות של בני אדם
  • מיקוד מוטעה של AI
  • תת מיקוד בינה מלאכותית
  • הפרת סייבר של AI
  • אחר

נחקור בקצרה את החששות הללו.

תגובות שליליות של בני אדם

נניח שלאדם המקבל סוג זה של חיסון מבוסס AI יש תגובה שלילית או יוצר השפעה שלילית.

האדם עלול לפרש את החיסון באופן שגוי ולפתע להפוך ללא קולט לכל מידע שהוא מקבל. הם חוסמים את כל המידע. הבינה המלאכותית גרמה להם איכשהו לזרוק את התינוק עם מי האמבט (אמירה ישנה, ​​אולי שווה לפרוש). במקום לנסות להתמודד רק עם דיסאינפורמציה ומידע מוטעה, האדם הגיב בכך שהחליט שכל המידע תמיד שקרי.

אני לא חושב שאנחנו רוצים שאנשים יגזימו.

יש שפע של תגובות שליליות שבינה מלאכותית עשויה לטפח. זה נובע חלקית מהאופן שבו ה-AI ניסה לבצע את החיסון, אבל גם אנחנו צריכים להניח חלק מהנושא לרגליו של האדם שקיבל את החיסון. ייתכן שהם הגיבו בדרכים פראיות או מוזרות שאחרים שקיבלו את אותה חיסון בינה מלאכותית לא עשו זאת.

שוב, אתה יכול להשוות את זה לאנלוגיה של חיסונים למחלות.

בקיצור, יהיה חשוב שכאשר מאמצי AI כאלה מנוצלים, הם ייעשו בדרכים אחראיות המבקשות למזער את ההשפעות השליליות. צריך להיות גם היבט המשך של ה-AI כדי לנסות ולוודא אם התרחשה תגובה שלילית. אם יש תגובה שלילית מזוהה, יש לתכנן את הבינה המלאכותית כדי לנסות ולסייע לאדם בתגובתו השלילית ולבקש להתגבר על התגובה או להקל עליה.

תגובות לא מגיבות של בני אדם

אפשרות נוספת היא שלחיסון המוזן ב-AI אין השפעה על האדם המקבל.

אדם מקבל חיסון מבוסס AI הקשור למידע מוטעה או דיסאינפורמציה. בעוד שרוב האנשים "מקבלים את זה" ומתחסנים, בטח יש אנשים שלא יגיבו כלל. הם לא לומדים כלום מהחיסון. הם אינם מגיבים לניסיון AI לחסן אותם עבור כל או סוגים מסוימים של מידע מוטעה או דיסאינפורמציה.

שוב, זה דומה לחיסונים למחלות.

צריך להמציא בינה מלאכותית כדי להתמודד עם נסיבות כאלה.

מיקוד שגוי של AI

תארו לעצמכם שבינה מלאכותית מקווה לחסן אנשים לגבי נושא מסוים שנגיד שהוא נושא X, אבל מסתבר שבמקום זאת מכוסה נושא Y. ה-AI מכוון לא נכון.

זו בעיה כפולה. ראשית, נושא X לא כוסה אז כמטרה המשוערת והמקווה של מחסן הבינה המלאכותית. שנית, הנושא Y מכוסה אבל אולי לא היינו רוצים שאנשים יחוסנו על הנושא הזה.

אופס.

יש הרבה שאלות. האם ניתן היה למנוע את זה לקרות? אם זה יקרה, האם נוכל לבטל את הנושא של חיסון Y? האם אנחנו יכולים לנסות לכסות את נושא ה-X חיסון, או האם האדם יהיה פחות קליט או לא קליט בגלל הטירגוט השגוי על ידי ה-AI במקור?

עולות הרבה חששות בעייתיים.

תת-מיקוד בינה מלאכותית

AI מספק חיסון בנושא Z. נראה שלאנשים שמקבלים את החיסון יש תגובה מינימלית או כמעט זניחה. החיסון לא הספיק כדי לתפוס אחיזה.

אתה עלול להתפתות לטעון במהירות שזה נפתר בקלות. כל מה שאתה צריך לעשות הוא לחזור על החיסון. אולי כן ואולי לא.

חיסון הבינה המלאכותית עשוי להיות בעל ערך כה מוגבל שלא משנה אם יש לך אנשים שחווים אותו מאה פעמים, התוצאה היא עדיין תוצאה שולית. ייתכן שתצטרך להגביר את החיסון במקום פשוט לחזור עליו.

בינתיים, תארו לעצמכם שנעשה ניסיון להגביר את החיסון המוזן בבינה מלאכותית, אבל זה מופרז. הגרסה המוגברת גורמת לתגובות היפר. איכס, הגענו מרע לגרוע.

הפרת סייבר של הבינה המלאכותית

דמיינו ש-AI נמצא בשימוש נרחב כדי לסייע לאנשים להתחסן מדיסאינפורמציה ומידע מוטעה.

הסתמכות כללית תופסת על ידי אנשים. הם יודעים ומצפים שה-AI עומד להציג בפניהם קטעים שיפקחו את עיניהם למה שמכונה דיסאינפורמציה ודיסאינפורמציה.

הכל טוב ויפה, כך נראה.

עושה רוע מסוגל איכשהו לבצע פריצת סייבר ב-AI. הם כופים בעורמה לתוך ה-AI איזה דיסאינפורמציה רצויה שהם רוצים שאנשים יחשבו שהוא לא דיסאינפורמציה. ה-AI מסודר כך שהדיסאינפורמציה האמיתית תיראה כמידע אמיתי. כמו כן, המידע האמיתי עשוי להופיע כדיסאינפורמציה.

אנשים סנוקרים לגמרי. הם זוכים לחוסר מידע על ידי AI. נוסף על כך, בגלל שהם הפכו תלויים בבינה מלאכותית, ובשל האמון שה-AI עושה את הדבר הנכון, הם נופלים כוו, קו ושוקעים ל-AI הפרוץ הזה. ללא היסוס.

בהתחשב במידת הפשטה של ​​דיסאינפורמציה נוספת, העושה הרשע עשוי להתענג על כך שקיומה של סוג זה של בינה מלאכותית היא הדרך הקלה והמהירה ביותר שלהם לגרום לשקרים הערמומיים שלהם להסתובב ברחבי העולם. למרבה האירוניה, כמובן, לאחר שמינפו את חיסון הבינה המלאכותית כדי להפיץ את המחלה בעצם.

סיכום

האם עלינו לבינה מלאכותית לשחק איתנו משחקי מחשבה?

האם AI לדיסאינפורמציה וחיסון מידע שגוי הוא סוס טרויאני מאיים?

אתה יכול להעלות טענה מהותית על דאגה לסיוט כזה.

אחרים לועגים לאפשרות כזו. אנשים חכמים מספיק כדי לדעת מתי הבינה המלאכותית מנסה לרמות אותם. אנשים לא יפלו לכדרור כזה. רק אידיוטים יטעו את עצמם על ידי AI כזה. אלו התגובות הרגילות וטיעוני הנגד.

לא רוצה להיראות פחות ממעריצה מלאה מבני האדם ומהטבע האנושי, הייתי רק מציע שיש אינדיקציות רבות לכך שבני אדם עלולים ליפול לבינה מלאכותית שמטעה אותם.

יש בעיה גדולה עוד יותר שאולי מתנשאת על כל זה.

מי מייצר את ה-AI וכיצד ה-AI מחליט באופן אלגוריתמי מה נחשב דיסאינפורמציה ומידע מוטעה?

קרב אש שלם מתרחש היום בעולם כולו על מה שמהווה ספציפית דיסאינפורמציה ודיסאינפורמציה. יש הטוענים שעובדות הן עובדות, ולכן לעולם לא יכול להיות בלבול לגבי מהו מידע ראוי לעומת מידע לא תקין. השטן למרות שלפעמים נמצא בפרטים, זה בטוח.

הערה אחרונה לעת עתה. אברהם לינקולן הצהיר הידוע: "אתה יכול לרמות את כל האנשים חלק מהזמן וחלק מהאנשים כל הזמן, אבל אתה לא יכול לרמות את כל האנשים כל הזמן."

האם בינה מלאכותית המשמשת לסיוע בחיסון של המין האנושי מפני דיסאינפורמציה ומידע מוטעה יהווה כלי חיוני כדי להבטיח שלא ניתן לרמות את כל האנשים כל הזמן? או אולי משתמשים בו כדי לרמות יותר מהאנשים יותר מהזמן?

ימים יגידו.

וזה בוודאי לא דיסאינפורמציה או מידע מוטעה.

מקור: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/