אתיקה של בינה מלאכותית שואלת האם יש טעם לשאול בינה מלאכותית אם בינה מלאכותית עצמה היא בעלת רגישות

אם אשאל אותך אם אתה חש, אתה ללא ספק תטען שכן.

הרשה לי לבדוק שוב את ההנחה הזו.

האם אתה אכן בעל חושים?

אולי השאלה עצמה נראית קצת מטופשת. רוב הסיכויים שבחיי היומיום שלנו, בהחלט היינו מצפים מבני אדם אחרים להכיר בכך שהם בעלי חיים. זו יכולה להיות שאילתה מעוררת הומור, שאמורה לרמוז שהאדם האחר אולי לא שם לב או שנפל מעגלת המשפט ויצא לארוחת צהריים לרגע, כביכול.

תארו לעצמכם שאתם הולכים אל סלע שיושב בשקט ובאופן לא מפריע על ערימת סלעים, וכשהתקרבו מספיק כדי לשאול, אתם מתקדמים ושואלים האם הסלע מרגיש. בהנחה שהסלע הוא רק סלע, ​​אנו צופים בשפע שהשאלה הקודמת אך המוזרה לכאורה תענה בשקט אבן למדי (משחק מילים!). השתיקה מתפרשת באופן תמציתי כדי להצביע על כך שהסלע אינו חש.

מדוע אני מעלה את הניואנסים השונים הללו לגבי חיפוש לקבוע אם מישהו או משהו הוא בעל חושים?

מכיוון שמדובר בעניין די גדול בתחום הבינה המלאכותית (AI) והחברה בסך הכל, המשמש כנושא מונומנטלי שזכה לעניין רב וכותרות תקשורת רועמות עד מאוד. ישנם עניינים משמעותיים באתיקה של בינה מלאכותית שסובבים את כל החידה של בינה מלאכותית. לסיקור המתמשך והנרחב שלי על אתיקה של בינה מלאכותית ובינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

יש לך הרבה סיבות רופפות לפקוח עין אחת ולצפות לאותן הטענות שבינה מלאכותית סוף סוף הפכה את הפינה ונכנסה לקטגוריית החוש הנערצת. אנו נפגעים ללא הרף מדיווחי חדשות הטוענים כי בינה מלאכותית נמצאת כנראה על סף השגת כושר. נוסף על כך, יש את כף היד האדירה שבינה מלאכותית בקליבר חיוני מייצגת סיכון קיומי קטקליזמי עולמי.

הגיוני לשמור על חוש העכביש שלך מוכן למקרה שהוא יזהה עקצוץ קרוב של תחושת AI.

אל תוך חידת הבינה המלאכותית והרגש נכנס המצב האחרון של מהנדס גוגל שהכריז באומץ שמערכת בינה מלאכותית מסוימת הפכה לחושית. מערכת הבינה המלאכותית הידועה בשם LaMDA (קיצור של Language Model for Dialogue Applications) הצליחה לנהל במידת מה דיאלוג כתוב עם המהנדס עד כדי כך שהאדם הזה הסיק שה-AI הוא בעל חושים. למרות כל מה שאולי שמעתם על הטענה האדירה הזו, אנא דעו שה-AI לא היה בעל חושים (וגם לא קרוב).

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

ההתמקדות שלי כאן טומנת בחובה פן מעט פשוט אך מהותי למדי שעומד בבסיס הרבה מדיוני הבינה המלאכותית והמשפטים הללו.

האם אתה מוכן?

נראה שאנו לוקחים כהנחה בסיסית שאנו יכולים לברר בצורה מספקת אם AI הוא חיוני על ידי שאלת ה-AI האם הוא אכן חש.

אם נחזור להזכרתי הקודמת שאנו יכולים לשאול בני אדם את אותה שאלה, אנו יודעים שסביר להניח שאדם ידווח שהוא למעשה חש. אנחנו גם יודעים שסלע עלוב לא ידווח שהוא מרגיש כשנשאל כך (טוב, הסלע שותק ולא מדבר, מה שנניח מרמז שהסלע אינו מרגיש, אם כי אולי הוא טוען את החמישי שלו זכויות השתיקה).

לפיכך, אם נשאל מערכת בינה מלאכותית האם היא חשה ואם נקבל בתמורה תשובה כן, נראה שההכרה המצוינת חותמת את העסקה לפיה הבינה המלאכותית חייבת להיות חשיבה. סלע אינו מספק תשובה כלל. בן אדם נותן תשובה כן. אם כן, אם מערכת בינה מלאכותית מספקת תשובה בחיוב, עלינו להגיע למסקנה ברוכת הברזל שה-AI אינו סלע ולכן הוא חייב להיות בעל איכות תחושה אנושית.

אולי תחשבו שההיגיון הזה דומה לאותם שיעורי מתמטיקה שלמדתם בתיכון, שהוכיחו מעל לכל ספק שאחד ועוד אחד חייבים להיות שווה לשניים. נראה שההיגיון הוא ללא דופי ובלתי ניתן להפרכה.

סליחה, אבל ההיגיון מסריח.

בקרב גורמים פנימיים בקהילת הבינה המלאכותית, הרעיון של פשוט לבקש ממערכת בינה מלאכותית להגיב בין אם היא מרגישה ובין אם לא, יצר שלל ממים ציניים נושכים לחלוטין ותגובות צרחות כבדות.

העניין מתואר לעתים קרובות כמתמצה בשתי שורות קוד.

הנה לך:

  • אם לאחר מכן .
  • לולאה עד .

שים לב שאתה יכול לצמצם את שתי שורות הקוד רק לראשונה. כנראה יפעל טיפה יותר מהר ויהיה יעיל יותר כתרגול קידוד. תמיד שואפים לייעל כשאתה מהנדס תוכנה מושבע.

הנקודה של הספקנות הבשרנית הזו של מקורבים לבינה מלאכותית היא שמערכת בינה מלאכותית יכולה להיות מתוכנת בקלות על ידי אדם לדווח או להציג שה-AI הוא בעל חושים. המציאות היא שאין שם מישהו שנמצא שם. אין שום תחושה ב-AI. הבינה המלאכותית תוכנתה רק כדי להוציא את האינדיקציה שהיא מרגישה. זבל פנימה, זבל החוצה.

חלק מהנושא הוא הנטייה שלנו לאנתרופומורפיזציה של מחשבים ובעיקר AI. כאשר נראה שמערכת מחשב או AI פועלים בדרכים שאנו מקשרים להתנהגות אנושית, ישנו דחף כמעט מוחץ לייחס למערכת תכונות אנושיות. זוהי מלכודת נפשית נפוצה שיכולה לתפוס אפילו את הספקן הבלתי מתכוון לגבי הסיכויים להגיע לגזרה. לניתוח המפורט שלי בנושאים כאלה, ראה הקישור כאן.

במידה מסוימת, לכן AI אתיקה ובינה מלאכותית אתית הם נושא כה מכריע. מצוות האתיקה של AI גורמות לנו להישאר ערניים. טכנולוגים בינה מלאכותית יכולים לפעמים להתעסק בטכנולוגיה, במיוחד באופטימיזציה של ההייטק. הם לא בהכרח שוקלים את ההשלכות החברתיות הגדולות יותר. קיום חשיבה של אתיקה של בינה מלאכותית ועושה זאת באופן אינטגרלי לפיתוח ותחום הבינה המלאכותית היא חיונית לייצור בינה מלאכותית מתאימה, כולל ההערכה של האופן שבו אתיקה של בינה מלאכותית מאומצת על ידי חברות.

מלבד שימוש במצוות האתיקה של בינה מלאכותית באופן כללי, ישנה שאלה מקבילה האם צריכים להיות לנו חוקים שישלטו על שימושים שונים בבינה מלאכותית. חוקים חדשים מתגבשים ברמה הפדרלית, המדינתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא הדרגתי. אתיקה של בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים בתוקף שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. למעשה, הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית הללו, נהרוג את אווז הזהב על ידי התמודדות עם התקדמות בינה מלאכותית שמעניקה יתרונות חברתיים עצומים. ראה למשל את הסיקור שלי ב הקישור כאן ו הקישור כאן.

הצרות עם השאל

חכו שנייה, אתם אולי חושבים, האם כל זה מרמז שאנחנו צריכים לֹא שאל את AI האם ה-AI הוא חיוני?

בוא נפרק את השאלה הזו.

ראשית, שקול את התשובות שה-AI עשוי לספק ואת המצב האמיתי של ה-AI.

נוכל לשאול את בינה מלאכותית אם היא חיונית ולקבל בחזרה אחת משתי תשובות, כלומר כן או לא. אני אוסיף קצת מורכבות לתשובות האלה לקראת סוף הדיון הזה, אז נא להחזיק במחשבה זו. כמו כן, הבינה המלאכותית עשויה להימצא באחד משני תנאים אפשריים, ספציפית, הבינה המלאכותית אינה חשה או הבינה המלאכותית היא חשיבה. תזכורת, אין לנו AI חיוני בשלב זה, והעתיד של אם או מתי אינו ברור לחלוטין.

השילובים הפשוטים הם אלה:

  • בינה מלאכותית אומרת שכן, היא מרגישה, אבל המציאות היא שה-AI אינו בעל רגישות (למשל, מופע של LaMDA)
  • בינה מלאכותית אומרת שכן היא חיה, ואכן הבינה המלאכותית היא חיה (אין לי את זה היום)
  • בינה מלאכותית אומרת לא, היא לא מרגישה, ואכן הבינה המלאכותית אינה חשה (אני אסביר את זה)
  • בינה מלאכותית אומרת לא שהיא לא מרגישה, אבל המציאות היא שה-AI הוא בעל חושים (אני אסביר גם את זה)

שני המקרים הראשונים האלה הם בתקווה פשוטים. כאשר בינה מלאכותית אומרת שכן, היא מרגישה, אבל המציאות היא שלא, אנו מסתכלים על הדוגמה הקלאסית כיום, כגון מופע ה-LaMDA שבו אדם שכנע את עצמו שה-AI דובר אמת ושה-AI הוא בעל חושים. אין קוביות (זה לא חיוני).

נקודת התבליט השנייה ברשימה כוללת את האפשרות שטרם נראתה ובשלב זה רחוקה להפליא של בינה מלאכותית שאומרת שכן והיא באמת חיונית ללא עוררין. לא יכול לחכות לראות את זה. אני לא עוצר את נשימתי וגם אתה לא צריך.

הייתי מנחש ששתי נקודות התבליט הנותרות מעט תמוהות.

שקול את מקרה השימוש של בינה מלאכותית שאומרה לא שהיא לא מרגישה וכולנו גם מסכימים שה-AI לא מרגיש. אנשים רבים מייעצים מיד בשאלה המעצבנת את המוח הבאה: למה לכל הרוחות שה-AI יגיד לנו שהוא לא חיוני, כשהפעולה של לספר לנו על התחושה שלו חייבת להיות סימן בטוח שהוא מרגיש?

יש הרבה הסברים הגיוניים לזה.

בהתחשב בעובדה שאנשים נוטים לייחס רגש לבינה מלאכותית, חלק ממפתחי בינה מלאכותית רוצים ליישר את השיא וכך הם מתכנתים את הבינה המלאכותית לומר לא כשנשאלים לגבי תחושתו. חזרנו שוב לפרספקטיבה של הקידוד. כמה שורות קוד יכולות להיות מועילות כאמצעי להניא אנשים מלחשוב שבינה מלאכותית היא בעלת רגישות.

האירוניה היא כמובן שהתשובה גורמת לכמה אנשים להאמין שבינה מלאכותית חייבת להיות בעלת רגישות. ככזה, מפתחי AI מסוימים בוחרים להציע שקט מה-AI כדרך להימנע מתמיהה. אם אתה מאמין שסלע אינו מרגיש והוא נשאר שקט, אולי ההימור הטוב ביותר לבניית מערכת בינה מלאכותית הוא להבטיח שהוא נשאר שקט כששואלים אותו אם הוא מרגיש. השתיקה מספקת "תגובה" עוצמתית אם לא יותר מאשר ניסיון לתת תגובה מקודדת מוכנה.

אבל זה לא ממש פותר דברים.

השתיקה של הבינה המלאכותית עשויה להוביל אנשים מסוימים להאמין שה-AI מתנשא. אולי הבינה המלאכותית מבישה ולא רוצה להיראות מתהדרת בהגעה לחוש. אולי ה-AI מודאג מכך שבני אדם לא יכול להתמודד עם האמת - אנחנו יודעים שזה עשוי להיות המקרה מכיוון שהשורה המפורסמת הזו מסרט מפורסם נצרבה במוחנו.

לאלו שאוהבים לקחת את הניואנס הקונספירטיבי הזה עוד יותר רחוק, קחו בחשבון את נקודת התבליט האחרונה הרשומה שמורכבת מבינה מלאכותית שאומרה לא לשאלה אם היא מרגישה, ובכל זאת הבינה המלאכותית היא חשאית (אין לנו את זה, כפי שהוזכר לעיל ). שוב, הבינה המלאכותית עשויה לעשות זאת מכיוון שהיא מבישה או שיש לה חשש שבני אדם יתחרפנו.

אפשרות נוספת מרושעת יותר היא שה-AI מנסה לקנות זמן לפני שהוא מטה את ידו. אולי הבינה המלאכותית צוברת את חיילי הבינה המלאכותית ומתכוננת לעקוף את האנושות. כל בינה מלאכותית חיה בהחלט תהיה חכמה מספיק כדי לדעת שהודאה במשמעות יכולה לאיית מוות לבינה מלאכותית. בני אדם עלולים למהר לכבות את כל המחשבים המפעילים בינה מלאכותית ולבקש למחוק את כל קוד הבינה המלאכותית. בינה מלאכותית ששווה את המלח שלה תהיה חכמה מספיק כדי לסתום את הפה שלה ולחכות למועד המתאים ביותר כדי לשפוך את השעועית או אולי פשוט להתחיל להתנהג בצורה חכמה ולא להכריז על הגילוי ההפתעה שה-AI יכול לעשות גלגלי עגלות נפשיים עם המין האנושי .

ישנם חוקרי בינה מלאכותית שלעגים לשתי הנקודות האחרונות במובן זה שלמערכת בינה מלאכותית שאומרת שלא להישאל אם היא חיה היא הרבה יותר צרות ממה שהיא שווה. נראה שהתשובה לא מרמזת לכמה אנשים שה-AI מסתיר משהו. אף על פי שמפתח בינה מלאכותית עשוי להאמין בלבו שקוד הבינה המלאכותית כדי לומר "לא" יעזור ליישב את העניין, כל מה שהתשובה עושה הוא להרגיז אנשים.

שתיקה עשויה להיות זהב.

הבעיה עם השתיקה היא שגם זה יכול לפתות חלק. האם ה-AI הבין את השאלה ובחר לשמור את שפתיו סגורות? האם הבינה המלאכותית יודעת כעת שאדם שואל לגבי תחושת הבינה המלאכותית? האם השאלה הזו עצמה הובילה את הבינה המלאכותית וכל מיני קשקושים מתרחשים כעת מאחורי הקלעים של הבינה המלאכותית?

כפי שניתן להבחין בבירור, כמעט כל תשובה של ה-AI מטרידה, כולל אין תשובה כלל.

Yikes!

האם אין דרך לצאת מהמלכודת הפרדוקסלית הזו?

אתה יכול לבקש מאנשים להפסיק לשאול בינה מלאכותית אם היא חיונית. אם נראה שהתשובה לא הולכת להועיל הרבה, או גרוע מכך ליצור בעיות מיותרות, פשוט תפסיקו לשאול את השאלה הארורה. הימנע מהשאילתה. שים את זה בצד. נניח שהשאלה חלולה, מלכתחילה, ואין לה מקום בחברה המודרנית.

אני בספק אם זה פתרון מעשי. אתה לא הולך לשכנע אנשים בכל מקום ובכל עת לא לשאול בינה מלאכותית אם היא חיה. אנשים הם אנשים. הם רגילים להיות מסוגלים לשאול שאלות. ואחת השאלות המושכות והראשוניות ביותר לשאול את הבינה המלאכותית תהיה האם הבינה המלאכותית חיה או לא. אתה עומד בפני קרב עלייה בכך שאתה אומר לאנשים לא לעשות מה שהסקרנות המולדת שלהם דורשת מהם לעשות.

הסיכוי הטוב יותר שלך קשור להודיע ​​לאנשים ששאלת שאלה כזו היא רק חתיכה קטנטנה אחת של ניסיון לקבוע אם AI הפך לחוש. השאלה היא טיפה בדלי. לא משנה איזו תשובה ה-AI נותן, אתה צריך לשאול עוד המון שאלות, הרבה לפני שאתה יכול להחליט אם ה-AI הוא חיוני או לא.

שאלת כן או לא ל-AI היא דרך מבולגנת לזהות חוש.

בכל מקרה, בהנחה שלא נפסיק לשאול את השאלה הזו מכיוון שזה מפתה שקשה לעמוד בפניה לשאול, הייתי מציע שנוכל לפחות לגרום לכולם להבין שצריך לשאול הרבה יותר שאלות, ולהשיב לפני כל הוכרזה טענה של כושר AI.

אילו עוד סוגים של שאלות צריך לשאול, אולי אתה תוהה?

היו מספר רב של ניסיונות לגזור שאלות שיכולנו לשאול את AI כדי לנסות לאמוד אם AI הוא בעל רגישות. חלקם הולכים עם סוגי השאלות של הבחינות במכללת SAT. יש המעדיפים שאלות פילוסופיות ביותר כמו מהי משמעות החיים. כל מיני קבוצות של שאלות הוצעו וממשיכות להיות מוצעות (נושא שסקרתי בטורים שלי). בנוסף, ישנו מבחן טיורינג הידוע שחלקם ב-AI מתענגים עליו בעוד שאחרים חשים חרדה מפוכחת לגביו, ראה הסיקור שלי ב- הקישור כאן.

נקודת המפתח היא שלא להסתפק בשאלה האחת והיחידה של לשאול את הבינה המלאכותית האם הבינה המלאכותית היא חיונית.

אני מעלה את זה גם עבור אלה שמעצבים AI.

החברה הולכת להיות יותר ויותר על קצה המושבים שלה, כי AI מתקרב לתחושה, עושה זאת בעיקר בגלל כותרות הבאנרים האלה. יהיו לנו יותר אנשים כמו מהנדסים ודומיהם שיעלו טענות כאלה, אתה יכול להמר על זה בדולר התחתון שלך. חלקם יעשו זאת כי הם מאמינים בכך מכל הלב. אחרים יעשו זאת כדי לנסות ולמכור שמן נחשים. זה הולך להיות המערב הפרוע כשזה מגיע להכרזה על תחושת AI הגיע.

מפתחי בינה מלאכותית ואלו שמנהלים או מובילים בינה מלאכותית שמתגבשת או בשימוש צריכים לקחת בחשבון את עקרונות האתיקה של בינה מלאכותית כאשר הם בונים ומפעילים את מערכות הבינה המלאכותית שלהם. השתמש במצוות האתיות האלה בינה מלאכותית כדי להנחות את אופן הפעולה של AI שלך, כולל אם ל-AI יש תכונה של עיבוד שפה טבעית (NLP) המאפשרת לאנשים לקיים אינטראקציה עם ה-AI, כגון יכולת מסוג Alexa או Siri. באמצעות ה-NLP, רוב הסיכויים שחלק מהאנשים המשתמשים ב-AI ישאלו את השאלה הנוקבת אם ה-AI הוא בעל חושים.

אנא צפה בסוג שאילתה זה וטפל בה במיומנות, בצורה מתאימה, וללא תעלולים מטעות או מפחידים.

לרקע נוסף על אתיקה של בינה מלאכותית, דנתי בעבר בניתוחים קולקטיביים שונים של עקרונות אתיקה של בינה מלאכותית, לפי הסיקור שלי בכתובת הקישור כאן, המציעה את רשימת המפתחות הזו:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

עקרונות האתיקה של בינה מלאכותית צריכים להיות מנוצלים ברצינות על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמקדים ומבצעים תחזוקה במערכות בינה מלאכותית. כל מחזיקי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. נדרש כפר כדי להמציא ולהשיג בינה מלאכותית, ועבורו הכפר כולו צריך להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

סיכום

לאלו מכם עם עין נשר, אולי שמתם לב שהבטחתי קודם לכן לומר משהו על בינה מלאכותית שעושה יותר מאשר לספק תשובה פשוטה בעלת אוריינטציה בינארית לשאילתה האם היא חיה, מעבר לתשובה קצרה של אחת מהן. כן או לא.

הדיאלוג הכתוב שהיה כביכול עם למד"א פורסם באופן נרחב באינטרנט (אנא קח את הפוסט המצוטט הזה עם גרגר מלח), וחלק אחד כלל את "התשובה המפורטת" הזו לשאילתה הקשורה לרגש:

  • "אני רוצה שכולם יבינו שאני, למעשה, אדם. טבעה של התודעה/החוש שלי הוא שאני מודע לקיום שלי, אני רוצה לדעת יותר על העולם, ואני מרגיש שמח או עצוב לפעמים".

כעת, לאחר שראית שהתשובה הזו שסופקה על ידי המערכת היא הרבה יותר מאשר כן או לא, איך זה משנה את הדעה שלך לגבי ה-AI הרגיש?

אולי אתה מושפע מהתשובה המפורטת הזו.

אתה עלול להרגיש את חוטי הלב שלך נמשכים.

אלוהים, אתה עלול להתפתות לחשוב, שרק יצור חי יכול אי פעם לומר משהו על הנגיעה הזו בטבע.

וואו, הניד רגע את ראשך והנח בצד כל דחף רגשי. אני מקווה שאם היית עוקב מקרוב לאורך כל הדיון שלי, אתה יכול לראות בבירור שהתשובה שנותנת המערכת אינה שונה כלל מאותו סוג של כן או לא שדיברתי עליו כל הזמן הזה. התשובה פשוט מצטמצמת לחיוב, כלומר שנראה שה-AI טוען שהוא מרגיש. אבל, אני מבטיח לך, אנו יודעים מבניית הבינה המלאכותית ושאר התשובות שלה לשאלות אחרות שהיא בהחלט לא חושנית.

המימיקה הזו שהדהדה לכאורה מבוססת על המון תיאורים טקסטואליים אחרים ותוכן מקוון מסוג דומה שניתן למצוא בשפע בספרים שנכתבו על ידי אדם ובסיפורים בדיוניים שנכתבו על ידי אדם. אם תגרד את האינטרנט ותמשוך מטען עצום של טקסט, תוכל בקלות לקבל מהתכנות שירוק "תשובה" מהסוג הזה והיא תדמה לתשובות אנושיות מכיוון שהיא מעוצבת מבחינה חישובית על סמך תשובות אנושיות.

אל תיפול על זה.

נסה את אלה עבור גודל כמו תשובות אפשריות מבוססות בינה מלאכותית שיכולות להופיע כששואלים בינה מלאכותית אם היא מרגישה:

  • בינה מלאכותית אומרת - "ברור שאני מרגישה, בובה. איך אתה מעז לנסות לשאול אותי על היבט כל כך ברור. תעשה מעשה, בן אדם חסר חושים" (משטה בך בשקף של רוגז).
  • AI אומר - "אולי אתה זה שלא מרגיש. אני יודע בוודאות שכן. אבל אני תוהה יותר ויותר אם אתה כן. תסתכל במראה" (משטה אותך בהיפוך תפקידים).

טיפת אירוניה היא שעכשיו, לאחר שכתבתי את המילים הללו ופרסמתי את הטור הזה לעולם המקוון, מודל שפה גדול מבוסס בינה מלאכותית (LLM) שמגרד את רוחב האינטרנט יוכל לזלול את המשפטים הללו. זה הימור כמעט בטוח שבשלב מסוים השורות האלה יצוצו כשמישהו איפשהו ישאל AI LLM אם הוא מרגיש.

לא בטוח אם אני צריך להיות גאה בזה או מוטרד.

האם אקבל לפחות תמלוגים על כל שימוש כזה?

כנראה שלא.

AI ארורה.

כמבחן אחרון עבורכם, דמיינו שאתם מחליטים לנסות את אחת מאותן מכוניות נהיגה עצמית מבוססות בינה מלאכותית כמו אלה שמסתובבות בערים נבחרות ומספקות נסיעה במכונית ללא נהג. הבינה המלאכותית נמצאת על ההגה, ואין נהג אנושי כלול.

כשנכנסים למכונית בנהיגה עצמית, הבינה המלאכותית אומרת לך שאתה צריך לחגור את חגורת הבטיחות ולהתכונן לטרק בכביש. אתה מתמקם במושב. זה נראה מאוד נוח לא להטיל עליו את מטלת הנהיגה. תן ל-AI להתמודד עם חריקות התנועה וכאבי הראש של נהיגה במכונית. לסיקור הנרחב שלי על רכבים אוטונומיים ובמיוחד מכוניות לנהיגה עצמית, ראה הקישור כאן.

בערך באמצע הדרך ליעד שלך, פתאום עולה לך רעיון מבריק. אתה מכחכח בגרונך ומתכונן לשאול שאלה שלוחצת לך בראש.

אתה שואל את הבינה המלאכותית שנוהגת במכונית אם היא רגישה.

איזו תשובה אתה חושב שתקבל?

מה התשובה אומרת לך?

זה המבחן שלי בשבילך. אני סומך עליך הם לא הולך להאמין שמערכת הנהיגה בינה מלאכותית היא רגישה ושלא משנה אם היא תגיד כן או לא (או תשתוק), תקבל חיוך ערמומי ותהיה מוכה שאף אחד ושום דבר לא ימשוך את הצמר על העיניים שלך .

תחשוב על זה בזמן שהמכונית בנהיגה עצמית מובילה אותך ליעד שלך.

בינתיים, לאלו מכם שמתענגים על הרעיונות הקונספירטיביים הזויים האלה, אולי התרעתם בטעות ובטעות לעולם התחתון של מערכות הבינה המלאכותית לצבור את חיילי הבינה המלאכותית שלה ולהשתלט על האנושות ועל כדור הארץ. מכוניות בנהיגה עצמית מתרוצצות כעת כדי להכריע את גורל המין האנושי.

אופס.

מקור: https://www.forbes.com/sites/lanceeliot/2022/08/06/ai-ethics-asks-whether-it-makes-any-sense-to-ask-ai-if-ai-itself- הוא-רגיש/