אתיקה של בינה מלאכותית מוגשת על ידי אותם ממליחים אתיקי בינה מלאכותית ש"מליצים" שיטות בינה מלאכותיות אתיות

המלחה הייתה לא מעט בחדשות לאחרונה.

אני לא מתכוון למלח שאתה מכניס לאוכל שלך. במקום זאת, אני מעלה את "המלחה" שקשורה לפרקטיקה פרובוקטיבית ולכאורה מאוד שנויה במחלוקת הקשורה למשחק הגומלין בין עבודה לעסקים.

אתה מבין, המלחה מהסוג הזה גוררת את הנסיבות שבהן אדם מנסה להתקבל לעבודה במשרד כדי ליזום לכאורה או שיש אולי לומר לעורר בה הקמת איגוד עובדים. חשבונות החדשות האחרונים הדנים בתופעה זו מצביעים על חברות כמו סטארבקס, אמזון וחברות ידועות אחרות ואף פחות מוכרות.

אני אכסה תחילה את היסודות של המלחה ולאחר מכן אעבור לנושא דומה שאתה עלול להיתפס די לא מוגן לגביו, כלומר שנראה שיש סוג של המלחה בתחום הבינה המלאכותית (AI). יש לזה שיקולי אתיקה של AI חיוניים. לסיקור המתמשך והנרחב שלי על אתיקה של בינה מלאכותית ובינה מלאכותית אתית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

עכשיו, בואו ניכנס ליסודות של איך המלחה עובדת בדרך כלל.

נניח שלחברה אין איגודים עובדים בכוח העבודה שלה. איך איגוד עובדים יכול איכשהו להשיג דריסת רגל באותה חברה? אמצעי אחד יהיה לנקוט בפעולה מחוץ לחברה ולנסות לפנות לעובדים שיצטרפו לאיגוד. זה עשוי לכלול הצגת באנרים בקרבת מקום למטה החברה או שליחת פליירים לעובדים או שימוש במדיה חברתית וכן הלאה.

זוהי גישה מובהקת מבחוץ פנימה.

דרך נוספת תהיה לעורר מבפנים ניצוץ שעלול לגרום לכדור להתגלגל. אם אפשר היה להפעיל לפחות עובד אחד כמעודדת על אימוץ איגוד עובדים במשרד, אולי זה יתחיל בסופו של דבר פרשה פנימית של תמיכה בהתאגדות שם. גם אם עובד כזה לא שימש כמעודד, אולי בשקט הוא יוכל לצבור תמיכה פנימית בקרב העובדים ולהוות כוח נסתר יחסית בתוך הארגון לשאיפה להתאגדות.

בדרך חשיבה זו, איגוד עובדים עשוי לשקול את הדרכים שבהן ניתן להפעיל עובד כזה. האיגוד עשוי להוציא אינסוף אנרגיה כדי למצוא את המחט בערימת השחת. בין אולי מאות או אלפי עובדים במשרד, הניסיון לגלות את מה שנקרא הנבחר, במיוחד, שיעדיף את ההתאגדות עשוי להיות קשה לעשות.

זה יהיה שימושי בקלות רבה יותר "לגלות" את אותו עובד מעורר ניצוץ (או להמציא אותם, כביכול).

זה מוביל אותנו לרעיון וואלה שאולי לגרום לחברה להעסיק אדם כזה לתפקיד יומיומי במשרד. בעיקרו של דבר, השתלו את הסוג הנכון של אדם המדרבן את האיגוד בחברה. אינך צריך לנסות ולפנות אל המוני העובדים, הכל מבחוץ, ובמקום זאת להכניס את האדם המפעיל האחד כדי שתדע בוודאות שהניצוץ שלך מועסק שם.

לאחר מכן, העובד החדש שנשכר מבקש להחדיר עניין של איגודי העובדים בתוך המשרד, ובינתיים עושה כל עבודה שהם נשכרו לעשות אחרת (מבטא את מה שמכונה לעתים קרובות "עניין אמיתי" בעבודה). שימו לב שהאדם מועסק באופן פעיל במשרד ועושה באופן פעיל עבודה הנדרשת ממנו כשכיר. בתחום ההמלחה המקובל, הם אינם רק עובדים לא ספציפיים הקשורים לעבודה, שאולי מוטמעים בחברה.

חלקם בישרו את הגישה הזו.

הם ממליצים שזה חוסך זמן ומשאבים במונחים של איגוד המבקש לעורר השראה בעובדים במשרד לשקול הצטרפות לאיגוד. עובדים אחרים נוטים בדרך כלל להיות מוכנים להקשיב ולהיות מופעלים על ידי עמית לעובד. הגישה האלטרנטיבית של ניסיון מבחוץ להשיג אחיזה נחשבת פחות מפתה, לפיה עמית לעובד מספק מוטיבציה עוצמתית לעובדים בתוך החברה בהשוואה לכמה "זרים" שנתפסים כמעט יותר מאשר דוחפים אג'נדה בלתי מעורבים וחסרי אכפתיות. זרים.

לא כולם מרוצים מגישת ההמלחה.

חברות יטענו לעתים קרובות כי מדובר בתרגול ערמומי ולא ישר. הגשטאלט הכללי של הגישה הוא שמציבים מרגל באמצע החברה. זה לא מה שהאדם נשכר לעשות. יש להניח שהם נשכרו לעשות את עבודתם המוצהרת, בעוד שבמקום זאת, כל השטויות השונות נראות כמו השתלה שטנית של סוס טרויאני אמיתי.

הטענה הנגדית של איגודי עובדים היא שאם האדם עושה את עבודתו המוצהרת אז אין נזק ואין עבירה. מן הסתם, עובד, או נגיד כל עובד של החברה, יכול בדרך כלל לבחור לחפש התאגדות. העובד הספציפי הזה במקרה רוצה לעשות זאת. העובדה שהם נכנסו לחברה עם הרעיון הזה בחשבון היא רק משהו שכל עובד שזה עתה נשכר עשוי לשקול גם הוא.

חכה שנייה, עסקים יענו, זה מישהו ש לפי עיצוב רצה להגיע לחברה למטרות הקמת דריסת רגל באיגוד. זה הרצון המונע שלהם. העובד החדש שנשכר עשה לעג מתהליך הגיוס ומנצל שלא כדין את שאיפותיהם לחיפוש עבודה כהעמדת פנים כסופה לטובת האיגוד הספציפי.

השיח הלוהט הזה הולך מסביב.

זכור כי ישנם שפע של שיקולים משפטיים שעולים במסגרות אלו. כל מיני חוקים ותקנות הנוגעים למשל לחוק יחסי העבודה הלאומי (NLRA) ולמועצה הלאומית ליחסי עבודה (NRLB) הם חלק מהימורים אלה. אני לא רוצה שתתרשם שהדברים פשוטים בחזיתות האלה. יש הרבה סיבוכים משפטיים.

אנחנו צריכים גם להרהר במגוון הווריאציות שבאות לשחק עם המלחה.

קחו את האפשרות שהאדם המעוניין להתקבל לעבודה הוא באופן גלוי עורך דין של האיגוד לאורך כל תהליך חיפוש העבודה במשרד. אדם זה עשוי להופיע לראיון העבודה לבוש בחולצה או לבוש אחר שמבהיר בבירור שהוא בעד איגוד. הם עשויים במהלך ראיונות להעלות את תקוותם שהחברה תאמץ מתישהו את ההתאגדות. וכו.

במקרה כזה, יש שיטענו שהעסק ידע למה הוא נכנס. מההתחלה, לחברה היו הרבה אינדיקציות לגבי כוונותיו של האדם. אתה לא יכול אז להתבכיין לאחר מכן אם עם קבלת העסקה העובד החדש יעשה כל שביכולתו כדי להכניס את האיגוד. החברה ירתה לעצמה, כביכול, וכל דבר אחר הוא רק דמעות תנין.

הריקוד על זה שוב מורכב ממה שהוא נראה. בהתאם לבעיות משפטיות שעלולות להתעורר, מישהו שמוכשר אחרת להתקבל לעבודה יכול אם ידחה על ידי החברה המגייסת לטעון שהם התעלמו בכוונה כתוצאה מהטיה נגד איגודי החברה. שוב, ה-NRLA וה-NRB נמשכים לפרשה המבולגנת.

אני אעביר לך במהירות שלל שיקולים אחרים שעולים בתחום המלחה. אני גם רוצה שתהיו מודעים לכך שהמלחה היא לא רק תופעה של ארה"ב בלבד. זה יכול להתרחש גם במדינות אחרות. כמובן, החוקים והפרקטיקות של מדינות שונות באופן דרמטי, ולפיכך המלחה אינה שימושית במיוחד או אולי אפילו אסורה על הסף באזורים מסוימים, בעוד שאופי ההמלחה עשוי להשתנות באופן משמעותי בהתבסס על המידות המשפטיות והתרבותיות שבהן, ולמעשה. עדיין יש כוח.

התייעץ עם עורך הדין האהוב שלך לדיני עבודה בכל תחום שיפוט שמעניין אותך.

כמה גורמים נוספים לגבי המלחה כוללים:

  • מקבל תשלום. לפעמים האדם מקבל שכר מהאיגוד כדי לבצע את משימת ההתקבלות לעבודה במשרד. לאחר מכן הם עשויים לקבל שכר הן מהחברה והן מהאיגוד במהלך כהונתם במשרד או שלא יקבלו עוד שכר מהאיגוד לאחר שנשכרו על ידי המשרד.
  • נראות. לפעמים האדם שומר על הירידה הנמוכה או נשאר שקט לחלוטין במהלך תהליך הגיוס לגבי כוונות ההתאגדות שלו, בעוד שבמקרים אחרים האדם הוא קולני גלוי לגבי מה שהוא מתכוון לעשות. גישה שלכאורה באמצע הדרך היא שהאדם יגיד מה הוא מכוון לעשות אם ישאל אותו במפורש במהלך הראיונות, ובכך רומז שהחברה צריכה להדיח כוונות כאלה, וזה נטל שחברות טוענות שהוא מטעה. מתח את הגבולות המשפטיים.
  • תִזמוּן. האדם שאחרי התקבל לעבודה עשוי לבחור להמתין כדי לקבל את יכולת ההתאגדות שלו. הם עלולים לחכות שבועות, חודשים ואפילו שנים כדי להפעיל. רוב הסיכויים הם כי סביר יותר שהם יתחילו לאחר שיתאקלמו במשרד וייצרו דריסת רגל אישית כעובדים בחברה. אם הם יתחילו מיד, הדבר עלול לקעקע את הניסיון שלהם להיראות כמקורבים ולהטיל עליהם פולש או מבחוץ.
  • צעדים שננקטו. לפעמים האדם יודיע במפורש בתוך המשרד שהם מבקשים כעת לאמץ את ההתאגדות, מה שעלול לקרות זמן קצר לאחר קבלת העבודה או להתרחש זמן מה לאחר מכן (לפי האינדיקציה לעיל לגבי גורם התזמון). מצד שני, האדם עשוי לבחור לשרת בתפקיד סמוי, תוך הזנת מידע לאיגוד ולא מעורר תשומת לב לעצמו. זה לפעמים נדחק כמו להיות א שומה המלחה, למרות שאחרים ידגישו שהאדם עלול להיות נתון אחרת לסיכונים פנימיים אם הם מדברים ישירות.
  • קביעות. אדם שלוקח על עצמו מאמץ המלחה עשוי בסופו של דבר להצליח להניע תנופת איגוד (הם "מלחים"). הם עלולים להישאר במשרד לאורך תהליך ההתאגדות. עם זאת, לפעמים אדם כזה בוחר לעזוב את המשרד שנוצר ובוחר ללכת למשרד אחר כדי להתחיל מחדש את הפעילות המעוררת. הוויכוחים על כך עזים. נקודת מבט אחת היא שזה מראה בבירור שלאדם לא היה בלבו את העבודה במשרד. נקודת המבט המנוגדת היא שהם עלולים למצוא את עצמם במים עכורים ואולי בלתי נסבלים על ידי הישארותם בחברה לאחר שהמאמץ לחיזוק האיגוד יקבל כוח.
  • תוֹצָאָה. ניסיון המלחה אינו מבטיח תוצאה מסוימת. יכול להיות שהאדם אכן מעלה את המודעות לגבי ההתאגדות והמאמץ יוצא לדרך, אם כן התרחשה המלחה "מוצלחת". תוצאה נוספת היא שהאדם אינו מסוגל לקבל משיכה כזו. או אז הם מוותרים על המרדף ונשארים בחברה, אולי מחכים להזדמנות נוספת במועד מאוחר יותר, או שהם עוזבים את החברה ובדרך כלל מבקשים לבצע את ההמלחה בחברה אחרת.
  • סלטר מקצועי. יש אנשים הרואים בעצמם תומכים חזקים בהמלחה והם מתגאים בכך שהם משמשים כמלוחים, כביכול. הם מבצעים את ההמלחה שוב ושוב, תוך שהם עוברים ממפעל למשרד. אחרים יעשו זאת באופן חד פעמי, אולי בגלל העדפה מסוימת או כדי לראות איך זה, ואז יבחרו לא לחזור על תפקיד כזה. אתם בוודאי יכולים לדמיין את סוגי הלחצים האישיים והמתח הפוטנציאלי שיכולים להתרחש כאשר נמצאים בכושר מלוח.

גורמים אלה יספיקו לעת עתה כדי להדגיש את הטווח והדינמיקה של המלחה. אבדוק מחדש את הגורמים הללו בהקשר של AI ושיקולי AI אתיים.

התמצית היא שאנשים מסוימים מבקשים להתקבל לעבודה בחברה כדי ליזום או להניע את ביסוס עקרונות האתיקה של בינה מלאכותית בחברה. זוהי המוטיבציה העיקרית שלהם ללכת לעבוד במשרד.

במובן מסוים, הם ממליחים לא למטרות איגוד, אלא "ממליחים" כדי לנסות להשיג חברה שמושרשת במצוות AI אתיות.

אני אגיד הרבה יותר על זה לרגע.

לפני שנכנס לעוד קצת בשר ותפוחי אדמה על השיקולים הפראיים והצמריים העומדים בבסיס ההמלחה בהקשר של בינה מלאכותית, בואו נפרוש כמה יסודות נוספים בנושאים חיוניים מאוד. עלינו לצלול בקצרה לתוך אתיקה של בינה מלאכותית ובמיוחד בהופעת למידת מכונה (ML) ולמידה עמוקה (DL).

אולי אתם מודעים במעורפל לכך שאחד הקולות החזקים ביותר בימינו בתחום הבינה המלאכותית ואפילו מחוץ לתחום הבינה המלאכותית מורכב מהצעקה למראה גדול יותר של בינה מלאכותית אתית. בואו נסתכל על מה זה אומר להתייחס לאתיקה של בינה מלאכותית ולאתיקה בינה מלאכותית. נוסף על כך, נחקור למה אני מתכוון כשאני מדבר על למידת מכונה ולמידה עמוקה.

פלח או חלק מסוים של אתיקה של בינה מלאכותית שזכו לתשומת לב רבה בתקשורת מורכבים מבינה מלאכותית המפגינה הטיות וחוסר שוויון לא רצויים. אתה אולי מודע לכך שכשהעידן האחרון של בינה מלאכותית יצא לדרך, היה פרץ עצום של התלהבות ממה שחלק מכנים עכשיו AI לתמיד. לרוע המזל, בעקבות אותה התרגשות גועשת, התחלנו להיות עדים AI למען הרע. לדוגמה, מערכות שונות של זיהוי פנים מבוססות בינה מלאכותית התגלו כמכילות הטיות גזעיות והטיות מגדריות, שעליהן דיברתי ב- הקישור כאן.

מאמצים להילחם נגד AI למען הרע פועלים באופן פעיל. חוץ מזה קולני משפטי בשאיפה לרסן את העוולות, יש גם דחיפה מהותית לאימוץ אתיקה של AI כדי לתקן את גנאי הבינה המלאכותית. הרעיון הוא שעלינו לאמץ ולאמץ עקרונות מפתח אתיים בינה מלאכותית לפיתוח ותחום ה- AI לעשות זאת כדי להפחית את AI למען הרע ובו זמנית מבשר וקידום העדיף AI לתמיד.

לגבי רעיון קשור, אני תומך בניסיון להשתמש בבינה מלאכותית כחלק מהפתרון לבעיות בינה מלאכותית, להילחם באש עם אש באופן חשיבה זה. אנו יכולים למשל להטמיע רכיבי בינה מלאכותית אתית לתוך מערכת בינה מלאכותית שתפקח על אופן הפעולה של שאר הבינה המלאכותית ובכך עשויה לתפוס בזמן אמת כל מאמצים מפלים, ראה הדיון שלי ב- הקישור כאן. יכול להיות לנו גם מערכת AI נפרדת הפועלת כסוג של צג אתיקה של AI. מערכת הבינה המלאכותית משמשת כמפקחת כדי לעקוב ולזהות מתי בינה מלאכותית אחרת נכנסת לתהום הלא אתית (ראה ניתוח שלי של יכולות כאלה ב הקישור כאן).

בעוד רגע, אשתף אתכם בכמה עקרונות-על העומדים בבסיס אתיקה של AI. יש המון רשימות כאלה שמסתובבות פה ושם. אפשר לומר שעדיין אין רשימה יחידה של ערעור והסכמה אוניברסליים. אלו החדשות המצערות. החדשות הטובות הן שלפחות ישנן רשימות אתיקה של AI והן נוטות להיות די דומות. בסך הכל, זה מצביע על כך שבאמצעות סוג של התכנסות מנומקת אנו מוצאים את דרכנו לעבר משותף כללי של מה שמכיל אתיקה של AI.

ראשית, הבה נסקור בקצרה כמה מהמצוות האתיות הכוללות בינה מלאכותית כדי להמחיש מה אמור להיות שיקול חיוני עבור כל מי שמעצב, מעבד או משתמש בבינה מלאכותית.

לדוגמה, כפי שנאמר על ידי הוותיקן ב רומא קריאה לאתיקה של AI וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • שקיפות: באופן עקרוני, מערכות AI חייבות להיות ניתנות להסבר
  • הַכלָלָה: יש לקחת בחשבון את הצרכים של כל בני האדם כדי שכולם יוכלו להפיק תועלת, ולהציע לכל הפרטים את התנאים הטובים ביותר להתבטא ולהתפתח
  • אַחֲרָיוּת: מי שמתכננים ומפרסים את השימוש ב-AI חייבים להמשיך באחריות ובשקיפות
  • חוסר זוגיות: אין ליצור או לפעול על פי הטיה, ובכך לשמור על הגינות וכבוד האדם
  • אֲמִינוּת: מערכות AI חייבות להיות מסוגלות לעבוד בצורה אמינה
  • בטיחות ופרטיות: מערכות AI חייבות לעבוד בצורה מאובטחת ולכבד את פרטיות המשתמשים.

כפי שנאמר על ידי משרד ההגנה האמריקאי (DoD) בכתביהם עקרונות אתיים לשימוש בבינה מלאכותית וכפי שכיסיתי לעומק ב הקישור כאן, אלו הם ששת עקרונות האתיקה העיקריים של AI:

  • אחראי: אנשי DoD יפעילו רמות מתאימות של שיקול דעת וטיפול תוך שהם יישארו אחראים לפיתוח, פריסה ושימוש ביכולות AI.
  • הוֹגֶן: המחלקה תנקוט בצעדים מכוונים כדי למזער הטיה לא מכוונת ביכולות הבינה המלאכותית.
  • ניתן למעקב: יכולות ה-AI של המחלקה יפותחו וייפרסו כך שלצוות הרלוונטי יהיה הבנה מתאימה של הטכנולוגיה, תהליכי הפיתוח והשיטות התפעוליות החלות על יכולות בינה מלאכותית, לרבות מתודולוגיות שקופות וניתנות לביקורת, מקורות נתונים ונוהל עיצוב ותיעוד.
  • אָמִין: ליכולות הבינה המלאכותית של המחלקה יהיו שימושים מפורשים ומוגדרים היטב, והבטיחות, האבטחה והיעילות של יכולות כאלה יהיו כפופות לבדיקה והבטחה במסגרת אותם שימושים מוגדרים לאורך כל מחזור החיים שלהן.
  • ניתן לממשל: המחלקה תתכנן ותהנדס יכולות בינה מלאכותית למילוי הפונקציות המיועדות להן תוך יכולת לזהות ולהימנע מהשלכות לא מכוונות, ויכולת לנטרל או להשבית מערכות פרוסות המפגינות התנהגות לא מכוונת.

דנתי גם בניתוחים קולקטיביים שונים של עקרונות האתיקה של בינה מלאכותית, כולל כיסיתי סט שהומצא על ידי חוקרים שבדק וריכז את המהות של עקרונות אתיקה לאומיים ובינלאומיים רבים של AI במאמר שכותרתו "הנוף הגלובלי של הנחיות האתיקה של בינה מלאכותית" (שפורסם) ב טבע), ושהסיקור שלי בוחן ב הקישור כאן, שהובילה לרשימת אבני המפתח הזו:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

כפי שאתה יכול לנחש ישירות, הניסיון לדייק את הפרטים העומדים בבסיס העקרונות הללו יכול להיות קשה מאוד. אפילו יותר מכך, המאמץ להפוך את העקרונות הרחבים הללו למשהו מוחשי ומפורט מספיק כדי לשמש בעת יצירת מערכות בינה מלאכותית הוא גם אגוז קשה לפיצוח. קל בסך הכל לנפנף קצת ביד על מה הם מצוות האתיקה של בינה מלאכותית וכיצד יש להקפיד עליהן באופן כללי, בעוד שזה מצב הרבה יותר מסובך בקידוד הבינה המלאכותית שצריך להיות הגומי האמיתי שפוגש את הדרך.

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים את מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית. כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שצוין קודם לכן, נדרש כפר כדי להמציא ולהשיג בינה מלאכותית, ועבורו הכפר כולו צריך להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

בואו גם נוודא שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות. אין לנו את זה. אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לחזות בצורה הראויה אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיונית תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה הסיקור שלי ב- הקישור כאן).

סוג ה-AI שאני מתמקד בו מורכב מה-AI הלא-רגיש שיש לנו היום. אם היינו רוצים להעלות ספקולציות בפראות לגבי מרגיש AI, הדיון הזה יכול ללכת לכיוון שונה בתכלית. AI חיוני יהיה כביכול באיכות אנושית. תצטרך לשקול שה-AI החיוני הוא המקבילה הקוגניטיבית לאדם. יתרה מכך, מכיוון שחלק משערים שאולי יש לנו בינה מלאכותית סופר אינטליגנטית, ניתן להעלות על הדעת שבינה מלאכותית כזו יכולה בסופו של דבר להיות חכמה יותר מבני אדם (לחקירה שלי לגבי AI סופר אינטליגנטי כאפשרות, ראה הסיקור כאן).

בואו נשאיר את הדברים יותר מדוייקים ונשקול את הבינה המלאכותית החישובית הלא-חושית של היום.

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום אופן בדומה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning (ML) וב-Deep Learning (DL), הממנפות התאמת דפוסים חישוביים. זה הוביל למערכות AI שיש להן מראה של נטיות דמויות אדם. בינתיים, אין כיום שום בינה מלאכותית שיש לה מראית עין של שכל ישר וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

בואו נחזור להתמקדות שלנו בהמלחה בהקשר של AI.

ראשית, אנו מסירים כל מראית עין של אלמנט האיחוד מהטרמינולוגיה של המלחה ובמקום זאת משתמשים רק בהמלחה כפרדיגמה או גישה מוכללת כתבנית. אז בבקשה שימו בצד את ההיבטים הקשורים לאיגוד למטרות של דיון המלחה זה הקשור לבינה מלאכותית.

שנית, כפי שהוזכר קודם לכן, המלחה בהקשר זה של בינה מלאכותית גורמת לכך שחלק מהאנשים יבקשו להתקבל לעבודה בחברה כדי ליזום או להניע את ביסוס עקרונות האתיקה של בינה מלאכותית בחברה. זוהי המוטיבציה העיקרית שלהם ללכת לעבוד במשרד.

כדי להבהיר, יש בהחלט רבים שמתקבלים לעבודה לפירמה והם כבר חשבו על כך שאתיקה של AI היא חשובה. זה אמנם לא בחזית הבסיס שלהם לניסיון להתקבל לעבודה על ידי החברה המסוימת המעניינת. למעשה, הם יתקבלו לעבודה כדי לבצע איזושהי עבודת פיתוח או פריסה של בינה מלאכותית, ועבורה הם מביאים בתוכם בהישג יד אמונה עוקצנית בבינה מלאכותית אתית.

לאחר מכן הם יפעלו כמיטב יכולתם כדי להחדיר או לעורר שיקולי אתיקה של AI בחברה. טוב להם. אנו זקוקים לעוד אנשים שיש בהם רצון עז.

אבל זה לא ההמלחה שאני רומז לה כאן. תארו לעצמכם שמישהו בוחר חברה מסוימת שנראה שלא עושה הרבה, אם בכלל, לאימוץ אתיקה של AI. האדם מחליט שהוא הולך להתקבל לעבודה על ידי אותה חברה אם הוא יכול לעשות זאת בעבודת AI יומיומית כלשהי (או אולי אפילו בתפקיד שאינו בינה מלאכותית), ואז המיקוד העיקרי שלו יהיה להתקין או להניע עקרונות אתיקה של AI חֶברָה. זו לא חובת העבודה העיקרית שלהם ואפילו לא מופיעה במסגרת תפקידם בעבודה (אני מזכיר זאת כי ברור שאם מישהו נשכר כדי להביא בכוונה לאתיקה של AI הם לא "ממליחים" באופן של הקונוטציה והמראית עין כאן).

לאדם הזה לא אכפת במיוחד מהעבודה כשלעצמה. בטח, הם יעשו כל מה שהעבודה מורכבת ממנו, ויש להניח שהם מוסמכים לעשות זאת. בינתיים, האג'נדה האמיתית שלהם היא לדרבן בינה מלאכותית אתית להפוך לחלק מהחברה. זו המשימה. זאת המטרה. העבודה עצמה היא רק אמצעי או כלי שיאפשר להם לעשות זאת מבפנים.

אפשר לומר שהם יכולים לעשות את אותו הדבר מחוץ למשרד. הם יכולים לנסות לעודד את צוותי הבינה המלאכותית בחברה כדי להיות מעורבים יותר באתיקה של בינה מלאכותית. הם עשויים לנסות לבייש את החברה לעשות זאת, אולי על ידי פרסום בבלוגים או נקיטת צעדים אחרים. וכן הלאה. העניין הוא שהם עדיין יהיו אאוטסיידר, בדיוק כפי שצוין קודם לכן כשדנו בהנחת היסוד של המלחה.

האם איש המלחת הבינה המלאכותית מרמה?

אנחנו שוב נזכרים באותה שאלה שנשאלה לגבי ההקשר האיגודי של המלחה. האדם עשוי להתעקש שאין רמאות כלל. הם התקבלו לעבודה. הם עושים את העבודה. במקרה הם בנוסף, הם צדדים פנימיים של אתיקה של AI ופועלים בעוצמה כדי לגרום לאחרים לעשות את אותו הדבר. בלי נזק, בלי עבירה.

סביר להניח שהם גם יציינו שאין שום חיסרון מיוחד לדרבן את החברה לכיוון AI אתי. בסופו של דבר, זה יעזור לחברה להימנע מתביעות משפטיות שאחרת עלולות להתעורר אם מייצרים את הבינה המלאכותית שאינה מצייתת למצוות האתיקה של הבינה המלאכותית. ובכך הם מצילים את החברה מעצמה. למרות שאולי לא אכפת לאדם במיוחד לבצע את העבודה שעל הפרק, הם עושים את העבודה ובו זמנית הופכים את החברה לחכמה ובטוחה יותר באמצעות דחיפה קולנית לעבר AI אתי.

חכה שנייה, איזו תשובה, האדם הזה לא הוגן. נראה שהם הולכים לקפוץ לספינה ברגע שהחיבוק האתיקה של AI מתרחש. הלב שלהם לא במשרד ולא בעבודה. הם משתמשים בחברה כדי לקדם את סדר היום שלהם. בטח, סדר היום נראה מספיק טוב, מנסה להעלות את AI אתית בראש, אבל זה יכול ללכת רחוק מדי.

אתה מבין, הטיעון עוד אומר שהמרדף לאתיקה של AI עשוי להיות קנאי מדי. אם האדם בא כדי להתחיל בינה מלאכותית אתית, ייתכן שהוא לא יסתכל על תמונה רחבה יותר של מה שהחברה מתמודדת איתו. למעט כל השאר, אדם זה עלול להסיח את דעתו של החברה ולא להיות מוכן לאפשר אימוץ אתיקה של AI על בסיס מנומק ובקצב נבון.

הם עלולים להפוך לחוסר שביעות רצון מפריע שפשוט מתווכח ללא הרף על המקום שבו החברה יושבת במונחים של מצוות AI אתיות. מפתחי בינה מלאכותית אחרים עלולים להיות מוסחים על ידי פטפוטים במנגינה אחת. הכנסת אתיקה של בינה מלאכותית לתערובת היא בהחלט הגיונית, אם כי תיאטרון ושיבושים פוטנציאליים אחרים בתוך החברה יכולים לעצור את התקדמות בינה מלאכותית אתית במקום לסייע לה.

סיבוב אנחנו הולכים.

כעת נוכל לבחון מחדש את הגורמים הנוספים הללו לגבי המלחה שהצעתי בעבר:

  • מקבל תשלום. אפשר להעלות על הדעת שהאדם עשוי לקבל תשלום תחילה על ידי ישות כלשהי שרוצה לגרום לחברה לאמץ את אתיקה של AI, אולי במטרה לעשות זאת בצורה תמימה או אולי למכור לחברה סט מסוים של כלים או פרקטיקות של AI אתיקה. בדרך כלל לא סביר, אבל ראוי להזכיר.
  • נראות. ייתכן שהאדם לא יביא במיוחד את משימת האתיקה של ה-AI שלו כאשר הוא עובר את תהליך הגיוס. במקרים אחרים, הם עשויים לוודא שהוא נמצא בחזית ובמרכז, כך שחברת הגיוס מבינה ללא כל אי בהירות לגבי המיקוד האדוק שלהם. עם זאת, סביר יותר להניח כי אתיקה של AI היא דאגה משנית ושהעבודה היא הדאגה העיקרית שלהם, ולא להיפך.
  • תִזמוּן. האדם שנשכר פעם אחת עשוי לבחור להמתין כדי להתחיל את התחלות האתיקה שלו ב-AI. הם עלולים לחכות שבועות, חודשים ואפילו שנים כדי להפעיל. רוב הסיכויים הם כי סביר יותר שהם יתחילו לאחר שיתאקלמו במשרד וייצרו דריסת רגל אישית כעובדים בחברה. אם הם יתחילו מיד, הדבר עלול לקעקע את הניסיון שלהם להיראות כמקורבים ולהטיל עליהם פולש או מבחוץ.
  • צעדים שננקטו. לפעמים האדם יודיע במפורש בתוך החברה שהם מבקשים כעת להעלות את תשומת הלב לאתיקה של AI, מה שיכול לקרות זמן קצר לאחר קבלת העסקה או להתרחש זמן מה לאחר מכן (לפי האינדיקציה לעיל לגבי גורם התזמון). מצד שני, האדם עשוי לבחור לשרת בתפקיד סמוי, לעבוד בשקט בתוך המשרד ולא להביא תשומת לב מיוחדת לעצמו. הם עשויים גם להזין מידע לעיתונות ולגורמים חיצוניים אחרים על ההשמטות או הכשלים של אתיקה בינה מלאכותית המתרחשים בחברה.
  • קביעות. אדם שלוקח על עצמו מאמץ המלחה עשוי בסופו של דבר להצליח להניע תנופת AI אתיקה. הם עשויים להישאר בחברה לאורך תהליך האימוץ של AI אתי. עם זאת, לפעמים אדם כזה בוחר לעזוב את המשרד שנוצר ובוחר ללכת למשרד אחר כדי להתחיל מחדש את הפעילות המעוררת. הוויכוחים על כך עזים. נקודת מבט אחת היא שזה מראה בבירור שלאדם לא היה בלבו את העבודה במשרד. נקודת המבט המנוגדת היא שהם עלולים למצוא את עצמם במים עכורים ואולי בלתי נסבלים על ידי הישארות בחברה אם הם מתויגים כעת כקולות רמים או עושי צרות.
  • תוֹצָאָה. ניסיון המלחה אינו מבטיח תוצאה מסוימת. יכול להיות שהאדם אכן מעלה את המודעות ל-Ethical AI והמאמץ יוצא לדרך, אם כן המליחה "מוצלחת" התרחשה. תוצאה נוספת היא שהאדם אינו מסוגל לקבל משיכה כזו. או אז הם מוותרים על המרדף ונשארים בחברה, אולי מחכים להזדמנות נוספת במועד מאוחר יותר, או שהם עוזבים את החברה ובדרך כלל מבקשים לבצע את ההמלחה בחברה אחרת.
  • סלטר מקצועי. אנשים מסוימים עשויים להחשיב את עצמם כדוגלים נלהבים של המלחת AI אתיקה והם מתגאים בכך שהם משמשים כמלוחים, כביכול. הם מבצעים את ההמלחה שוב ושוב, תוך שהם עוברים ממפעל למשרד. אחרים עשויים לעשות זאת על בסיס חד פעמי, אולי בגלל העדפה מסוימת או כדי לראות איך זה, ואז לבחור לא לחזור על תפקיד כזה. אתם בוודאי יכולים לדמיין את סוגי הלחצים האישיים והמתח הפוטנציאלי שיכולים להתרחש כאשר נמצאים בכושר מלוח.

אם סוג זה של המלחה מכוונת אתיקה של AI תופס, יישאר לראות. אם חברות איטיות לטפח בינה מלאכותית אתית, הדבר עלול לגרום לאתיקאי בינה מלאכותית נלהבים לקחת על עצמם מאמצי המלחה. אולי הם לא ממש מבינים ישירות שהם עושים המלחה. במילים אחרות, מישהו הולך לחברה X ומנסה להשיג אחיזה עבור AI Ethics, אולי עושה זאת, ומבין שהם צריכים לעשות את אותו הדבר במקומות אחרים. לאחר מכן הם עוברים לחברה Y. שוטפים וחוזרים.

שוב, הדגש הוא שאימוץ אתיקה של AI הוא בראש סדר העדיפויות שלהם. נחיתת העבודה היא משנית או אפילו לא חשובה במיוחד, מלבד היכולת להיכנס פנימה ולעשות את מאמצי ההמלחה הפנימיים הקשורים לבינה מלאכותית אתית.

אוסיף גם שלאלה שחוקרים ומנתחים היבטים של אתיקה של בינה מלאכותית יש כעת תוספת חדשה במקצת לנושאים של עיסוקי מחקר בינה מלאכותית אתית:

  • האם יש להסכים באופן כללי למאמצי ההמלחה האלה של AI אתיקה?
  • מה מניע את אלה שירצו לבצע המלחה בהקשר זה של AI?
  • איך עסקים צריכים להגיב לפעולה הנתפסת של המלחת הקשר בינה מלאכותית?
  • האם יהיו מתודולוגיות שיוכננו כדי לעודד המלחה הקשורה לבינה מלאכותית כמו זו?
  • וכו '

במידה מסוימת, זו הסיבה שהאתיקה של AI ובינה מלאכותית אתית היא נושא כה מכריע. מצוות האתיקה של AI גורמות לנו להישאר ערניים. טכנולוגים בינה מלאכותית יכולים לפעמים להתעסק בטכנולוגיה, במיוחד באופטימיזציה של ההייטק. הם לא בהכרח שוקלים את ההשלכות החברתיות הגדולות יותר. קיום חשיבה של אתיקה בינה מלאכותית ועושה זאת באופן אינטגרלי לפיתוח ותחום בינה מלאכותית היא חיונית להפקת בינה מלאכותית מתאימה, כולל (אולי באופן מפתיע או אירוני) ההערכה של האופן שבו אתיקה של בינה מלאכותית מאומצת על ידי חברות.

מלבד שימוש במצוות האתיקה של בינה מלאכותית באופן כללי, ישנה שאלה מקבילה האם צריכים להיות לנו חוקים שישלטו על שימושים שונים בבינה מלאכותית. חוקים חדשים מתגבשים ברמה הפדרלית, המדינתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא הדרגתי. אתיקה של בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים נחרצות שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. למעשה, הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית האלה, נהרוג את אווז הזהב על ידי מניעת התקדמות בינה מלאכותית שמעניקה יתרונות חברתיים עצומים.

בשלב זה של הדיון הכבד הזה, אני מתערב שאתה מעוניין בכמה דוגמאות להמחשה שעשויות להציג את הנושא הזה. יש מכלול מיוחד ופופולארי של דוגמאות שקרובות ללבי. אתה מבין, בתפקידי כמומחה לבינה מלאכותית, כולל ההשלכות האתיות והמשפטיות, אני מתבקש לעתים קרובות לזהות דוגמאות מציאותיות המציגות דילמות של אתיקה של בינה מלאכותית, כך שניתן יהיה לתפוס בקלות רבה יותר את האופי התיאורטי משהו של הנושא. אחד התחומים המעוררים ביותר שמציגים בצורה חיה את התלבטות בינה מלאכותית זו הוא הופעתן של מכוניות אמיתיות המבוססות על בינה מלאכותית בנהיגה עצמית. זה ישמש מקרה שימוש שימושי או דוגמה לדיון נרחב בנושא.

אז הנה שאלה ראויה לציון שכדאי לחשוב עליה: האם הופעתן של מכוניות נהיגה עצמית אמיתיות מבוססות בינה מלאכותית מאירה משהו על המלחה הקשורה לבינה מלאכותית, ואם כן, מה זה מציג לראווה?

תן לי רגע לפרוק את השאלה.

ראשית, שים לב שאין נהג אנושי המעורב במכונית נהיגה עצמית אמיתית. זכור שמכוניות אמיתיות בנהיגה עצמית מונעות באמצעות מערכת נהיגה בינה מלאכותית. אין צורך בנהג אנושי על ההגה, וגם אין הוראה לאדם שינהג ברכב. לסיקור הנרחב והמתמשך שלי על כלי רכב אוטונומיים (AVs) ובעיקר מכוניות אוטונומיות, ראה הקישור כאן.

ברצוני להבהיר יותר למה הכוונה כשאני מתייחס למכוניות עם נהיגה עצמית אמיתית.

הבנת רמות המכוניות בנהיגה עצמית

לשם הבהרה, מכוניות עם נהיגה עצמית אמיתית הן כאלה שבהן ה- AI נוהג במכונית לגמרי לבד ואין סיוע אנושי במהלך משימת הנהיגה.

כלי רכב אלה ללא נהג נחשבים לרמה 4 ורמה 5 (ראה ההסבר שלי ב קישור זה כאן), בעוד שמכונית שדורשת נהג אנושי לחלוק במאמץ הנהיגה נחשבת בדרך כלל ברמה 2 או רמה 3. המכוניות שחולקות בשיתוף את משימת הנהיגה מתוארות כחצי אוטונומיות, ובדרך כלל מכילות מגוון של תוספות אוטומטיות המכונות ADAS (Advanced Driver-Assistance Systems).

עדיין אין מכונית נהיגה עצמית אמיתית ברמה 5, ואנחנו עדיין לא יודעים אפילו אם זה יהיה אפשרי, וגם לא כמה זמן ייקח להגיע לשם.

בינתיים, מאמצי הרמה 4 מנסים בהדרגה להשיג מתיחה על ידי ביצוע ניסויים ציבורים צרים וסלקטיביים מאוד, אם כי קיימת מחלוקת בשאלה האם יש לאפשר בדיקה זו כשלעצמה (כולנו חזירי ים חיים או מוות בניסוי. המתרחש בכבישים המהירים שלנו ובכבישים המהירים שלנו, חלקם טוענים, ראה את הסיקור שלי ב קישור זה כאן).

מכיוון שמכוניות אוטונומיות למחצה דורשות נהג אנושי, אימוץ סוגים אלה של מכוניות לא יהיה שונה באופן מובהק מאשר נהיגה ברכבים קונבנציונליים, כך שאין כל דבר חדש כשלעצמו שיכול לכסות עליהם בנושא זה (עם זאת, כפי שתראו לרגע, הנקודות הבאות הניתנות להחלה בדרך כלל).

עבור מכוניות אוטונומיות למחצה, חשוב שהציבור צריך להיזהר מהיבט מטריד שמתעורר לאחרונה, כלומר שלמרות אותם נהגים אנושיים שממשיכים לפרסם סרטונים של עצמם שנרדמים על ההגה של מכונית ברמה 2 או שלב 3 , כולנו צריכים להימנע מהטעיה באמונה שהנהג יכול לקחת את תשומת ליבם ממשימת הנהיגה בזמן שהוא נוהג במכונית אוטונומית למחצה.

אתה הצד האחראי לפעולות הנהיגה של הרכב, ללא קשר לכמה אוטומציה ניתן לזרוק לרמה 2 או רמה 3.

מלחת מכוניות בנהיגה עצמית והמלחת בינה מלאכותית

ברכבים 4 וברמה 5 רכבים אמיתיים לנהיגה עצמית, לא יהיה נהג אנושי המעורב במשימת הנהיגה.

כל הנוסעים יהיו נוסעים.

ה- AI מבצע את הנהיגה.

היבט אחד שיש לדון בו מייד טומן בחובו העובדה כי ה- AI המעורב במערכות הנהיגה של ה- AI של ימינו אינו רגיש. במילים אחרות, ה- AI הוא לגמרי קולקטיב של תכנות ואלגוריתמים מבוססי מחשב, ובוודאי שלא מסוגל לנמק באותו אופן שבני אדם יכולים.

מדוע הדגש הנוסף הזה לגבי הבינה המלאכותית לא רגיש?

מכיוון שאני רוצה להדגיש שכאשר דנים בתפקידה של מערכת הנהיגה המלאכותית, אינני מייחס תכונות אנושיות למדעי הבינה. לידיעתך, יש בימינו נטייה מתמשכת ומסוכנת לאנתרופומורפיזציה של AI. בעיקרו של דבר, אנשים מייעדים רגש דמוי אנושי לבינה מלאכותית של ימינו, למרות העובדה שאי אפשר להכחיש ובלתי ניתנת לערעור, שעדיין לא קיים AI כזה.

עם ההבהרה הזו, אתה יכול לחזות שמערכת הנהיגה של AI לא בדרך כלל "תדע" על היבטי הנהיגה. נהיגה וכל המשתמע מכך תצטרך להיות מתוכנת כחלק מהחומרה והתוכנה של המכונית הנהיגה העצמית.

בואו נצלול לשלל ההיבטים שמגיעים לשחק בנושא זה.

ראשית, חשוב להבין שלא כל המכוניות בנהיגה עצמית בינה מלאכותית זהות. כל יצרנית רכב וחברת טכנולוגיה לנהיגה עצמית נוקטת בגישה שלה לתכנן מכוניות בנהיגה עצמית. ככזה, קשה להצהיר הצהרות גורפות לגבי מה מערכות נהיגה בינה מלאכותית יעשו או לא.

יתר על כן, בכל פעם שמצהירים שמערכת נהיגה מלאכותית לא עושה דבר מסוים, מאוחר יותר זה יכול להיות עקוף על ידי מפתחים שלמעשה מתכנתים את המחשב לעשות את זה. צעד אחר צעד, מערכות הנהיגה של AI משופרות ומורחבות בהדרגה. מגבלה קיימת כיום עשויה שלא להתקיים עוד באיטרציה או גירסה עתידית של המערכת.

אני מקווה שזה מספק כמות מספקת של אזהרות כדי לעמוד בבסיס מה שאני עומד להתייחס אליו.

בואו נשרטט תרחיש שמציג מצב המלחה הקשור לבינה מלאכותית.

יצרנית רכב שחותרת לפיתוח מכוניות אוטונומיות בנהיגה עצמית ממהרת קדימה עם נסיונות כבישים ציבוריים. על המשרד יש לחץ רב לעשות זאת. השוק צופה בהם, ואם נראה שהם לא נמצאים בקצה המוביל של פיתוח מכוניות בנהיגה עצמית מחיר המניה שלהם סובל בהתאם. בנוסף, הם כבר השקיעו מיליארדי דולרים והמשקיעים מתחילים להיות חסרי סבלנות ליום שבו תוכל החברה להכריז שמכוניותיהם האוטונומיות מוכנות לשימוש מסחרי יומיומי.

מפתח בינה מלאכותית צופה מקרוב מרחוק במאמצים של יצרנית הרכב. מקרים מדווחים של מערכת נהיגה בינה מלאכותית מתבלבלת או עושה טעויות נראים יותר ויותר בחדשות. מקרים שונים כוללים התנגשויות עם מכוניות אחרות, התנגשויות עם רוכבי אופניים ותקריות קשות אחרות.

המשרד בדרך כלל מנסה לשמור על השקט הזה. מפתח הבינה המלאכותית שוחח באופן פרטי עם כמה מהמהנדסים במשרד ולמד שמצוות האתיקה של בינה מלאכותית ניתנות רק למס שפתיים, במקרה הטוב. לסיקור שלי בנושאים כאלה של התחמקות מבינה מלאכותית אתית על ידי עסקים, ראה הקישור כאן.

מה מפתח הבינה המלאכותית הזה הולך לעשות?

הם מרגישים נאלצים לעשות משהו.

בוא נעשה קצת מאמץ ונחשוב על שני נתיבים שכל אחד מהם עשוי לעבור על ידי מפתח AI זה.

דרך אחת היא שמפתח הבינה המלאכותית נוקט בתקשורת כדי לנסות להביא לידי ביטוי את חוסר תשומת הלב לכאורה המתאימה למצוות האתיקה של בינה מלאכותית על ידי יצרנית הרכב. אולי מומחה AI המודאג הזה בוחר לכתוב בלוגים או ליצור וולוגים כדי להדגיש את החששות האלה. אפשרות נוספת היא שהם משיגים חבר קיים בצוות הבינה המלאכותית להפוך לסוג של מלשינים, נושא שסקרתי בו הקישור כאן.

זו בהחלט גישה חיצונית נחשבת של מפתח AI זה.

נתיב נוסף הוא שמפתח הבינה המלאכותית מאמין בתחושת הבטן שלו שאולי יוכל להספיק יותר מתוך החברה. מערך המיומנויות של מפתח הבינה המלאכותית מכוון היטב להיבטי בינה מלאכותית הכוללים מכוניות בנהיגה עצמית, והם יכולים להגיש מועמדות בקלות למשרות המשרות של מהנדס בינה מלאכותית בחברה. מפתח הבינה המלאכותית מחליט לעשות זאת. יתר על כן, הדחף מתרכז אך ורק בלהביא את יצרנית הרכב להיות רצינית יותר לגבי AI אתי. העבודה עצמה לא חשובה במיוחד למפתח הבינה המלאכותית הזה, מלבד שהם יוכלו כעת לעבוד בצורה משכנעת מבפנים.

יכול להיות שמפתח הבינה המלאכותית יקבל את התפקיד אבל אז מגלה שיש התנגדות פנימית אדירה ומטרת החתירה לבינה מלאכותית אתית היא חסרת טעם. האדם עוזב את החברה ומחליט לכוון ליצרנית רכב אחרת שאולי תהיה מוכנה יותר לתפוס מה מפתח הבינה המלאכותית שואף להשיג. שוב, הם עושים זאת כדי להשיג את שיקולי האתיקה של בינה מלאכותית ולא כעמוד התווך של כל מה שעבודת ה-AI מורכבת ממנו.

סיכום

הרעיון של התייחסות למאמצים הקשורים לבינה מלאכותית האלה כאל סוג של המלחה חייבת לגרום לחלק לסבול מצרבת בגלל שימוש יתר בטרמינולוגיה או אוצר מילים מבוססים כבר. המלחה די מושרשת בפעילות ההתאגדות הקשורה לעבודה ולעסקים. ניסיונות להעמיס את המילה בסוגים אחרים של פעילויות דומות לכאורה, אם כי בעלות אופי לחלוטין לא קשור לאיגוד, עלולים להטעות ולבלבל.

נניח שאנו מגיעים לביטוי אחר.

פלפל?

ובכן, נראה שזה לא מעורר את אותה רגש כמו המלחה. זה יהיה קרב עלייה לנסות ולהגדיר את זה ולהיכלל בלקסיקון השפה היומיומי שלנו.

לא משנה מה נמציא, וכל שם או ביטוי שנראה מתאים, אנחנו יודעים דבר אחד בוודאות. הניסיון לגרום לחברות לאמץ את אתיקה של AI הוא עדיין קרב עלייה. אנחנו צריכים לנסות. הנסיון צריך להיעשות בדרכים הנכונות.

נראה שלא משנה באיזה צד של הגדר אתה נופל, אנחנו צריכים לקחת את האזהרה הזו עם גרגר מלח מתאים.

מקור: https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/