אתיקה של בינה מלאכותית והמגרה המתקרבת כאשר חוק ניו יורק המחייב ביקורת על הטיות בינה מלאכותית נכנס להילוך

לפעמים הכוונות הטובות ביותר מתנגשות בצער על ידי חוסר חמור בתשומת לב לפרטים.

דוגמה מצוינת לחוכמת חכמים זו ראויה לחקור.

באופן ספציפי, בואו נסתכל מקרוב על חוק חדש בעיר ניו יורק בנוגע לבינה מלאכותית (AI) שייכנס לתוקף ב-1 בינואר 2023. אתה יכול בקלות לזכות בהימור גדול שיצוצו כל מיני בלבול, תדהמה וצרות ברגע שהחוק ייכנס לתוקף. אף על פי שהבעיות אינן בתכנון, הן יתרחשו ללא ספק כתוצאה מתכנון לקוי או לפחות התניה לא מספקת של פרטים הכרחיים שאמורים ויכלו בקלות להיות מתוכננים ולציין במפורש.

אני מתכוון לחוק מקומי שעבר בשנה שעברה ב-11 בדצמבר 2021 בעיר הנערצת ניו יורק, שאמור להיכנס לפעולה בתחילת 2023. כרגע אנחנו במרחק של כמה חודשים בלבד מההתעוררות הגדולה החוק החדש הזה הולך להתעורר. הלוואי ויכולתי לומר שהחוק השאפתני הולך לעשות בצורה חלקה את מה שהוא אמור לעשות, כלומר להתמודד עם הטיות AI פוטנציאליות בתחום קבלת החלטות תעסוקה. למרבה הצער, למרות שהכוונה ראויה לשבח, אני אדריך אותך דרך הפרצות הפעורות, ההשמטות וחוסר הספציפיות שיחתרו את החוק הזה וישגעו את המעסיקים כשהם מבקשים להתמודד עם ההשלכות הלא מכוונות אך די שליליות שלו.

אפשר לומר שזהו הנושא הקלאסי של לדחוף קדימה עם תוכנית חצי אפויה. מימרה נערצת שיוחסה לדווייט אייזנהאואר הייתה שתוכנית היא כלום בעוד שתכנון הוא הכל. בקיצור, החוק המסוים הזה עומד לספק דוגמה חיה לאופן שבו מחוקקים יכולים לפעמים ליפול בחוסר מחשבה מראש הפרטים הדרושים כדי שהחוק יעמוד במטרותיו הראויות לשבח וניתן לאימוץ בדרכים סבירות וזהירות בהחלט.

מחכה תקלה.

תירוצים כבר עומדים בתור.

כמה מבינים אמרו שלעולם אינך יכול לפרט חוק במלואו וצריך לראות אותו בפעולה כדי לדעת אילו היבטים של החוק יש לתקן (אמת כללית שמתעוותת מפרופורציה במקרה זה). יתרה מזאת, הם טוענים בלהט שזה המקרה בולט כשמדובר בחידוש המתהווה של חוקים הקשורים לבינה מלאכותית. לעזאזל, הם מפצירים, בינה מלאכותית היא קוסמות היי-טק שאיננו יודעים עליה הרבה כמחוקקים, ולכן ההיגיון אומר שעדיף לשים משהו בדפים המשפטיים מאשר לא להיות שם כלום.

על פני השטח, זה בהחלט נשמע משכנע. עם זאת, חפרו לעומק ותבינו שזה פוטנציאלי מופרך, כולל ובמיוחד במקרה של החוק הספציפי הזה. את החוק הזה ניתן בקלות לקבוע ביתר מיומנות ובשיקול דעת. אנחנו לא צריכים שיקוי קסם. אנחנו לא צריכים לחכות עד שיתעוררו הריסות. בזמן ניסוח החוק ניתן היה לקבוע את הסוג הנכון של ניסוח ופרטים.

בואו גם נוודא שהרעיון הלא הגון והצף לפיו לא ניתן היה לחזות את היבטי האימוץ מראש הוא מגוחך עד כאב. מדובר בהנפת יד חוקית מהסוג הריק ביותר. יש הרבה שיקולים ידועים כבר לגבי התמודדות עם הטיות בינה מלאכותית וביצוע ביקורות AI שניתן היה לבשל בקלות לתוך החוק הזה. אותו הדבר ניתן לומר על כל תחום שיפוט אחר השוקל לקבוע חוק כזה. אל תטעו להאמין שעלינו לפנות רק לזריקת חץ חוקית לרוחות הפרא ולסבול ייסורים באופן עיוור. טיפה של חשיבה משפטית בשילוב עם הבנה מתאימה של בינה מלאכותית כבר אפשרית ואין צורך לאחוז רק בקשיות.

אני יכול להוסיף, יש עדיין זמן לתקן את זה. השעון עדיין מתקתק. ייתכן שיהיה אפשר להתעורר לפני שפעמוני האזעקה יתחילו לצלצל. ניתן לקבל את הייעוץ הדרוש ולהודיע. הזמן קצר ולכן יש לתת לזה עדיפות ראויה.

בכל מקרה, אנא ודא שאתה קולט את הדגש כאן.

הרשה לי להבהיר בלהט שלחוק כזה הנוגע להטיות בינה מלאכותית אכן יש טעם. אני אסביר למה לרגע. אני גם אתאר אילו בעיות יש עם החוק החדש הזה, שרבים יאמרו שהוא הראשון אי פעם שהוכנס לספרי המשפט (קיימות וריאציות אחרות, אולי לא ממש כמו זו).

אכן, אתה יכול לצפות שחוקים דומים יתקיימו בהדרגה בכל רחבי הארץ. דאגה בולטת היא שאם ניסיון המעבר הראשון של ניו יורק ילך לא טוב, זה עלול לגרום לשאר המדינה להיזהר מלחוקק חוקים כאלה. זה לא הלקח הנכון שצריך ללמוד. הלקח הנכון הוא שאם אתם מתכוונים לכתוב חוק כזה, עשו זאת בהגיון ותוך שיקול דעת ראוי.

חוקים המושלכים על הספרים ללא בדיקה מספקת יכולים להיות מטרידים למדי וליצור כל מיני קשיים במורד הזרם. במובן הזה של הדברים, נא לא לזרוק את התינוק החוצה עם מי האמבט (אמרה ישנה, ​​כנראה שצריך לפרוש). העיקר הוא שחוקים כאלה יכולים להיות פרודוקטיביים ומגנים באמת כשהם מורכבים נכון.

האחד המסוים הזה למרבה הצער לא הולך לעשות זאת מחוץ לשער.

כל מיני הנחיה מבוהלת חייבות לבוא מצד מפעילי החוק ואוכפי החוק. סמן את היומנים שלך לסוף ינואר ועד לפברואר 2023 כדי לצפות בהתנהלות ההמולה. הצבעת אצבעות הולכת להיות אינטנסיבית מאוד.

אף אחד לא צועק במיוחד כרגע, כי החוק עדיין לא נחת על ראשי המעסיקים שייפגעו מהחוק החדש. תארו לעצמכם שזוהי רעידת אדמה מסוג מטפורית שאמורה להתרחש בשבועות הפתיחה של 2023. מעטים מתכוננים לרעידת האדמה. רבים אפילו לא יודעים שרעידת האדמה כבר עלתה על לוח השנה. כל זה נאמר, ברגע שתתרחש רעידת האדמה, הרבה עסקים נדהמים והמומים מאוד יתהו מה קרה ומדוע הבלגן היה צריך להתרחש.

לכל זה יש השלכות משמעותיות במיוחד לאתיקה של AI ומציע חלון שימושי ללקחים שנלמדו (עוד לפני שכל הלקחים קורים) בכל הנוגע לניסיון לחוקק AI. לסיקור המתמשך והנרחב שלי על אתיקה של בינה מלאכותית, בינה מלאכותית אתית, יחד עם חוק בינה מלאכותית בין ההיבטים המשפטיים של ממשל בינה מלאכותית, ניתן למצוא בכתובת הקישור כאן ו הקישור כאן, רק כדי שם כמה.

סיפור הצער המשפטי הזה מתייחס לחששות שהופיעו בעבר בנוגע לבינה מלאכותית של ימינו, ובמיוחד השימוש ב- Machine Learning (ML) ו-Deep Learning (DL) כסוג של טכנולוגיה וכיצד היא מנוצלת. אתה מבין, ישנם שימושים ב-ML/DL הנוטים לכרוך באנתרופומורפיזציה של הבינה המלאכותית על ידי הציבור הרחב, מתוך אמונה או בחירה להניח שה-ML/DL הוא בינה מלאכותית או קרובה אליו (לא כך). בנוסף, ML/DL יכול להכיל היבטים של התאמת דפוסים חישוביים שאינם רצויים או בלתי הולמים בעליל, או בלתי חוקיים מנקודת מבט אתית או משפטית.

זה עשוי להיות שימושי קודם כל להבהיר למה אני מתכוון כשמתייחסים ל-AI באופן כללי וגם לספק סקירה קצרה של למידת מכונה ולמידה עמוקה. יש הרבה מאוד בלבול לגבי המשמעות של בינה מלאכותית. אני גם רוצה להציג בפניכם את מצוות האתיקה של AI, שיהיו חלק בלתי נפרד במיוחד בהמשך השיח הזה.

ציון הרשומה על AI

בואו נוודא שאנחנו באותו עמוד לגבי אופי ה-AI של היום.

אין כיום AI שהוא בעל רגישות.

אין לנו את זה.

אנחנו לא יודעים אם AI חיוני יהיה אפשרי. אף אחד לא יכול לנבא בצורה הולמת אם נשיג בינה מלאכותית חיה, וגם לא אם בינה מלאכותית חיה תתעורר באופן ספונטני בדרך כלשהי בצורה של סופרנובה קוגניטיבית חישובית (המכונה בדרך כלל הסינגולריות, ראה סיקור שלי ב- הקישור כאן).

הבינו שבינה מלאכותית של היום אינה מסוגלת "לחשוב" בשום צורה בהשוואה לחשיבה האנושית. כאשר אתה מקיים אינטראקציה עם אלקסה או סירי, יכולות השיחה עשויות להיראות דומות ליכולות האנושיות, אבל המציאות היא שהיא חישובית וחסרת הכרה אנושית. העידן האחרון של AI עשה שימוש נרחב ב- Machine Learning וב-Deep Learning, הממנפים התאמת דפוסים חישוביים. זה הוביל למערכות בינה מלאכותית שיש להן מראה של נטיות דמויות אדם. בינתיים, אין היום בינה מלאכותית שיש לה מראית עין של שכל ישר, וגם אין שום תמיהה קוגניטיבית של חשיבה אנושית איתנה.

חלק מהנושא הוא הנטייה שלנו לאנתרופומורפיזציה של מחשבים ובעיקר AI. כאשר נראה שמערכת מחשב או AI פועלים בדרכים שאנו מקשרים להתנהגות אנושית, ישנו דחף כמעט מוחץ לייחס למערכת תכונות אנושיות. זוהי מלכודת נפשית נפוצה שיכולה לתפוס אפילו את הספקן הבלתי מתכוון לגבי הסיכויים להגיע לגזרה.

במידה מסוימת, זו הסיבה שהאתיקה של AI ובינה מלאכותית אתית היא נושא כה מכריע.

מצוות האתיקה של AI גורמות לנו להישאר ערניים. טכנולוגים בינה מלאכותית יכולים לפעמים להתעסק בטכנולוגיה, במיוחד באופטימיזציה של ההייטק. הם לא בהכרח שוקלים את ההשלכות החברתיות הגדולות יותר. קיום חשיבה של אתיקה בינה מלאכותית ועושה זאת באופן אינטגרלי לפיתוח ותחום בינה מלאכותית היא חיונית להפקת בינה מלאכותית מתאימה, כולל ההערכה של האופן שבו אתיקה של בינה מלאכותית מאומצת על ידי חברות.

מלבד שימוש במצוות האתיקה של בינה מלאכותית באופן כללי, ישנה שאלה מקבילה האם צריכים להיות לנו חוקים שישלטו על שימושים שונים בבינה מלאכותית. חוקים חדשים מתגבשים ברמה הפדרלית, המדינתית והמקומית הנוגעים לטווח והטבע של האופן שבו יש לתכנן AI. המאמץ לנסח ולחוקק חוקים כאלה הוא הדרגתי. אתיקה של בינה מלאכותית משמשת כפסקה נחשבת, לכל הפחות, וכמעט בוודאות תשולב במידה מסוימת ישירות באותם חוקים חדשים.

שים לב שיש הטוענים נחרצות שאיננו זקוקים לחוקים חדשים המכסים בינה מלאכותית וכי החוקים הקיימים שלנו מספיקים. הם מזהירים מראש שאם נחוקק חלק מחוקי הבינה המלאכותית האלה, נהרוג את אווז הזהב על ידי פגיעה בהתקדמות בבינה מלאכותית שמעניקה יתרונות חברתיים עצומים. ראה למשל את הסיקור שלי ב הקישור כאן.

בטורים קודמים, כיסיתי את המאמצים הלאומיים והבינלאומיים השונים ליצור ולחוקק חוקים המסדירים בינה מלאכותית, ראה הקישור כאן, לדוגמה. כיסיתי גם את העקרונות וההנחיות השונות של AI אתיקה שאומות שונות זיהו ואימצו, כולל למשל את המאמץ של האומות המאוחדות כגון קבוצת האתיקה של AI של אונסק"ו שכמעט 200 מדינות אימצו, ראה הקישור כאן.

הנה רשימה מועילה של אבן מפתח של קריטריונים או מאפיינים אתיים של בינה מלאכותית לגבי מערכות בינה מלאכותית שחקרתי מקרוב בעבר:

  • שקיפות
  • צדק והגינות
  • אי זדון
  • אַחֲרָיוּת
  • פרטיות
  • תועלת
  • חופש ואוטונומיה
  • סומך
  • קיימות
  • כָּבוֹד
  • סולידריות

עקרונות האתיקה של בינה מלאכותית אמורים להיות מנוצלים על ידי מפתחי בינה מלאכותית, יחד עם אלה שמנהלים את מאמצי פיתוח בינה מלאכותית, ואפילו אלו שבסופו של דבר מתמחים ומבצעים תחזוקה במערכות בינה מלאכותית. כל בעלי העניין לאורך כל מחזור החיים של הפיתוח והשימוש בבינה מלאכותית נחשבים במסגרת של ציות לנורמות הקיימות של בינה מלאכותית אתית. זהו גולת הכותרת חשובה מכיוון שההנחה הרגילה היא ש"רק קודנים" או אלו שמתכנתים את ה-AI כפופים לעמידה במושגי האתיקה של AI. כפי שהודגש כאן קודם לכן, נדרש כפר כדי לתכנן ולהשיג בינה מלאכותית, ועבורו על כל הכפר להיות בקיא ולציית למצוות האתיקה של בינה מלאכותית.

בואו נשאיר את העניינים על הקרקע ונתמקד ב-AI החישובי הלא-רגיש של היום.

ML/DL הוא סוג של התאמת דפוסים חישוביים. הגישה הרגילה היא שאתה אוסף נתונים על משימת קבלת החלטות. אתה מזין את הנתונים לדגמי המחשב ML/DL. מודלים אלה מבקשים למצוא דפוסים מתמטיים. לאחר מציאת דפוסים כאלה, אם כן, מערכת הבינה המלאכותית תשתמש בדפוסים הללו כאשר היא נתקלת בנתונים חדשים. עם הצגת נתונים חדשים, הדפוסים המבוססים על הנתונים ה"ישנים" או ההיסטוריים מיושמים כדי לתת החלטה עדכנית.

אני חושב שאתה יכול לנחש לאן זה מוביל. אם בני אדם שקיבלו את ההחלטות לפי הדפוס שילבו הטיות לא רצויות, רוב הסיכויים שהנתונים משקפים זאת בדרכים עדינות אך משמעותיות. התאמת דפוסים חישוביים של Machine Learning או Deep Learning פשוט ינסו לחקות מתמטית את הנתונים בהתאם. אין מראית עין של שכל ישר או היבטים רגישים אחרים של דוגמנות שנוצרו בינה מלאכותית כשלעצמה.

יתר על כן, ייתכן שגם מפתחי ה-AI לא יבינו מה קורה. המתמטיקה האפלולית ב-ML/DL עשויה להקשות על שחרור ההטיות הנסתרות כעת. בצדק היית מקווה ומצפה שמפתחי הבינה המלאכותית יבחנו את ההטיות שעלולות להיות קבורות, אם כי זה מסובך יותר ממה שזה נראה. קיים סיכוי מוצק שאפילו עם בדיקות מקיפות יחסית שיהיו הטיות עדיין מוטמעות בתוך המודלים של התאמת הדפוסים של ה-ML/DL.

אתה יכול להשתמש במקצת באימרה המפורסמת או הידועה לשמצה של זבל-אין אשפה החוצה. העניין הוא שזה דומה יותר להטיות שמתקבלות בצורה ערמומית כשהטיות שקועות בתוך הבינה המלאכותית. קבלת ההחלטות באלגוריתם (ADM) של בינה מלאכותית הופכת בצורה אקסיומטית עמוסה באי-שוויון.

לא טוב.

אני מאמין שכעת הנחתי את הבמה כדי לדון מספיק בתפקיד הבינה המלאכותית בתוך רובריקה של הפסקה שקטה.

AI המשמש בקבלת החלטות תעסוקה

החוק בעיר ניו יורק מתמקד בנושא קבלת החלטות בעבודה.

אם לאחרונה ניסית להגיש מועמדות לעבודה מודרנית כמעט בכל מקום על פני כדור הארץ, כנראה שנתקלת באלמנט מבוסס בינה מלאכותית בתהליך קבלת ההחלטות בעבודה. כמובן, אולי אתה לא יודע שהוא שם מכיוון שהוא יכול להיות מוסתר מאחורי הקלעים ולא תהיה לך דרך מוכנה להבחין אם מערכת AI הייתה מעורבת.

ביטוי נפוץ המשמש להתייחסות למערכות בינה מלאכותיות אלו הוא שהן נחשבות כלי החלטות תעסוקה אוטומטיות, בקיצור AEDT.

בוא נראה איך החוק של ניו יורק הגדיר את הכלים או האפליקציות האלה הכרוכים בקבלת החלטות בעבודה:

  • "המונח 'כלי החלטות תעסוקה אוטומטי' פירושו כל תהליך חישובי, הנגזר מלמידת מכונה, מודלים סטטיסטיים, ניתוח נתונים או בינה מלאכותית, המוציא פלט מפושט, כולל ציון, סיווג או המלצה, המשמשים לסייע באופן משמעותי או להחליף קבלת החלטות לפי שיקול דעת לקבלת החלטות תעסוקה המשפיעות על אנשים טבעיים. המונח 'כלי החלטות תעסוקה אוטומטי' אינו כולל כלי שאינו מבצע אוטומציה, תמיכה, מסייע או מחליף באופן מהותי תהליכי קבלת החלטות על פי שיקול דעת ושאינו משפיע באופן מהותי על אנשים טבעיים, לרבות, אך לא רק, מסנן דואר זבל, חומת אש, תוכנת אנטי-וירוס, מחשבון, גיליון אלקטרוני, מסד נתונים, מערך נתונים או אוסף אחר של נתונים" (NYC, Int 1894-2020, SubChapter 25, Section 20-870).

אבחן בקצרה ניסוח זה שכן הוא חיוני לכל טיבו והיקפו של החוק.

ראשית, כפי שציינתי פעמים רבות בכתבי, אחד המכשולים הקשים ביותר בעת כתיבת חוקים על בינה מלאכותית מורכב מניסיון להגדיר כראוי את המשמעות של AI. אין תקן יחיד מוסכם מבחינה משפטית שכולם נחתו עליו. קיימות כל מיני הגדרות. חלקם מועילים, חלקם לא. ראה את הניתוחים שלי ב הקישור כאן.

אולי תתפתו לחשוב שזה לא משנה במיוחד איך אנחנו יכולים להגדיר AI. סליחה, אבל אתה טועה בקשר לזה.

הבעיה היא שאם הגדרת הבינה המלאכותית מוגדרת בצורה מעורפלת בחוק נתון, היא מאפשרת לאלה שמפתחים בינה מלאכותית לנסות ולעקוף את החוק על ידי כך שלכאורה טוענים שהתוכנה או המערכת שלהם אינם מוטבעים בינה מלאכותית. הם יטענו באומץ רב שהחוק לא חל על התוכנה שלהם. כמו כן, מישהו שמשתמש בתוכנה יכול גם לטעון שהחוק אינו נוגע לו מכיוון שהתוכנה או המערכת שהם משתמשים בהם נופלת מחוץ להגדרת הבינה המלאכותית המופיעה בחוק.

בני אדם הם מסובכים כאלה.

אחת הדרכים הממולחות ביותר להימנע מלהסתבך על ידי חוק שאינך אוהב היא לטעון שהחוק אינו חל עליך. במקרה זה, תבקש לפרק את ההגדרה של AEDT בחתיכות. המטרה שלך, בהנחה שאתה לא רוצה שהחוק יהיה על הגב שלך, תהיה לטעון משפטית שההגדרה הניתנת בחוק שגויה של מה שמערכת המחשב שלך הקשורה לתעסוקה היא או עושה.

לחוק מסוג זה אפשר גם לעזור וגם לפעמים לחתוך על ידי הכללת תניות החרגה בכוונה בהגדרה.

תסתכל שוב על ההגדרה של AEDT כפי שנאמר בחוק זה. אתה מקווה שראית שיש סעיף אי-הכללה שאומר "...לא כולל כלי שאינו מבצע אוטומציה, תמיכה, מסייע באופן מהותי או מחליף תהליכי קבלת החלטות לפי שיקול דעת ושאינו משפיע באופן מהותי על אנשים טבעיים...".

מצד אחד, הבסיס להכללת הדרה כזו מועיל בהחלט.

נראה שזה מרמז (לפי השקפת הדיוט שלי) שה- AEDT צריך לספק מטרה ספציפית ולהיות מנוצל באופן מהותי. אם ה- AEDT הוא נגיד שטחי או היקפי, ואם החלטת התעסוקה עדיין בעבודת יד אנושית למדי, אולי אין לפרש את מערכת התוכנה שבה נעשה שימוש כ- AEDT. כמו כן, אם התוכנה או המערכת אינן משפיעות באופן "חומרי" על אנשים טבעיים (בני אדם), אז לא נראה שכדאי לעמוד כביכול על האש.

באופן הגיוני, אינך רוצה שחוק יגזים בהיקפו ויבלע הכל כולל כיור המטבח. עשיית כן היא במהותה בלתי הוגנת ומכבידה על מי שהחוק לא נועד להקיף. הם יכולים להילכד במורסה שמתנהגת כמו אחת מאותן רשתות הדגים. יש להניח שהחוקים שלנו צריכים להקפיד להימנע מלגרור חפים מפשע לתחום החוק.

הכל טוב ויפה.

עורך דין מיומן חייב להבין שסעיף החרגה יכול להיות סוג של כרטיס יציאה מהכלא חוקי (לצד זה, החוק הספציפי הזה קובע עונשים אזרחיים, לא עונשים פליליים, ולכן לצאת מהכלא ההערה היא רק מטפורית ועבור אגרוף טעים). אם מישהו היה טוען שחברה משתמשת ב- AEDT בעיבוד העסקה, אחת הדרכים הראשונות לנסות ולהתגבר על הטענה הזו תהיה לטעון שמה שנקרא AEDT נמצא למעשה בתחום ההדרה. אולי תנסה להראות שמה שנקרא AEDT לא אוטומטי החלטת התעסוקה, או שלא תמיכה החלטת התעסוקה, או שלא לסייע באופן מהותי or להחליף תהליכי קבלת החלטות לפי שיקול דעת.

לאחר מכן תוכל ללכת בדרך המפותלת של זיהוי מה המשמעות של המילים "אוטומציה", "תמיכה", "לסייע באופן מהותי" או "החלפה" בהקשר זה. זהו חור חוקי לארנבת שימושי למדי. ניתן להעלות טענה משכנעת שהתוכנה או המערכת הנטענת כ- AEDT היא חלק מהאינדיקציות החריגות. לכן, לא לפגוע, לא לפגוע בחוק המסוים הזה.

מן הסתם, יש להתייעץ עם עורכי דין מורשים בעניינים כאלה (אין כאן שום מראית עין של ייעוץ משפטי וזוהי לגמרי השקפת הדיוטות).

הנקודה שלי כאן היא שיהיה מקום להתנועע בחוק החדש הזה. חדר ההתנועעות יאפשר לכמה מעסיקים שמשתמשים באמת ב- AEDT אולי למצוא פרצה כדי לעקוף את השימוש ב- AEDT. הצד השני של המטבע הזה הוא שייתכן שיש חברות שלא באמת משתמשות ב- AEDT שיילכדו בחוק הזה. אפשר לטעון שכל מה שהם השתמשו היה אכן AEDT, והם יצטרכו למצוא אמצעי כדי להראות שהתוכנה או המערכות שלהם נפלו מחוץ ל- AEDT ונכללו בהפרשת החרגה.

אנחנו יכולים לעשות תחזית נועזת זו:

  • אין ספק שיהיו מעסיקים שישתמשו ביודעין ב- AEDT שעלול לנסות לחרוג מהאחריות המשפטית שלהם.
  • בהכרח יהיו מעסיקים שלא משתמשים ב- AEDT שיתקעו בטענות שהם משתמשים ב- AEDT, מה שיאלץ אותם לעשות מאמץ "אקסטרה" כדי להראות שהם לא משתמשים ב- AEDT.

אני ארחיב עוד יותר על התמורות והצירופים הרבים האלה כשנתקדם בדיון הזה. יש לנו עוד הרבה קרקע לדרוך.

השימוש ב- AEDT כשלעצמו אינו החלק בסוגיה זו שמעורר חששות מפגינים, אלא האופן שבו ה- AEDT מבצע את פעולותיו שמעורר את הזעם המשפטי. העיקר הוא שאם ה- AEDT אולי גם מציג הטיות הקשורות בקבלת החלטות תעסוקה, אז אתה נמצא במים חמים פוטנציאליים (טוב, סוג של).

כיצד נוכל לדעת אם AEDT אכן מכניס הטיות עמוסות בינה מלאכותית למאמץ קבלת החלטות תעסוקתיות?

התשובה לפי חוק זה היא שיש לבצע ביקורת AI.

כיסיתי בעבר ולעיתים קרובות את אופי ביקורות הבינה המלאכותית ומה הן, יחד עם ציינתי חסרונות קיימים והיבטים לא מוגדרים, כגון הקישור כאן ו הקישור כאן, בין הרבה פרסומים דומים אחרים. במילים פשוטות, הרעיון הוא שבדיוק כמו שאתה יכול לבצע ביקורת פיננסית של חברה או לעשות ביקורת טכנולוגית הקשורה למערכת מחשוב, אתה יכול לבצע ביקורת על מערכת AI. באמצעות טכניקות, כלים ושיטות ביקורת מיוחדות, אתה בוחן ומעריך ממה מורכבת מערכת בינה מלאכותית, כולל למשל לנסות לוודא אם היא מכילה הטיות כאלה או אחרות.

זהו תחום תשומת לב מתפתח.

אתה יכול לצפות תת-תחום זה של ביקורת שמוקדש לביקורת בינה מלאכותית ימשיך לגדול. ברור כי ככל שיהיו לנו יותר ויותר מערכות בינה מלאכותיות שישוחררו לשוק, ובתמורה, יהיו יותר ויותר קריאות לביקורות בינה מלאכותית. חוקים חדשים יסייעו לעורר את זה. גם בלי החוקים האלה, יהיו ביקורות בינה מלאכותית בשפע, מכיוון שאנשים וחברות טוענים שנעשה להם עוול על ידי AI ויבקשו לספק אינדיקציה מתועדת מוחשית לכך שהנזק היה קיים וקשור לבינה המלאכותית שבה נעשה שימוש.

מבקרי בינה מלאכותית הולכים להיות חמים ובעלי ביקוש גבוה.

זו יכולה להיות עבודה מרגשת. אלמנט אחד אולי מרתק כרוך בהיות שקוע בגרסה העדכנית והטובה ביותר של AI. AI ממשיך להתקדם. בזמן שזה קורה, מבקר בינה מלאכותית נבון יצטרכו לעמוד על הרגליים. אם אתה אודיטור שנמאס לך לעשות ביקורות קונבנציונליות יומיומיות, זירת הביקורת הבינה המלאכותית החדשה פוקחת עיניים מציעה הבטחה (אני אומר את זה כדי להעלות חלקית את מעמדם של המבקרים מכיוון שלעתים קרובות הם הגיבורים הבלתי ידועים שעובדים בתעלות נוטים להיות מוזנחים בשל מאמציהם).

מלבד זאת, הייתי מבקר מערכות מחשב מוסמך (כינוי אחד כזה הוא CISA) ועשיתי ביקורות IT (טכנולוגיית מידע) פעמים רבות במשך שנים רבות, כולל ביקורת AI. רוב הזמן, אתה לא מקבל את ההכרה הראויה על מאמצים כאלה. אתה בטח יכול לנחש למה. בגדול, רואי החשבון נוטים למצוא דברים שגויים או שבורים. במובן זה, הם עוזרים למדי, אם כי זה יכול להיתפס על ידי חלק כחדשות רעות, ושליח החדשות הרעות בדרך כלל אינו ממוקם במיוחד על הדום.

בחזרה לעניין שלפנינו.

בנוגע לחוק ניו יורק, הנה מה שהחוק אומר על ביקורת בינה מלאכותית ומבקשים לחשוף הטיות בינה מלאכותית:

  • "המונח 'ביקורת הטיה' פירושו הערכה חסרת פניות על ידי מבקר בלתי תלוי. ביקורת הטיה כזו תכלול אך לא תהיה מוגבלת לבדיקה של כלי אוטומטי להחלטות תעסוקה כדי להעריך את ההשפעה השונה של הכלי על אנשים מכל קטגוריה של רכיב 1 הנדרשת לדווח על ידי מעסיקים בהתאם לסעיף קטן (ג) של סעיף 2000e-8 של הכותרת. 42 של קוד ארצות הברית כמפורט בחלק 1602.7 של כותרת 29 של קוד התקנות הפדרליות" (NYC, Int 1894-2020, Subchapter 25, Section 20-870).

כסיכום, הנה המקום שבו אנחנו נמצאים עד כה על פירוק החוק הזה:

  • החוק מכסה כלי החלטות תעסוקה אוטומטיות (AEDT)
  • כלולה הגדרה של סוגים כדי לזהות מהו AEDT
  • ההגדרה של AEDT מזכירה גם הוראות חריגות
  • העיקר הוא שהחוק רוצה לחשוף הטיות AI ב- AEDT
  • כדי להבין אם קיימות הטיות AI, יש לבצע ביקורת AI
  • הביקורת בינה מלאכותית תודיע ככל הנראה על הטיות AI

בשלב הבא נוכל לחפור קצת יותר בחוק.

מה מורכבת החלטת העסקה:

  • "המונח 'החלטת תעסוקה' פירושו סינון מועמדים לתעסוקה או עובדים לצורך קידום בתוך העיר" (NYC, Int 1894-2020, SubChapter 25, Section 20-870).

שימו לב שההיבט התוחם של "העיר" מצביע על כך שהעניין עוסק רק בנסיבות הקשורות לתעסוקה בתוך ניו יורק. כמו כן, ראוי לציין שהחלטת תעסוקה כהגדרתה כרוכה במיון מועמדים, שהיא הקונוטציה הרגילה של מה שאנו חושבים עליו כהחלטת תעסוקה, בנוסף היא כוללת גם קידום.

זוהי פגיעה כפולה במובן שחברות יצטרכו להבין שהן צריכות להיות מעודכנות לגבי אופן השימוש ב-ADT שלהן (אם הן משתמשות באחת כזו) עבור הגדרות תעסוקה ראשוניות וגם בעת קידום בתוך המשרד. סביר להניח שאתה יכול לנחש או להניח שחברות רבות לא יידעו היטב את מרכיב הקידום שנכלל גם במסגרת זו. הם בהכרח יתעלמו מהמבנה הנוסף הזה על סכנתם.

הבא אני הולך לספק קטע מפתח נוסף של החוק כדי להאיר את המהות של מה שמתפרש כבלתי חוקי על ידי חוק זה:

  • "דרישות לכלי החלטות תעסוקה אוטומטיות. א. בעיר, יהיה זה בלתי חוקי עבור מעסיק או משרד תעסוקה להשתמש בכלי החלטה תעסוקתי אוטומטי כדי לסנן מועמד או עובד לקבלת החלטת העסקה, אלא אם כן: 1. כלי כזה היה נושא לביקורת הטיה שנערכה לא יותר מאשר שנה אחת לפני השימוש בכלי כזה; ו-2. סיכום התוצאות של ביקורת ההטיה העדכנית ביותר בכלי כאמור, כמו גם תאריך הפצת הכלי שעליו חלה ביקורת כזו, פורסם לציבור באתר האינטרנט של המעסיק או משרד התעסוקה לפני השימוש ב- כלי כזה..." (NYC, Int 1894-2020, SubChapter 25, Section 20-871). ישנם סעיפי משנה נוספים שאולי כדאי שתעיין בהם, אם אתה מעוניין מאוד בניסוח המשפטי.

ספקנים ומבקרים טענו שזה נראה קצת פושר לגבי הפעילות הבלתי חוקית שנקראת.

הם אומרים שהחוק מתמקד רק בצמצום ובמינימום מוליך ביקורת AI ו פרסום את התוצאות, במקום אם ביקורת הבינה המלאכותית גילתה הטיות בינה מלאכותית ומה אם יש לכך השלכות בקבלת החלטות תעסוקה שנכללות בגדר חוק זה. למעשה, זה כנראה לא חוקי לעשות זאת לֹא בחר לבצע ביקורת בינה מלאכותית כזו (כאשר רלוונטי, כפי שנדון קודם לכן), ובנוסף זה גם לא חוקי במקרה אם אתה מבצע את ביקורת בינה מלאכותית אבל עושה לֹא לפרסם את זה.

נראה שהחוק שותק בשאלה האם זוהו הטיות AI או לא. כמו כן, שתיקה לגבי ההטיות בינה מלאכותית השפיעה על כל מי שקשור לפעילות בולטת של קבלת החלטות תעסוקתית. המפתח הוא לכאורה "סתם" לבצע ביקורת AI ולספר על כך.

האם החוק הזה לא מגיע מספיק רחוק?

חלק מטיעון הנגד לטענה שזה לכאורה משביע רצון לגבי הטווח או ההיקף של מה שחוק זה מקיף הוא שאם ביקורת בינה מלאכותית אכן מוצאת הטיות בינה מלאכותית, ואם הטיות בינה מלאכותיות אלו קשורות למקרים מסוימים של קבלת החלטות בעבודה, האדם או שאנשים שנפגעו כך יוכלו לרדוף אחרי המעסיק אַחֵר חוקים. לפיכך, אין צורך לכלול היבט זה בחוק המסוים הזה.

לכאורה, חוק זה נועד להביא עניינים כאלה לידי ביטוי.

ברגע שאור היום יושפך על פרקטיקות מופרכות אלה, ניתן לפנות לכל מיני דרכים משפטיות אחרות אם הטיות בינה מלאכותיות קיימות ומשפיעות על אנשים. ללא חוק זה, הטענה גורסת כי אלו המשתמשים ב- AEDT היו עושים זאת בעודם אולי משתוללים ויש להם טונות של הטיות בינה מלאכותית, שבגינן אלו המחפשים עבודה או אלו המחפשים קידום לא יידעו שמתקיימות.

הביאו אותם אל פני השטח. תגרום להם לספר. כנס מתחת למכסה המנוע. תראה מה יש בתוך המנוע הזה. זו המנטרה במקרה זה. מתוך ההסתכלות והספרות הזו, ניתן לבצע פעולות נוספות.

מלבד חיפוש אחר צעדים משפטיים כתוצאה מהארה שביקורת בינה מלאכותית אולי דיווחה על הטיות בינה מלאכותית, ישנה גם אמונה שפרסום תוצאות אלו יביא להשלכות מוניטין. מעסיקים שמוצגים לראווה כמשתמשים ב- AEDT שיש להם הטיות בינה מלאכותית צפויים לסבול מזעם חברתי, כגון באמצעות מדיה חברתית וכדומה. הם ייחשפו על מעשיהם המרושעים ויתביישו לתקן את התנהגותם, ועשויים למצוא את עצמם גם נטולי אנשים המבקשים לעבוד שם בשל החששות שהטיות בינה מלאכותית מונעות גיוס עובדים או שוללים קידומים.

העונשים המוצהרים הקשורים להיות בלתי חוקי הם אלה:

  • "עונשים. א. כל אדם המפר הוראה כלשהי מפרק משנה זה או כל כלל שהוכרז על פי תת פרק זה צפוי לעונש אזרחי של לא יותר מ-$500 עבור הפרה ראשונה וכל הפרה נוספת המתרחשת באותו יום בהפרה הראשונה, ולא פחות מ- $500 ולא יותר מ-$1,500 עבור כל הפרה שלאחר מכן" (NYC, Int 1894-2020, SubChapter 25, Section 20-872). ישנם סעיפי משנה נוספים שאולי כדאי שתעיין בהם, אם אתה מעוניין מאוד בניסוח המשפטי.

ספקנים ומבקרים טוענים שהעונשים אינם קשים מספיק. חברה גדולה כביכול הייתה לועגת או צוחקת על הקנסות הזעירים בדולרים הכרוכים בכך. אחרים מציינים שהקנס עלול בסופו של דבר להיות יותר ממה שנראה לעין, כך שאם לחברה היו הפרות של אלף דולר בכל יום (רק תרחיש אחד, יש המון תרחישים אחרים), שווי של שנה יהיה בערך 365,000 דולר, בהנחה שהחברה פשוט התעלמה מהחוק במשך שנה שלמה ויצאה מזה (נראה שקשה לדמיין, אבל יכול לקרות, ואפילו יכול להתרחש זמן רב יותר או לשיא גבוה יותר של קנסות יומיים, בתיאוריה).

בינתיים, חלקם מודאגים מעסקים קטנים יותר ומהקנסות הנלווים. אם עסק קטן שבקושי מסתדר ייפגע מהקנסות, ולכאורה לא עשה זאת על ידי מוטיבציה מכוונת לעקוף את החוק, הקנסות עלולים להשפיע באופן מהותי על העסקים המתנודדים שלהם.

השיקולים הבעייתיים של Keystone העומדים על הפרק

יש לי שאלה פשוטה וברורה אליך.

בהקשר של חוק זה, מה בדיוק מהווה ביקורת AI?

באופן בעייתי, אין אינדיקציה מוחלטת בתוך הנרטיב של החוק. נראה כי כל מה שנאמר לנו הוא ש"ביקורת ההטיה" אמורה להתבצע באמצעות "הערכה חסרת פניות של מבקר בלתי תלוי" (לפי לשון החוק).

אתה יכול לנהוג במשאית מק דרך החור הפעור הזה.

הנה למה.

שקול את הדוגמה המדאיגה למדי. רמאי יוצר קשר עם חברה בניו יורק ומסביר שהם מספקים שירות כזה שהם יבצעו מה שנקרא "ביקורת הטיה" של ה- AEDT שלהם. הם מתחייבים שיעשו זאת "ללא פניות" (מה שזה לא אומר). הם מחזיקים מעמד כמבקר עצמאי, והם משחו את עצמם כאחד. אין צורך בשום סוג של הכשרה חשבונאית או ביקורת, תארים, הסמכות או כל דבר אחר. אולי הם טורחים להדפיס כמה כרטיסי ביקור או מקימים בחופזה אתר אינטרנט המציג את מעמד המבקר העצמאי שלהם.

הם יגבו מהחברה עמלה צנועה של נגיד 100 דולר. השירות שלהם מורכב אולי מלשאול כמה שאלות על ה- AEDT ואז להכריז שה- AEDT נטול הטיות. לאחר מכן הם שולחים דוח שגודלו עמוד אחד ומכריז על "תוצאות" הביקורת כביכול. המשרד מפרסם זאת באתר האינטרנט שלה.

האם המשרד עמד בחוק זה?

אתה אומר לי

נראה שיש להם.

אתה עלול להיות מופתע מיד שהביקורת נעשתה בצורה שטחית (זה להיות מנומס ונדיב בתרחיש הספציפי הזה). אתה עלול להיות מוטרד מכך שזיהוי ההטיה (או היעדרו) היה אולי בעצם נקבע מראש (וואילה, נראה שאתה נטול הטיות). אתה עלול להיות מוטרד מכך שהתוצאות שפורסמו יכולות לתת הילה של עבר ביקורת קפדנית על ידי אודיטור מנוסה, מיומן, מנוסה, מוסמך בתום לב.

כן, זה קשור למידות גדולות.

מעסיק עשוי להיות רגוע על כך שהשלימו את הדרישה ה"מטופשת" הזו ושמח מאוד שזה עלה לו רק 100 דולר עלובים. המעסיק עשוי להבין באופן פנימי ובשקט שהביקורת הבלתי תלויה הייתה מצמרר, אבל זה לכאורה לא על כתפיו להחליט. הוצג בפניהם מבקר בלתי תלוי לכאורה, המבקר עשה את העבודה שהמבקר אמר שהיא תואמת, המשרד שילם עבורה, הם קיבלו את התוצאות, והם פרסמו את התוצאות.

יש מעסיקים שיעשו זאת ויבינו שהם עושים קריצה-קריצה ציות לחוק. אף על פי כן, הם יאמינו שהם מצייתים במלואם.

מעסיקים אחרים עלולים להשתגע. כל מה שהם יודעים זה הצורך לציית לחוק. למזלם (או לפחות כך הם מניחים), "מבקר בלתי תלוי" יוצר איתם קשר ומבטיח שניתן לקבל ביקורת ותוצאה של תלונה תמורת 100 דולר. כדי להימנע מלקבל את הקנס היומי של $500 ומעלה, החברה חושבת שקיבלה מתנה מהשמים. הם משלמים את 100 הדולר, ה"ביקורת" מתרחשת, הם מקבלים אישור בריאות חינם לגבי חוסר ההטיות שלהם בינה מלאכותית, הם מפרסמים את התוצאות, והם שוכחים מזה עד לפעם הבאה שהם צריכים לעשות עוד ביקורת כזו .

איך כל חברה בניו יורק הכפופה לחוק הזה אמורה לדעת מהי ציות לחוק בתום לב?

למקרה שעדיין לא סובלת קצת את הבטן, אנחנו יכולים להחמיר את המצב. אני מקווה שלא אכלת ארוחה בשעות האחרונות מאז שהטוויסט הבא יהיה קשה לשמור על שלם.

האם אתה מוכן?

ספק שירותי הדמה הזה מתגלה כסאמר יותר ממה שאולי חשבת. הם גורמים לחברה להירשם לשירות של $100 כדי לבצע את ביקורת ההטיה חסרת פניות כמבקר בלתי תלוי. הנה, הם עושים את ה"ביקורת" ומגלים שיש הטיות בכל פינה ופינה ב- AEDT.

יש להם הטיות AI כמו נגיעות תיקנים.

איכס, אומרת המשרד, מה אנחנו יכולים לעשות בנידון?

אין בעיה, אומרים להם, אנחנו יכולים לתקן את ההטיות בינה מלאכותית עבורך. זה יעלה לך רק $50 לכל הטיה כזו שנמצאה. אוקיי, המשרד אומר, בבקשה תקן אותם, תודה שעשית זאת. ספק השירות עושה קצת קוד קידוד ואומר לחברה שהם תיקנו מאה הטיות בינה מלאכותית, ולכן יגבה מהם $5,000 (זה $50 לכל הטיית בינה מלאכותית שיש לתקן, כפול ה-100 שנמצאו).

אוץ', החברה מרגישה צבועה, אבל זה עדיין עדיף מאשר להתמודד עם ההפרה של 500 דולר או יותר ליום, אז הם משלמים ל"מבקר הבלתי תלוי" ואז מקבלים דו"ח חדש שמציג כעת שהם חסרי הטיה. הם מפרסמים את זה בגאווה באתר האינטרנט שלהם.

הם לא יודעים שזה היה בונדוגל, הונאה, הונאה.

אתה עשוי להתעקש שספק השירות הזה צריך להיענש על התחבולות שלו. לתפוס ולעצור את הטריקים האלה יהיה הרבה יותר קשה ממה שאתה יכול לדמיין. בדיוק כמו ללכת אחרי הנסיכים הזרים שיש להם הון בשבילך, כנראה בארץ זרה כלשהי מעבר להישג ידם של החוק של ארצות הברית, אותו הדבר עשוי להתרחש גם במקרה זה.

צפו שתעשיית קוטג'ים תקום עקב החוק החדש הזה.

יהיו רואי חשבון בתום לב שיבקשו לספק שירותים אלה. טוב להם. יהיו אודיטורים משורטטים שילכו אחרי העבודה הזו. יהיו מבקרים שהוכרזו כוזב שילכו אחרי העבודה הזו.

ציינתי שהתרחיש של ספק השירות היה כרוך בבקשת 100 דולר כדי לבצע את מה שנקרא ביקורת AI. זה היה רק ​​מציין מיקום מורכב. אולי חלק יגבו 10 דולר (נראה מעורפל). אולי איזה 50 דולר (עדיין מעורפל). וכו.

נניח שספק שירות אומר שזה יעלה 10,000 דולר לבצע את העבודה.

או 100,000 דולר כדי לעשות את זה.

אולי 1,000,000 דולר לעשות זאת.

לחלק מהמעסיקים לא יהיה מושג כמה זה עשוי או אמור לעלות. השיווק של שירותים אלה הולך להיות בחינם לכולם. זהו חוק להרוויח כסף עבור אלה שמבצעים באופן לגיטימי את השירותים הללו ומרוויח כסף עבור אלה שמקבלים יד גם כן. יהיה קשה לדעת מי זה איזה.

אני גם אבקש ממך להרהר בעוד חור פעור.

בהקשר של חוק זה, מה בדיוק מהווה הטיית AI?

מלבד ההזכרה של קוד התקנות הפדרלי של ארצות הברית (זה לא עונה במיוחד על השאלה של הטיות בינה מלאכותית ואינו משמש כביכול או פותר בעניין), יהיה קשה לך לטעון שהחדש הזה החוק מספק כל אינדיקציה מהותית לגבי הטיות בינה מלאכותית. שוב, זה יהיה פתוח לחלוטין לפרשנויות שונות מאוד ולא תדע במיוחד מה חיפשו, מה נמצא וכו'. כמו כן, העבודה שיבוצעו אפילו על ידי מבקרי AI בתום לב תהיה כמעט בלתי ניתנת להשוואה לאחר, כך שכל אחד מהם יטה להשתמש בהגדרות ובגישות הקנייניות שלו.

בקיצור, אנו יכולים להתבונן בחשש ובדאגה לגבי מה שמעסיקים ייתקלו כתוצאה מהמשפט המטומטם, אם כי המיועד היטב:

  • חלק מהמעסיקים יידעו על החוק ויצייתו ברצינות ובמלאה כמיטב יכולתם
  • יש מעסיקים שידעו על החוק ויצייתו באופן שולי לדרך הדקיקה, הזולה ביותר ואולי לא טעימה שהם יכולים למצוא או שמגיעה לפתחם.
  • חלק מהמעסיקים יידעו על החוק ויאמינו שהם לא בגדר החוק, אז לא יעשו שום דבר בנידון (אם כי מסתבר שהם עשויים להיות בגדר)
  • יש מעסיקים שידעו על החוק ויחליטו בתוקף להתעלם ממנו, אולי מתוך אמונה שאף אחד לא ישים לב או שהחוק לא ייאכף, או שהחוק יימצא בלתי ניתן לאכיפה וכו'.
  • חלק מהמעסיקים לא יידעו על החוק וייתפסו ברגליים שטוחות, מתאמצים לציית
  • חלק מהמעסיקים לא יידעו על החוק וייחלצו באופן אומלל על ידי נוכלים
  • חלק מהמעסיקים לא יידעו על החוק, הם לא בגדר, אבל הם עדיין נרתעים בכל מקרה על ידי נוכלים שמשכנעים אותם שהם בגדר
  • יש מעסיקים שלא יידעו על החוק ולא יעשו שום דבר בנידון, בעוד שבדרך נס לעולם לא יתפסו או יענו על הפיקוח שלהם
  • אחר

שיקול מכריע אחד שיש לזכור הוא הגודל או קנה המידה הקשורים לחוק החדש הזה.

על פי נתונים סטטיסטיים מדווחים שונים לגבי מספר העסקים בעיר ניו יורק, הספירה מצוינת בדרך כלל כ-200,000 ארגונים בערך (בואו נשתמש בזה כסדר גודל). בהנחה שמדובר בקירוב סביר, ככל הנראה אותם עסקים כמעסיקים כפופים לחוק החדש הזה. לפיכך, קחו את מספר הדרכים הנזכרות לעיל שבהן מעסיקים הולכים להגיב לחוק זה וחשבו כמה יהיו בכל אחד מהדליים השונים שציינתי זה עתה.

זו סוגיית קנה מידה מדהימה למדי.

בנוסף, על פי נתונים סטטיסטיים מדווחים, יש אולי 4 מיליון משרות במגזר הפרטי בעיר ניו יורק, בתוספת ספירה משוערת של כ-300,000 עובדי ממשלה לערך המועסקים על ידי ממשלת ניו יורק (שוב, השתמשו באלה כסדרי גודל ולא ספירות מדויקות). אם לוקחים בחשבון שלכאורה עובדים חדשים נמצאים בגדר חוק חדש זה, יחד עם קידום מכירות הקשורים לכל אותם עובדים קיימים ועתידיים, מספר העובדים שחוק זה ייפגע בדרך זו או אחרת הוא מדהים למען האמת. .

לתפוח הגדול יש חוק חדש שבמבט ראשון נראה תמים ולכאורה זניח או שגרתי, אך כאשר אתה מבין את גורמי קנה המידה המעורבים, ובכן, זה יכול לגרום לראש שלך להסתחרר

סיכום

ציינתי בתחילת הדיון הזה שמדובר בחוק חדש עם כוונות טובות.

כל מה שזה עתה תיארתי כפרצות פוטנציאליות, השמטות, פערים, בעיות וכדומה, אפשר היה לצפות בקלות מראש. זה לא מדע טילים. אני יכול להוסיף, יש עוד יותר חששות והיבטים מבלבלים לחוק הזה, שבשל אילוצי מקום כאן לא קראתי.

אתה יכול למצוא אותם בקלות כמו שאתה יכול לירות דגים בחבית.

חוקים מסוג זה צריכים להיות מנוסחים בקפידה כדי לנסות ולמנוע סוגים כאלה של סיום קצה ערמומי. אני מניח שהמלחינים הרציניים ביקשו לכתוב חוק שלדעתם הוא צבוע יחסית, ואולי, במקרה הגרוע, יהיו טפטופים קטנטנים פה או שם. למרבה הצער, זה צינור אש של טפטופים. יהיה צורך בהרבה סרט דביק.

האם ניתן היה לכתוב את החוק בצורה מובהקת יותר כדי לסגור את הפרצות הנראות למדי והנושאים הנלווים אליו?

כן, בשפע.

כעת, בהיותך המקרה, אתה עשוי להמריץ בזעם שחוק כזה יהיה ללא ספק ארוך בהרבה. תמיד יש פשרה של חוק שנמשך ונמשך, הופך למסורבל, לעומת תמציתי וקומפקטי. עם זאת, אינך רוצה לזכות בתמציתיות תוך אובדן של בהירות וספציפיות מהותית וראויה. חוק קצר שמאפשר קשקושים שופע צרות. חוק ארוך יותר, גם אם נראה מורכב יותר, יהיה בדרך כלל פשרה ראויה אם הוא ימנע, ימנע, או לפחות מצמצם בעיות במורד הזרם במהלך שלב האימוץ.

אוגוסטינוס הקדוש אמר באופן מפורסם: "נראה לי שחוק לא צודק אינו חוק כלל".

אנו עשויים לספק מסקנה לכך שחוק צודק המורכב משפה בעייתית הוא חוק המתחנן לייצר בעיות קשות. במקרה הזה, נראה שנשארנו עם דבריו החכמים של המשפטן הדגול אוליבר וונדל הולמס ג'וניור, כלומר שדף היסטוריה שווה קילו של היגיון.

צפו בעוד היסטוריה עומדת להיעשות בקרוב.

מקור: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- הטיות-ביקורות-בעיטות-להילוך/