3 סיבות שהארגון שלך יזדקק למבדקי אלגוריתמים חיצוניים

מאת Satta Sarmah-Hightower

מנהיגים עסקיים סוחטים את כל הערך שהם יכולים מבינה מלאכותית (AI). מחקר של KPMG משנת 2021 מגלה רוב המנהיגים העסקיים של הממשלה, הייצור התעשייתי, השירותים הפיננסיים, הקמעונאות, מדעי החיים והבריאות אומרים כי בינה מלאכותית מתפקדת לפחות במידה בינונית בארגונים שלהם. המחקר גם מגלה שמחצית מהנשאלים טוענים שהארגון שלהם האיץ את אימוץ הבינה המלאכותית בתגובה למגפת קוביד-19. בארגונים שבהם אומצה AI, לפחות מחצית אומרים שהטכנולוגיה עלתה על הציפיות.

אלגוריתמי בינה מלאכותית אחראים יותר ויותר למגוון אינטראקציות וחידושים של ימינו - החל בהתאמה אישית המלצות למוצרים ו שירות לקוחות חוויות לבנקים החלטות הלוואות וגם תגובת המשטרה.

אבל למרות כל היתרונות שהם מציעים, אלגוריתמי AI מגיעים עם סיכונים גדולים אם הם לא מנוטרים באופן יעיל ומוערכים לגבי חוסן, הוגנות, הסבר ויושרה. כדי לסייע למנהיגים עסקיים בניטור והערכת AI, המחקר שהוזכר לעיל מראה כי א מספר הולך וגדל של מנהיגים עסקיים רוצים שהממשלה תסדיר בינה מלאכותית על מנת לאפשר לארגונים להשקיע בטכנולוגיה ובתהליכים העסקיים הנכונים. עבור התמיכה והפיקוח הדרושים, כדאי לשקול הערכות חיצוניות המוצעות על ידי ספק שירות עם ניסיון במתן שירותים כאלה. הנה שלוש סיבות לכך.

1. אלגוריתמים הם "קופסאות שחורות"

אלגוריתמי בינה מלאכותית - הלומדים מנתונים כדי לפתור בעיות ולמטב משימות - הופכים מערכות לחכמות יותר, ומאפשרים להן לאסוף ולייצר תובנות הרבה יותר מהר ממה שבני אדם יכלו אי פעם.

עם זאת, חלק מבעלי העניין רואים באלגוריתמים אלה "קופסאות שחורות", מסביר דרו רוזן, מנהל ביקורת ב-KPMG, חברת שירותים מקצועיים מובילה. באופן ספציפי, בעלי עניין מסוימים עשויים שלא להבין כיצד האלגוריתם הגיע להחלטה מסוימת ולכן לא יהיו בטוחים בהוגנות או דיוק ההחלטה.

"התוצאות שנאספו מהאלגוריתם עלולות להיות מועדות להטיה ולפירוש שגוי של התוצאות", אומר רוזן. "זה יכול גם להוביל לכמה סיכונים לישות כשהם ממנפים את התוצאות הללו ומשתפים [הן] עם הציבור ובעלי העניין שלהם."

אלגוריתם שמשתמש בנתונים פגומים, למשל, אינו יעיל במקרה הטוב - ומזיק במקרה הרע. איך זה יכול להיראות בפועל? שקול צ'אט בוט מבוסס בינה מלאכותית המספק מידע חשבון שגוי למשתמשים או כלי תרגום אוטומטי לשפה שמתרגם טקסט בצורה לא מדויקת. שני המקרים עלולים לגרום לשגיאות חמורות או לפרשנויות שגויות עבור גופים או חברות ממשלתיות, כמו גם עבור המרכיבים והלקוחות המסתמכים על החלטות שהתקבלו על ידי אלגוריתמים אלה.

תורם נוסף לבעיית הקופסה השחורה הוא כאשר הטיה אינהרנטית מחלחלת לפיתוח מודלים של AI, שעלולה לגרום לקבלת החלטות מוטה. מלווי אשראי, למשל, משתמשים יותר ויותר בבינה מלאכותית כדי לחזות את שווי האשראי של לווים פוטנציאליים כדי לקבל החלטות בנושא הלוואות. עם זאת, סיכון עשוי להיווצר כאשר תשומות מפתח ל-AI, כגון ציון האשראי של לווה פוטנציאלי, יש טעות מהותית, מה שמוביל לאותם אנשים שנשללו הלוואות.

זה מדגיש את הצורך במעריך חיצוני שיוכל לשמש מעריך חסר פניות ולספק הערכה ממוקדת, המבוססת על קריטריונים מקובלים, של הרלוונטיות והמהימנות של הנתונים ההיסטוריים וההנחות המניעות אלגוריתם.

2. בעלי עניין ורגולטורים דורשים שקיפות

בשנת 2022, לא היו דרישות דיווח נוכחיות עבור AI אחראי. עם זאת, אומר רוזן, "בדיוק כמו איך הגופים המנהלים הציגו רגולציה של ESG [סביבתית, חברתית וממשל] דיווח על מדדי ESG מסוימים, זה רק עניין של זמן שנראה דרישות דיווח רגולציה נוספות עבור AI אחראי".

למעשה, החל מ-1 בינואר 2023, של ניו יורק חוק מקומי 144 מחייב לערוך ביקורת הטיה על כלי אוטומטי להחלטות תעסוקה לפני השימוש בו.

וברמה הפדרלית, ה חוק היוזמה הלאומית לבינה מלאכותית משנת 2020- אשר בונה על א הוראת ביצוע 2019- מתמקד בתקנים טכניים והדרכה של AI. בנוסף, ה חוק אחריות אלגוריתמית עשוי לדרוש הערכות השפעה של מערכות החלטות אוטומטיות ותהליכי החלטה קריטיים מוגברים. ובחו"ל, ה חוק בינה מלאכותית הוצע, ומציע מסגרת רגולטורית מקיפה עם יעדים ספציפיים בנושא בטיחות בינה מלאכותית, תאימות, ממשל ואמינות.

עם השינויים הללו, ארגונים נמצאים תחת מיקרוסקופ ממשל. מעריך אלגוריתמים עשוי לספק דוחות כאלה העוסקים בדרישות הרגולטוריות ומשפרים את שקיפות מחזיקי העניין תוך הימנעות מהסיכון שבעלי העניין מפרשים לא נכון או הוטעה לפי תוצאות ההערכה.

3. חברות נהנות מניהול סיכונים לטווח ארוך

סטיב קמארה, שותף בפרקטיקה של אבטחת טכנולוגיה של KPMG, צופה שהשקעות בינה מלאכותית ימשיכו לצמוח ככל שישויות ימשיכו לבצע אוטומציה של תהליכים, פיתוח חידושים המשפרים את חווית הלקוח והפצת פיתוח בינה מלאכותית בין פונקציות עסקיות. כדי להישאר תחרותיים ורווחיים, ארגונים יצטרכו בקרות אפקטיביות שלא רק מטפלות בחסרונות המיידיים של בינה מלאכותית, אלא גם מפחיתות את כל הסיכונים ארוכי הטווח הקשורים לפעילות עסקית מבוססת בינה מלאכותית.

זה המקום שבו מעריכים חיצוניים נכנסים בתור משאב מהימן ומתמצא. ככל שארגונים מאמצים יותר ויותר את שלמות הבינה המלאכותית כמאפשרת עסקית, השותפות עשויה להפוך לפחות שירות אד-הוק ויותר לשיתוף פעולה עקבי, מסביר קמארה.

"אנחנו רואים דרך קדימה שבה יהיה צורך בקשר מתמשך בין ארגונים שמפתחים ומפעילים AI על בסיס מתמשך לבין מעריך חיצוני אובייקטיבי", הוא אומר.

מבט לעבר מה שיבוא אחר כך

בעתיד, ארגונים עשויים להשתמש בהערכות חיצוניות על בסיס מחזורי יותר כאשר הם מפתחים מודלים חדשים, בולעים מקורות נתונים חדשים, משלבים פתרונות ספקים של צד שלישי או מנווטים בדרישות תאימות חדשות, למשל.

כאשר דרישות רגולציה ותאימות נוספות נדרשות, מעריכים חיצוניים עשויים להיות מסוגלים לספק שירותים כדי להעריך באופן ישיר עד כמה ארגון פרס או השתמש בבינה מלאכותית ביחס לדרישות אלו. מעריכים אלה יהיו במצב הטוב ביותר לשתף תוצאות הערכה בצורה ברורה ועקבית.

כדי לנצל את הטכנולוגיה תוך הגנה מפני מגבלותיה, ארגון חייב לחפש מעריכים חיצוניים שיספקו דוחות שעליהם יוכל להסתמך על מנת להפגין שקיפות רבה יותר בעת פריסת אלגוריתמים. משם, הן הארגון והן מחזיקי העניין יכולים להבין טוב יותר את הכוח של AI - ואת המגבלות שלו.

מקור: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/