רגע ה-Cry Wolf של AI Hype אינו מועיל

למרות שאני מישהו שחוקר תרחישים של סוף האנושות, אני מאמין ש"מכתב המומחה" המציע מורטוריום של 6 חודשים של AI או ההצהרה העדכנית יותר שסיכון בינה מלאכותית הוא ברמה של מגיפה וסיכון גרעיני, שניהם מוגזמים. הדעה הפרועה עוד יותר שעלינו לסגור את ה-AI היא חסרת אחריות. כל דאגה צריכה להיות פרופורציונלית לסיכונים העומדים בפנינו. כרגע, אנחנו לא בסכנה מיידית מ-AI.

AI הנוכחי לא מסוגל להשתלט על החברה. אין להם רגשות ואינם ראויים להגנה כפי שעושים חיי אדם. הם אינם סופר אינטליגנטים ואינם עולים על בני אדם בשום צורה כללית. למעשה, הם לא חושבים בכלל. נכון לעכשיו, אם הם מוזנים בשפע נתונים, בינה מלאכותית טובה מאוד במשימות ספציפיות כמו חישוב וחיזוי. זה לא מדאיג, אלו תכונות שיש למערכות האלה בתכנון. ההבטחה של AIs כוללת פתרון סרטן, שינוי ייצור תעשייתי, מודלים של תרחישים עתידיים וניהול אתגרים סביבתיים. עם זאת, יש סיבות לגיטימיות לבקר את ה-AI הנוכחיים על שימוש במשאבים, שקיפות, הטיה, אבטחת סייבר והשפעתה העתידית על התעסוקה.

AIs יקרים מבחינה חישובית - מה שאומר שהם בזבוז גדול של אנרגיה מאובנים נדירה. יש לטפל בזה באופן מיידי. אבל זה לא עניין קיומי, זה עניין של שימוש רציונלי במשאבים. העובדה ש-AI המסתמכים על מודלים גדולים ולא יעילים של נתונים הופכים יקרים מדי למעקב ולחקירה על ידי האקדמיה או הממשל היא בעיה אמיתית. אבל זה ניתן לתיקון מיד. קונסורציות של מוסדות אקדמיים מובחרים או ממשלות יכולים ללכת יחד ולחלוק משאבי מחשוב כפי שעשו עבור מחשוב-על.

מודלים של שפה גדולה (LLM) הם מודלים של AI שיכולים ליצור טקסטים בשפה טבעית מכמויות גדולות של נתונים. בעיה אחת עם זה היא שהטקסטים האלה נגזרים ישירות מתרומתם האינטלקטואלית הכנה של אנשים אחרים. הם למעשה נגנבו. בינה מלאכותית גנרטיבית, במיוחד, משלבת מחדש נתונים צרכניים וארגוניים, כמו גם תוכן יצירתי תוך הפרה מוחלטת של זכויות יוצרים. זה רציני, אבל לא קיומי, ויותר מכך, האיחוד האירופי, לוביסטים מהוליווד והוצאות הספרים "חמש הגדולות" כבר עוסקים בתיק. צפו שזה יאט את עוצמת הבינה המלאכותית. בקצב הנוכחי, בינה מלאכותית יגמרו נתוני אימון טובים הרבה לפני שהם יתקרבו לחוש.

באלגוריתמים שכבר השתמשו בהם כדי לחשב את המסים שלנו, לבחור את העדכונים המקוונים שלנו או להכניס אנשים לכלא יש חוסר שקיפות בולט. עם זאת, זה היה המצב כבר שנים, ואין לו שום קשר לפיתוחי הבינה המלאכותית העדכנית ביותר. הטיית AI היא תכונה ולא באג. סטריאוטיפים היא למעשה הגישה העיקרית שדרכה פועלים מודלים כאלה. אלא שהדעה הקדומה מוסתרת בשכבות בלתי חדירות של חשיבה מכונה חמקמקה לבני אדם, מומחים או לא. מה שאנחנו צריכים לפקפק הוא החוכמה של המפתחים שפיתחו מערכות כאלה, לא היכולת של המערכת שהם יצרו, וזה נתון. לעתים רחוקות מערכות יהיו טובות יותר מהחוכמה או הכוונות של אלה שבונים או מנהלים אותה.

נתוני אימון בינה מלאכותית משקפים את ההטיות הקיימות בחברה שממנה נאספו הנתונים הללו. שימוש חוזר בנתוני אימון גרועים הוא מנהג מדאיג שמזהם כבר מודלים של AI. גישות AI נוכחיות פשוט מעצימות את ההטיה כדי להגיע במהירות לתוצאה. זה, יש להודות, ההפך ממה שאנחנו רוצים. מה שאנחנו רוצים לעשות זה להשתמש בטכנולוגיה כדי להגן על טעויות אנוש. דאגה לטעויות במכונה היא שימוש בזבזני באינטליגנציה אנושית.

למרות המטאפורה של "הרשת העצבית", בינה מלאכותית נוכחית לא דומה למוחות בשום דמיון. מערכות AI נוכחיות אינן יכולות לנמק באנלוגיה כמו בני אדם. זה טוב. אולי אנחנו לא באמת רוצים את הסוג של יישור AI שקנאים דוגלים בו ומנסים לחקות. מכונות צריכות להיות שונות מבני אדם. כך נוכל למקסם את החוזקות אחד של השני. ואיך אנחנו יכולים לשמור על מכונות שונות ונפרדות. למכונות לא אמור להיות אינטרסים ליישור.

בינה מלאכותית מייצגת יותר ויותר איום משמעותי על אבטחת סייבר כנכס עבור פושעים ומדינות עוינות. אבל אבטחת סייבר היא תעשייה בוגרת עם הרבה מומחים המצוידים היטב להתמודד עם האתגר. אין סיבה לסגור את AI בגלל פחדים מאבטחת סייבר.

הפרעה בתעסוקה בגלל בינה מלאכותית הייתה נושא מדיניות כבר שנים, תחילה עם רובוטים, כעת עם מערכות בינה מלאכותית מבוססות תוכנה. זה אומר שממשלות יהיו מוכנות להתמודד עם זה. המחקר של MIT Work of The Future מצא שהחשש מפני אבטלה עקב רובוטים מוגזם. בני אדם תמיד מצאו דרכים לעבוד ויעשו זאת גם בעתיד. האם הייצור ישתנה על ידי AI? זה כבר קורה, אבל בצורה די מבוקרת.

מעת לעת, AI סובל מהבטחות מוגזמות לגבי פונקציונליות נוכחית או היקף עתידי. החורפים הראשונים של AI החלו בשנים 1974–1980, כאשר ממשלת ארה"ב משכה את המימון שלה. השני היה בין השנים 1987–1993, כאשר העלויות הסלימו, ובינה מלאכותית לא הצליחה לעמוד בהבטחותיה הנעלות.

ממתינים לפרדיגמות חדשות שיגיעו, בתקופה שבין 2025-2030, כנראה ניכנס לחורף שלישי של AI. לפחות בהשוואה לקיץ ה-AI הלוהט מובטח לנו. הסיבה היא שלמרות ההייפ, מכל הסיבות שפורטו לעיל, מודלים של שפה גדולים עומדים להגיע לתועלת המקסימלית שלהם ובסופו של דבר יצטרכו להחליפו על ידי גישות אלגנטיות יותר מבחינה חישובית שהן שקופות יותר.

מועמד אחד כזה הוא מחשוב היפר-ממדי שיגרום למכונות לחשוב בצורה יעילה יותר מכיוון שהם נותנים למכונות הבנה סמנטית, את היכולת לעבד משמעות והקשר מאחורי מידע בעולם האמיתי. כרגע, מערכות בינה מלאכותית אינן מבינות את הקשר בין מילים וביטויים, הן פשוט טובות בניחושים. זה לא מספיק. בסופו של דבר נצטרך בינה מלאכותית מגולמת, כי החשיבה קשורה לתפיסת החלל. זה בהחלט המקרה בייצור שהוא משחק פיזי מאוד. נזדקק גם לבינה מלאכותית שמסוגלת לתכונות זיכרון אנושיות כמו תעדוף על סמך הצגת מידע בקדמת קרקע ורקע מידע אחר. שכחה היא כלי שבני אדם משתמשים בהם לחשיבה מופשטת, מעבר מפרקטיקות ארגוניות מיושנות, קבלת החלטות ולהישארות ברגע ואינה סתם פגם. אף מכונות לא יכולות לעשות את זה טוב מאוד עדיין.

בינתיים, אנחנו צריכים להסדיר, אבל לא בשנייה. וכאשר אנו מווסתים, מוטב שנעשה זאת היטב. רגולציה גרועה של AI עשויה להחמיר את המצב. להעיר את הרגולטורים לאתגר הזה יכול להיות מועיל, אבל אני לא בטוח שהדור הנוכחי של הרגולטורים מוכן לסוג כזה של שינויים מפליגים שיידרשו כדי לעשות זאת היטב. זה כרוך בצמצום חברות חזקות (אולי כל החברות הרשומות), הגבלת השימוש של AI בממשל, ויהווה שינויים עצומים באופן שבו שווקי הצרכנים עובדים כיום. בעיקרו של דבר, נצטרך לחבר מחדש את החברה. זה יביא אותנו לצמיחה כמה עשורים מוקדם ממה שהיינו רוצים. אתגר השקיפות סביב AI עשוי להיות אדיר יותר ממשתני הבקרה שכולם נראים כל כך מודאגים מהם, לא שהם לא קשורים, כמובן.

יתר על כן, אנחנו לא יכולים להיות מודאגים באותה מידה בכל פעם שמגיעים לרף AI. אנחנו צריכים לשמר את האנרגיות שלנו לרגעים גדולים באמת של סיכון מדורג. הם יבואו, ולמען ההגינות, אנחנו לא מוכנים. התרחישים העתידיים שדמיינתי (ראה תרחישי הכחדה לשנת 2075) כוללים פרצות נתונים מסיביות ששומרות על מדינות שלמות מחוץ לתהליכים שלהן למשך חודשים. אני גם מודאג לגבי AI שנעזרים בקבוצות פשע או שחקנים ממלכתיים. יותר מכל, אני מודאג משילובים של בינה מלאכותית, ננו-טכנולוגיה, ביולוגיה סינתטית וטכנולוגיה קוונטית - אינטליגנציה כמעט אורגנית בלתי נראית בעלת יכולת בלתי ידועה, אולי רק בעוד כמה עשורים, שיתרחשו בדיוק כשהעולם ייאכל מהשפעות האקלים המדורגות. שינוי.

מודלים נוכחיים של AI עדיין לא עובדים מספיק טוב כדי להוות איום על האנושות. לפני שנוכל לשקול לסגור אותם, אנחנו צריכים AI טובים יותר. יותר מזה, אנחנו צריכים מפתחים חכמים יותר, אזרחים רגישים יותר וקובעי מדיניות מושכלים יותר. אנחנו צריכים גם רעיון איך להסדיר AI. אבל זה יכול להיעשות מבלי להאט שום דבר. זה יהיה מסע חינוכי לכולם. מכתב ההקפאה בנוגע ל-GPT 4 (2023) הוא רגע זעק של זאב עם דמיון קלוש בלבד לסיכונים המדורגים העומדים בפני האנושות בעשורים הקרובים. העמדת סיכון AI ברמת הסיכון למגפה וסיכון גרעיני בשנת 2023 היא מוקדמת מדי. האם נגיע לשם? אוּלַי. אבל לזאב בוכה יש השלכות. זה שואב את החמצן מהוויכוחים הבאים על הפחדות אמיתיות.

מקור: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/