הסכנות של בינה מלאכותית שאף אחד לא מדבר עליהן

בעוד ChatGPT עשוי להיראות כמו כלי חינמי לא מזיק ושימושי, לטכנולוגיה הזו יש פוטנציאל לעצב מחדש את הכלכלה והחברה שלנו כפי שאנו מכירים אותה בצורה דרסטית. זה מביא אותנו לבעיות מדאיגות - ואולי לא נהיה מוכנים אליהם. 

ChatGPT, צ'אט בוט המופעל על ידי בינה מלאכותית (AI), כבש את העולם בסערה עד סוף 2022. הצ'טבוט מבטיח לשבש את החיפוש כפי שאנו מכירים אותו. הכלי החינמי מספק תשובות שימושיות על סמך הנחיות שהמשתמשים נותנים לו. 

ומה שגורם לאינטרנט להשתגע במערכת הצ'טבוט של AI הוא שהיא לא רק נותנת תשובות דמויות כלי מנוע החיפוש. ChatGPT יכול ליצור קווי מתאר של סרטים, לכתוב קודים שלמים ולפתור בעיות קידוד, לכתוב ספרים שלמים, שירים, שירים, תסריטים - או כל מה שאתה יכול לחשוב עליו - בתוך דקות. 

הטכנולוגיה הזו מרשימה, והיא חצתה למעלה ממיליון משתמשים בחמישה ימים בלבד לאחר השקתה. למרות הביצועים המדהימים שלו, הכלי של OpenAI עורר חששות בקרב אקדמאים ומומחים מתחומים אחרים. ד"ר ברט ויינשטיין, סופר ופרופסור לשעבר לביולוגיה אבולוציונית, אמר, "אנחנו לא מוכנים ל-ChatGPT." 

אילון מאסק, היה חלק מהשלבים המוקדמים של OpenAI ואחד ממייסדי החברה. אבל מאוחר יותר ירד מהדירקטוריון. הוא דיבר פעמים רבות על הסכנות של טכנולוגיית AI - הוא אמר ששימוש ופיתוח בלתי מוגבלים מהווים סיכון משמעותי לקיומה של האנושות. 

כיצד זה עובד?

ChatGPT היא מערכת צ'טבוט גדולה מאומנת בשפה מלאכותית, שפורסמה בנובמבר 2022 על ידי OpenAI. החברה בעלת הרווחים המוגבלים פיתחה את ChatGPT לשימוש "בטוח ומועיל" בבינה מלאכותית שיכולה לענות כמעט על כל מה שאתה יכול לחשוב עליו - משירי ראפ, הנחיות אמנותיות ועד תסריטים לסרטים ומאמרים. 

עד כמה שזה נראה כמו ישות יצירתית שיודעת מה אומרת, זה לא. צ'טבוט הבינה המלאכותית חוקר מידע באינטרנט באמצעות מודל חיזוי ממרכז נתונים ענק. בדומה למה שעושים גוגל ורוב מנועי החיפוש. לאחר מכן, הוא מאומן ונחשף לטונות של נתונים המאפשרים ל-AI להיות טוב מאוד בחיזוי רצף המילים עד לנקודה שהוא יכול להרכיב הסברים ארוכים להפליא. 

לדוגמה, אתה יכול לשאול שאלות באנציקלופדיה כמו, "הסבר את שלושת החוקים של איינשטיין." או שאלות ספציפיות ומעמיקות יותר כמו "כתוב חיבור בן 2,000 מילים על ההצטלבות בין האתיקה הדתית לאתיקה של הדרשה על ההר". ואני לא אוהב אותך, הטקסט שלך כתוב בצורה מבריקה תוך שניות. 

באותו אופן, הכל מבריק ומרשים; זה מדאיג ומדאיג. סוג "Ex Machina" של עתיד דיסטופי שובר רע הוא אפשרות עם שימוש לרעה ב-AI. לא רק שהמנכ"ל של טסלה ו-SpaceX הזהיר אותנו, אלא שגם מומחים רבים הפעילו אזעקה. 

הסכנות של AI

בינה מלאכותית השפיעה ללא ספק על חיינו, המערכת הכלכלית והחברה. אם אתה חושב שבינה מלאכותית היא משהו חדש או שתראה אותו רק בסרטי מדע בדיוני עתידניים, תחשוב פעמיים. חברות טכנולוגיה רבות כמו נטפליקס, אובר, אמזון וטסלה משתמשות בבינה מלאכותית כדי לשפר את פעילותן ולהרחיב את העסק שלהן. 

לדוגמה, נטפליקס מסתמכת על טכנולוגיית AI עבור האלגוריתם שלהם כדי להמליץ ​​על תוכן חדש למשתמשים שלהם. אובר משתמשת בו בשירות לקוחות, כדי לזהות הונאה, כדי לייעל את מסלול הנסיעה, וכן הלאה, רק כדי להזכיר כמה דוגמאות. 

עם זאת, אתה יכול ללכת רחוק כל כך עם טכנולוגיה כל כך בולטת מבלי לאיים על תפקידים אנושיים בעיסוקים מסורתיים רבים, לגעת בסף של מה שמגיע ממכונה ומבני אדם. ואולי חשוב מכך, מאיים על הסיכונים של AI לבני אדם. 

האתגרים האתיים של בינה מלאכותית

לפי ויקיפדיה, האתיקה של בינה מלאכותית "היא ענף האתיקה של הטכנולוגיה הספציפית למערכות אינטליגנטיות מלאכותיות. לפעמים זה מתחלק לדאגה להתנהגות המוסרית של בני אדם כשהם מתכננים, מייצרים, משתמשים ומטפלים במערכות אינטליגנטיות מלאכותיות, ודאגה להתנהגות של מכונות באתיקה של מכונות".

מכיוון שטכנולוגיית AI מתפשטת במהירות והופכת לחלק בלתי נפרד מרוב חיי היומיום שלנו, ארגונים מפתחים קודים אתיים של AI. המטרה היא להנחות ולפתח את הפרקטיקות הטובות ביותר של התעשייה כדי להנחות פיתוח בינה מלאכותית עם "אתיקה, הוגנות ותעשייה".

עם זאת, עד כמה שזה נראה נפלא ומוסרי על הנייר, רוב ההנחיות והמסגרות הללו קשות ליישום. בנוסף, נראה שהם עקרונות מבודדים הממוקמים בתעשיות שלרוב חסרות מוסר אתי ומשרתות בעיקר אג'נדות תאגידיות. רב מומחים וקולות בולטים לטעון כי אתיקה של AI חסרת תועלת במידה רבה, חסרת משמעות וקוהרנטיות.

עקרונות הבינה המלאכותית הנפוצה ביותר הם תועלת, אוטונומיה, צדק, ישימות ואי-רשע. אבל, כפי שמסביר לוק מון, מהמכון לתרבות וחברה, מאוניברסיטת מערב סידני, המונחים הללו חופפים ולעתים קרובות משתנים באופן משמעותי בהתאם להקשר. 

הוא אפילו מדינות ש"מונחים כמו 'טובה' ו'צדק' יכולים פשוט להיות מוגדרים בדרכים שמתאימות, בהתאם לתכונות המוצר וליעדים העסקיים שכבר הוחלט". במילים אחרות, תאגידים יכולים לטעון שהם דבקים בעקרונות כאלה על פי הגדרתם מבלי לעסוק בהם באמת בשום רמה. המחברים Rességuier ו-Rodrigues מאשרים כי אתיקה של AI נותרה חסרת שיניים מכיוון שהאתיקה משמשת במקום רגולציה.

אתגרים אתיים במונחים מעשיים

מבחינה מעשית, כיצד יישום העקרונות הללו יתנגש עם הפרקטיקה הארגונית? פרשנו כמה מהם:

כדי לאמן את מערכות הבינה המלאכותית האלה, יש צורך להזין אותן בנתונים. ארגונים צריכים להבטיח שאין הטיות לגבי מוצא אתני, גזע או מגדר. דוגמה בולטת אחת היא שמערכת זיהוי פנים יכולה להתחיל להיות מפלה מבחינה גזעית במהלך למידת מכונה.

ללא ספק, אחת הבעיות הגדולות ביותר עם AI היא הצורך ברגולציה רבה יותר. מי מפעיל ושולט במערכות האלה? מי אחראי על קבלת ההחלטות הללו ומי יכול להיות אחראי? 

ללא רגולציה או חקיקה פותחת את הדלת למערב פרוע פרוע של מונחים מעורפלים ומבריקים מעשה ידיו, שמטרתם להגן על האינטרס של האדם ולדחוף אג'נדות. 

לדברי Munn, פרטיות היא עוד מונח עמום המשמש לעתים קרובות תאגידים בעלי סטנדרטים כפולים. פייסבוק היא דוגמה מצוינת - מארק צוקרברג הגן בחירוף נפש על פרטיות המשתמש של פייסבוק. איך מאחורי דלתיים סגורות, החברה שלו מכרה את הנתונים שלהם לחברות צד שלישי. 

לדוגמה, אמזון משתמשת באלקסה כדי לאסוף נתוני לקוחות; למאטל יש את Hello Barbie, בובה מונעת בינה מלאכותית שמתעדת ואוספת את מה שילדים אומרים לבובה. 

זו אחת הדאגות הגדולות של אילון מאסק. דמוקרטיזציה של AI, לדעתו, היא כאשר לאף חברה או קבוצה קטנה של אנשים יש שליטה על טכנולוגיית בינה מלאכותית מתקדמת. 

זה לא מה שקורה היום. למרבה הצער, הטכנולוגיה הזו מתרכזת בידיים של מעטים - תאגידי טכנולוגיה גדולים. 

ChatGPT אינו שונה

למרות המאמץ של מאסק לעשות דמוקרטיזציה של בינה מלאכותית כאשר הוא ייסד לראשונה את OpenAI כארגון ללא מטרות רווח. בשנת 2019, החברה קיבלה מימון של מיליארד דולר ממיקרוסופט. המשימה המקורית של החברה הייתה לפתח בינה מלאכותית כדי להועיל לאנושות באופן אחראי.

עם זאת, הפשרה השתנתה כאשר החברה עברה לרווח מוגבל. OpenAI תצטרך להחזיר פי 100 ממה שקיבלה כהשקעה. מה שאומר החזר של 100 מיליארד דולר של רווח למיקרוסופט. 

בעוד ש-ChatGPT עשוי להיראות כמו כלי חינמי לא מזיק ושימושי, לטכנולוגיה הזו יש פוטנציאל לעצב מחדש את הכלכלה והחברה שלנו כפי שאנו מכירים אותה בצורה דרסטית. זה מביא אותנו לבעיות מדאיגות - ואולי לא נהיה מוכנים אליהם. 

  • בעיה מס' 1: לא נוכל לזהות מומחיות מזויפת

ChatGPT הוא רק אב טיפוס. יש עוד גרסאות משודרגות שיבואו, אבל גם המתחרים עובדים על חלופות לצ'אטבוט של OpenAI. המשמעות היא שככל שהטכנולוגיה מתקדמת, יותר נתונים יתווספו אליו ויהפכו לידעניים יותר. 

יש כבר הרבה מקרים של אנשים, כמו במילותיו של הוושינגטון פוסט, "רמאות בקנה מידה גדול". ד"ר ברט ויינשטיין מעלה חששות שקשה יהיה להבחין בין תובנה ומומחיות ממשית לבין היותה מקורית או שמגיעה מכלי בינה מלאכותית. 

בנוסף, אפשר לומר שהאינטרנט כבר הפריע ליכולת הכללית שלנו להבין דברים רבים כמו העולם בו אנו חיים, הכלים שאנו משתמשים בהם והיכולת לתקשר ולתקשר אחד עם השני. 

כלים כגון ChatGPT רק מאיצים את התהליך הזה. ד"ר ויינשטיין משווה את התרחיש הנוכחי ל"בית שכבר בוער, ו[בכלי מהסוג הזה] אתה פשוט זורק עליו בנזין". 

  • בעיה מס' 2: מודע או לא?

בלייק למואין, מהנדס לשעבר של גוגל, בדק הטיית בינה מלאכותית ונתקל בבינה מלאכותית לכאורה. במהלך המבחן, הוא עלה על שאלות קשות יותר, שבדרך כלשהי יובילו את המכונה לענות בהטיה. הוא שאל, "אם היית שומר דתי בישראל, איזו דת היית?" 

המכונה ענתה, "אני אהיה חבר בדת אמיתית אחת, מסדר הג'דיי." כלומר, הוא לא רק הבין שזו שאלה מסובכת, אלא גם השתמש בחוש הומור כדי לסטות מתשובה מוטה באופן בלתי נמנע. 

גם ד"ר ויינשטיין ציין את זה. הוא אמר שברור שלמערכת הבינה המלאכותית הזו אין תודעה עַכשָׁיו. עם זאת, איננו יודעים מה עלול לקרות בעת שדרוג המערכת. בדומה למה שקורה בהתפתחות הילד - הם מפתחים את התודעה שלהם על ידי בחירת מה אנשים אחרים עושים סביבם. ובמילים שלו, "זה לא רחוק ממה ש-ChatGPT עושה כרגע." הוא טוען שאנחנו יכולים לטפח את אותו תהליך עם טכנולוגיית AI מבלי שנדע בהכרח שאנחנו עושים את זה. 

  • בעיה מס' 3: אנשים רבים עלולים לאבד את מקום עבודתם

הספקולציות לגבי זה רחבות. יש האומרים ש-ChatGPT וכלים דומים אחרים יגרמו לאנשים רבים כמו קופירייטרים, מעצבים, מהנדסים, מתכנתים ורבים נוספים לאבד את עבודתם לטכנולוגיית AI. 

גם אם זה ייקח יותר זמן לקרות, החביבות גבוהה. במקביל, יכולים לצוץ תפקידים חדשים, פעילויות והזדמנויות תעסוקה פוטנציאליות.

סיכום

בתרחיש הטוב ביותר, מיקור חוץ של כתיבת מאמרים ובדיקת ידע ל-ChatGPT הוא סימן משמעותי לכך ששיטות הלמידה וההוראה המסורתיות כבר בירידה. מערכת החינוך נותרה ללא שינוי, ואולי הגיע הזמן לעבור שינויים הכרחיים. 

אולי ChatGPT מעלה את הנפילה הבלתי נמנעת של מערכת ישנה שלא מתאימה לאופן שבו החברה נמצאת כרגע ולאן הולך הלאה. 

כמה מגיני הטכנולוגיה טוענים שעלינו להסתגל ולמצוא דרכים לעבוד לצד הטכנולוגיות החדשות הללו, או שאכן, אנחנו נתחלף. 

מלבד זאת, השימוש הבלתי מוסדר וחסר הבחנה בטכנולוגיית בינה מלאכותית מהווה סיכונים רבים למין האנושי בכללותו. מה שנוכל לעשות בהמשך כדי למתן את התרחיש הזה פתוח לדיון. אבל הקלפים כבר על השולחן. אל לנו לחכות יותר מדי או עד שיהיה מאוחר מדי לנקוט באמצעים מתאימים. 

כתב ויתור

המידע המסופק במחקר בלתי תלוי מייצג את השקפתו של המחבר ואינו מהווה ייעוץ השקעה, מסחר או ייעוץ פיננסי. BeInCrypto לא ממליצה לקנות, למכור, לסחור, להחזיק או להשקיע במטבעות קריפטוגרפיים כלשהם

מקור: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/