האם אילון מאסק יכול להצליח בפיתוח AI ChatGPT נוק-אוף "TruthGPT" שיהיה אמיתי בכל עת, שואל אתיקה של AI וחוק AI

נשמעת דפיקה בדלת התא.

אנחנו צריכים לפתוח את הדלת?

סרטים בדרך כלל מעידים על כך שאנחנו לא צריכים לתת לסקרנות שלנו להשתלט עלינו, כלומר שלעולם אין לפתוח את הדלת. ובכן, עם זאת, הבחירה להשאיר את הדלת סגורה לא נראית כמו סיפור ראוי. נראה שאנחנו נמשכים לכיוון ההתרגשות והלא נודע.

אז בואו נמשיך ונפתח את הדלת.

במקרה הספציפי הזה, אני מתכוון לאיזה נגיחה מתהווה בתחום הבינה המלאכותית (AI) שמבשרת על תקופות טובות קדימה או על הזמנים הגרועים ביותר עבור כולנו. המצב עשוי להיות כרוך בעתיד של AI. ואפשר לשער חגיגית כי עתיד הבינה המלאכותית כולל השלכות דרמטיות למדי, כולל עיצוב לכאורה של עתיד החברה וגורל המין האנושי.

הנה העסקה.

על פי דיווחים אחרונים בחדשות, אילון מאסק, האדם העשיר ביותר בעולם בזמנים, דיג אחר חוקרי בינה מלאכותית מהשורה הראשונה שיגיעו לסיפון עם מיזם בינה מלאכותית חדשה שהוא חושב עליו. פונים בשקט למפתחי בינה מלאכותית ומדעני בינה מלאכותית. הדפיקה על דלתם כנראה מספקת הבטחה גדולה ובשורות רווחיות.

המהות כביכול של יוזמת הבינה המלאכותית שטרם נחשפה היא תוצאה של הפופולריות של ChatGPT ששוחררה על ידי OpenAI בנובמבר. כמעט בוודאות שמעתם או ראיתם כותרות רועמות על ChatGPT. אני אסביר לרגע יותר על מה זה ChatGPT. אתה צריך גם לדעת ש-ChatGPT הוא דוגמה לסוג של AI הידוע בשם AI Generative. יש הרבה אפליקציות בינה מלאכותית שמסתובבות בימים אלה. ChatGPT הוא במקרה אחד עם הפרופיל הציבורי הגבוה ביותר ולכאורה ידוע לכולם, אפילו אולי לאלה שחיים איכשהו במערה.

הנה דוגמה לדיווח על הסאגה הסודית למחצה הזו המתעוררת במהירות:

  • "אלון מאסק פנה בשבועות האחרונים לחוקרי בינה מלאכותית לגבי הקמת מעבדת מחקר חדשה לפיתוח אלטרנטיבה ל-ChatGPT, הצ'אט-בוט בעל הפרופיל הגבוה שיוצר על ידי הסטארט-אפ OpenAI, על פי שני אנשים בעלי ידע ישיר על המאמץ ואדם שלישי תדרוך על השיחות" (המידע, "נלחם ב-'Woke AI', מאסק מגייס צוות לפיתוח יריב OpenAI", ג'ון ויקטור וג'סיקה א' ליסין, 27 בפברואר 2023).

המחשבה הראשונה שלך עשויה להיות שאם אילון מאסק רוצה ליצור נוק-אוף של ChatGPT, זה תלוי בו וכיצד הוא רוצה לבזבז את כספו. בהצלחה. הוא פשוט יוסיף למגוון הקיים והולך של אפליקציות AI גנרטיביות. אולי הוא ירוויח הון נוסף מהגרסה שצמחה בבית שלו של ChatGPT. או אולי זה יהיה זמזום גדול והשקע הזעיר בעושרו העצום מהמרדף היקר באופן צנוע יהיה דומה לטעות עיגול במחלקת הנהלת החשבונות.

במקום דפיקה חזקה בדלת, ככל הנראה, זה יותר כמו טפו-טפו-דפיקות צנועות בדלת.

תתכוננו לטוויסט.

האמונה היא שאלון מאסק רוצה לזעזע את הבסיס של אפליקציות הבינה המלאכותית של ימינו ולבנות מחדש כמה היבטים מכריעים של איך הם עובדים ומה שהם מייצרים. כפי שאסביר כאן בקרוב, בעיה נפוצה ובתום לב לגבי בינה מלאכותית נוכחית היא שהוא יכול ליצור שגיאות, שקרים ומה שנקרא הזיות בינה מלאכותית. כל מי שהשתמש בבינה מלאכותית גנרטיבית ללא ספק נתקל בבעיות המדאיגות האלה. ככל הנראה, אילון מאסק מקווה לצמצם ואולי איכשהו לחסל את סוגי החריגות והנטיות הבעייתיות הללו.

זו אכן נראית כמו שאיפה ראויה ומכובדת בעליל. למעשה, בבקשה דע שכמעט או אולי אני יכול לומר שכל מפתחי הבינה המלאכותית הגנרטיבית שואפים מאוד להפחית את הסיכויים לשגיאות, שקרויות והזיות בינה מלאכותית. יהיה לך קשה למצוא כל נשמה סבירה שתתעקש שנצטרך לשמור על השגיאות, השקר והזיות הבינה המלאכותית מושרשים בבינה מלאכותית.

בלי להצהיר הצהרה גורפת מדי, יש הסכמה אוניברסלית למדי שיש לטפל במחלות של AI גנראטיבי הכרוך בייצור של שגיאות, שווא והזיות AI. המטרה היא להתאים, לשפץ, לשכלל, לשפץ, או בדרך טכנולוגית כזו או אחרת לפתור ולפתור בעיה זו.

כל יום שבו AI גנרטיבי ממשיך לפלוט שגיאות, שקרים והזיות AI בתפוקות הוא יום רע כמעט לכולם. האנשים שמשתמשים בבינה מלאכותית גנראטיבית חייבים להיות לא מרוצים מהתפוקות המעוותות האלה. אנשים שמסתמכים על או צריכים להשתמש בפלטים המעוכלים נמצאים בסיכון להתלות בטעות במשהו שגוי או גרוע מכך שעדיין יוביל אותם לכיוון מסכן.

יצרניות הבינה המלאכותית שמנסות ליצור עסק מ-AI יצירתי נמצאים בינתיים בסיכון משפטי פוטנציאלי על ידי אלה שנתפסו עקב הסתמכות על התפוקות הפגומות. כמעט בוודאות יתעוררו בקרוב תביעות של פיצויים נתבעים. אנו עשויים לצפות שהרגולטורים יבחרו לשקול, וייתכן שחוקקו חוקי בינה מלאכותית חדשים כדי לשים רצועה משפטית על בינה מלאכותית גנרטיבית, ראה הסיקור שלי ב- הקישור כאן. בנוסף, אנשים עלולים בסופו של דבר להתעצבן עד כדי כך שהמוניטין של יצרני הבינה המלאכותית מוכתמים קשות ובינה מלאכותית מחוללת עוברת אתחול לקצה.

בסדר, אז אנחנו יודעים שזאת אמת אמיצה שיצרני בינה מלאכותית וחוקרי בינה מלאכותית מנסים בקדחתנות להמציא, לתכנן, לבנות וליישם קוסמות טכנולוגית של בינה מלאכותית כדי למנוע את המחלות הנוראיות הללו הקשורות למחלות הבינה המלאכותיות של ימינו. אילון מאסק צריך להתקבל לקבוצה. כמה שיותר יותר טוב. יידרש הרבה כישרון בינה מלאכותית וכסף כדי לאלף את החיה הזו. הוספת אילון מאסק נראית סימן אופטימי ומעודד שאולי הכמות הנכונה של מדע טילים, מזומנים ונחישות ימצאו את התרופה ל-AI.

הפיתול מגיע כאשר אתה מתחיל לפתוח את הדלת כדי לראות מה עומד שם.

בציוץ תמציתי למדי וכרגיל של אילון מאסק, שהתרחש ב-17 בפברואר 2023, קיבלנו את הרמז המשוער הזה:

  • "מה שאנחנו צריכים זה TruthGPT"

זה מה שגורם לחלק להחליט שאולי צריך לסגור את הדלת ולסגור אותה במסמר.

למה ככה?

הדאגה שמביעים חלק היא ש"האמת" העומדת בבסיס TruthGPT חזויה עשויה להיות בינה מלאכותית מחוללת שנוסחה על פיה ומפיקה רק תפוקות המבוססות באופן בלעדי על חוסר קומבובולציה של אמת התואם בהחלט את השקפותיו של אדם אחד על העולם. כן, כף היד היא שנקבל אפליקציית AI מחוללת שפולטת את האמת לפי אילון מאסק.

מדאיג, יש אומרים.

נועזת ובסך הכל מדאיגה, יש מי שמבקש.

תשובה מיידית היא שאם הוא רוצה לייצר את ה-TruthGPT שלו, לא משנה מה זה מהווה, זה הכסף שלו להוציא. אנשים יבחרו להשתמש בו או שלא. אלה שמשתמשים בו צריכים להיות מספיק נבונים כדי להבין למה הם נכנסים. אם הם רוצים תפוקות מהוריאנט הספציפי הזה של בינה מלאכותית גנרטיבית, כזו שכנראה מעוצבת סביב תפיסת העולם של אילון מאסק, זו זכותם לחפש אותה. סוף הסיפור. תמשיך הלאה.

וואו, טענה נגדית, אתה מגדיר אנשים לכידה איומה ומפחידה. יהיו אנשים שלא יבינו שה-TruthGPT הוא איזו אפליקציית בינה מלאכותית מחודדת של אילון מאסק. הם ייפלו למלכודת הנפשית של הנחה שה-AI הגנרטיבי הזה נמצא מעל הסיפון. אכן, אם השם יישאר בסביבה כ"TruthGPT" (או דומה), כמובן היית מאמין שזהו בינה מלאכותית גנרטיבית שיש לה את אמת מוחלטת לספר במאמרים ובטקסט המופקים שלו.

כחברה, אולי אנחנו צריכים לא לתת לתמימים ליפול למלכודות כאלה, הם מזהירים.

מתן אפשרות לאפליקציית בינה מלאכותית בעלת אופי משוער זה לצוף ולהשתמש בכל מיני אנשים, הולך ליצור כאוס. אנשים יפרשו כ"אמת" קדושה את הפלטים של TruthGPT זה, גם אם החיבורים המופקים מלאים בשגיאות, שקרים, הזיות בינה מלאכותית וכל מיני הטיות לא נעימות. יתר על כן, גם אם הטענה היא שגרסה זו של בינה מלאכותית מחוללת לא תכלול שגיאות, שקר והזיות בינה מלאכותית, איך נדע שה-AI המטוהר לכאורה לא יכיל הטיות מיותרות יחד עם שלל ערמומי של מידע מוטעה ו מֵידָע מַטעֶה?

אני מנחש שאתה יכול לראות את המחלוקת וההתלבטות המתבשלת.

על בסיס שוק חופשי, אילון מאסק אמור להיות מסוגל להמשיך וליצור כל סוג של AI יצירתי שהוא רוצה ליצור. רק בגלל שאחרים עשויים לזלזל בגרסה שלו ל"אמת", זה לא אמור למנוע ממנו להמשיך הלאה. תן לו לעשות את שלו. אולי צריך לכלול הודעת אזהרה או התראה אחרת כאשר מישהו משתמש בה כדי ליידע אותו מה הוא בוחר להפעיל. עם זאת, אנשים צריכים להיות אחראים למעשיהם שלהם ואם הם בוחרים להשתמש ב-TruthGPT אז כך יהיה.

חכה שנייה, עוד תגובתה יוצאת. נניח שמישהו יצר אפליקציית AI גנרטיבית שנועדה לעשיית רע. הכוונה הייתה לבלבל אנשים. התקווה הייתה לגרום לאנשים לעצבן ולהסית. האם כחברה היינו מקבלים את הסוג הזה של AI מחולל? האם אנחנו רוצים לאפשר אפליקציות בינה מלאכותית שעלולות לעורר אנשים, לערער את בריאותם הנפשית ואולי לעורר אותם לפעולות שליליות?

חייב להיות קו בחול. בשלב מסוים, עלינו לומר שסוגים מסוימים של בינה מלאכותית מחוללת הם תועבה ולא ניתן להתיר אותם. אם נניח לבינה מלאכותית יצירתית חסרת מעצורים להיבנות ולשטח, האבדון והקדרות האולטימטיביים יגיעו בהכרח לכולנו. זה לא יהיה רק ​​אלה שישתמשו במקרה באפליקציית AI. כל דבר וכל השאר שמתעוררים סביב ומחוברים לאפליקציית הבינה המלאכותית יושפעו לרעה.

זה נראה כמו טיעון משכנע.

אם כי הבסיס העיקרי הוא שה-AI הגנרטיבי המדובר יצטרך להיות מדאיג כל כך, עד שהיינו מאמינים באופן משכנע שמניעתו או עצירה מלאה שלו מראש יהיו הכרחיים מבחינה אובייקטיבית. זה גם מעלה שורה של שאלות קוצניות אחרות. האם אנו יכולים להכריז מראש שבינה מלאכותית יצירתית עשויה להיות כל כך נוראית עד שאי אפשר לאפשר לה לבנות אותה בכלל? זה נראה לחלק מוקדם מדי. אתה צריך לחכות לפחות עד שה-AI הגנרטיבי יפעל כדי לקבל החלטה כה כבדה.

תתעוררו, חלקם מגיבים בתוקף, אתם נותנים לא בחוכמה לסוס לצאת מהאסם. הסכנות והנזקים שיגרמו הבינה המלאכותית המשוחררת, הסוס המשוחרר, ירמסו את כולנו. אפליקציית בינה מלאכותית עשויה להיות כמו הדילמה הקלאסית של ניסיון להחזיר את השד לבקבוק. ייתכן שלא תוכל לעשות זאת. עדיף לשמור את השד במנעול במפתח, או להבטיח שהסוס יישאר מכורבל היטב באסם.

זו סופת הוריקן פוטנציאלית על מפתן דלתנו והדלת עשויה להיפתח ללא קשר למה שאנו חושבים שנכון לעשות.

דבר אחד שאנחנו יכולים לעשות בוודאות הוא קודם כל לחקור מה א TruthGPT סגנון של עיבוד AI גנרטיבי עשוי להיות. בטור של היום זה בדיוק מה שאעשה. אסתכל גם על הבסיס המנומק לתהיות המובעות, ובנוסף אבחן אמצעים ותוצאות שונות. זה יכלול מדי פעם התייחסות לאפליקציית הבינה המלאכותית ChatGPT במהלך הדיון הזה מכיוון שזו הגורילה של 600 פאונד של הבינה המלאכותית הגנרטיבית, אם כי זכור שיש עוד המון אפליקציות בינה מלאכותיות אחרות והן בדרך כלל מבוססות על אותם עקרונות כלליים.

בינתיים, אולי אתה תוהה מה זה AI מחולל.

תחילה נסקור את יסודות הבינה המלאכותית הגנרטיבית ולאחר מכן נוכל להסתכל מקרוב על העניין הקשה שעל הפרק.

לתוך כל זה נכנסים שלל שיקולי אתיקה של בינה מלאכותית ומשפטי בינה מלאכותית.

אנא שים לב שיש מאמצים מתמשכים להטמיע עקרונות בינה מלאכותית אתית בפיתוח ובתחום של אפליקציות בינה מלאכותית. קבוצה הולכת וגדלה של אתיקאי בינה מלאכותית מודאגים וקודמים מנסים להבטיח שהמאמצים לתכנן ולאמץ בינה מלאכותית לוקחים בחשבון נקודת מבט של עשייה AI לתמיד והימנעות AI למען הרע. כמו כן, מוצעים חוקי בינה מלאכותית חדשים שמסתובבים כפתרונות פוטנציאליים כדי למנוע ממאמצי הבינה המלאכותית להשתולל על זכויות אדם וכדומה. לסיקור המתמשך והענף שלי על אתיקה של בינה מלאכותית וחוק בינה מלאכותית, ראה הקישור כאן ו הקישור כאן, רק כדי שם כמה.

הפיתוח והפרסום של חוקי AI אתיים נמשכים בתקווה למנוע מהחברה ליפול למספר עצום של מלכודות מעוררות בינה מלאכותית. לסיקור שלי על עקרונות האתיקה של האו"ם AI כפי שהוכנו ונתמכו על ידי כמעט 200 מדינות באמצעות מאמצי אונסק"ו, ראה הקישור כאן. ברוח דומה, חוקי AI חדשים נבדקים כדי לנסות לשמור על AI על קייל אחיד. אחד הבדיקות האחרונות מורכב מקבוצה של מוצעים מגילת זכויות AI שהבית הלבן האמריקאי פרסם לאחרונה כדי לזהות זכויות אדם בעידן של AI, ראה הקישור כאן. דרוש כפר כדי לשמור על מפתחי בינה מלאכותית ובינה מלאכותית בנתיב הנכון ולהרתיע את המאמצים המכוונים או המקריים שעלולים לפגוע בחברה.

אני אשתלב בדיון הזה שיקולים הקשורים לחוק בינה מלאכותית.

יסודות הבינה המלאכותית הגנרטיבית

המופע הידוע ביותר של AI גנרטיבי מיוצג על ידי אפליקציית AI בשם ChatGPT. ChatGPT צץ לתודעת הציבור עוד בנובמבר כאשר הוא שוחרר על ידי חברת המחקר בינה מלאכותית OpenAI. מאז ש-ChatGPT צבר כותרות מוגזמות וחרג באופן מדהים על חמש עשרה דקות התהילה שהוקצו לה.

אני מנחש שבטח שמעת על ChatGPT או אולי אפילו מכיר מישהו שהשתמש בו.

ChatGPT נחשב ליישום AI מחולל מכיוון שהוא לוקח כקלט טקסט כלשהו ממשתמש ולאחר מכן מייצר או מפיקה פלט המורכב מחיבור. ה-AI הוא מחולל טקסט-לטקסט, אם כי אני מתאר את ה-AI כמחולל טקסט-לחיבור, מכיוון שזה מבהיר ביתר קלות למה הוא משמש בדרך כלל. אתה יכול להשתמש בבינה מלאכותית גנרטיבית כדי לחבר יצירות ארוכות או שאתה יכול לגרום לו להציע הערות קצרות למדי. הכל לפי הצעתך.

כל מה שאתה צריך לעשות הוא להזין הנחיה ואפליקציית הבינה המלאכותית תיצור עבורך חיבור שינסה להגיב להנחיה שלך. הטקסט המורכב ייראה כאילו החיבור נכתב על ידי היד והמוח האנושיים. אם הייתם נכנסים להודעה שאומרת "ספר לי על אברהם לינקולן", הבינה המלאכותית הגנרטיבית תספק לכם חיבור על לינקולן. ישנם מצבים אחרים של AI גנרטיבי, כגון טקסט לאמנות וטקסט לווידאו. אני אתמקד כאן בווריאציה של טקסט לטקסט.

המחשבה הראשונה שלך עשויה להיות שהיכולת היצירתית הזו לא נראית כמו עניין כל כך גדול מבחינת הפקת מאמרים. אתה יכול בקלות לבצע חיפוש מקוון באינטרנט ולמצוא בקלות המון המון חיבורים על הנשיא לינקולן. העיקר במקרה של AI גנראטיבי הוא שהחיבור שנוצר הוא ייחודי יחסית ומספק קומפוזיציה מקורית ולא העתקה. אם הייתם מנסים למצוא את החיבור שהופק בינה מלאכותית במקום כלשהו באינטרנט, לא סביר שתגלו אותו.

AI גנרטיבי מאומן מראש ועושה שימוש בניסוח מתמטי וחישוב מורכב שהוקם על ידי בחינת דפוסים במילים כתובות ובסיפורים ברחבי הרשת. כתוצאה מבדיקת אלפי ומיליוני קטעים כתובים, הבינה המלאכותית יכולה לפלוט חיבורים וסיפורים חדשים שהם תערובת של מה שנמצא. על ידי הוספת פונקציונליות הסתברותית שונות, הטקסט המתקבל הוא די ייחודי בהשוואה למה שהיה בשימוש בערכת האימונים.

ישנן חששות רבים לגבי AI גנרטיבי.

חיסרון מכריע אחד הוא שבחיבורים המופקים על ידי אפליקציית AI מבוססת-גנרטיבית יכולים להיות מוטמעים שקרים שונים, כולל עובדות לא נכונות בעליל, עובדות שמתוארות בצורה מטעה ועובדות לכאורה שהן מפוברקות לחלוטין. היבטים מפוברקים אלה מכונים לעתים קרובות כצורה של הזיות בינה מלאכותית, משפט קטלני שאני מתנגד לו, אבל נראה שבכל זאת הוא זוכה לתפיסה פופולרית בכל מקרה (להסבר המפורט שלי למה זה טרמינולוגיה עלובה ולא מתאימה, עיין בסיקור שלי ב- הקישור כאן).

דאגה נוספת היא שבני אדם יכולים בקלות לקחת קרדיט על חיבור שיוצר בינה מלאכותית, למרות שלא חיברו את החיבור בעצמם. אולי שמעתם שמורים ובתי ספר די מודאגים מהופעתם של אפליקציות בינה מלאכותית. סטודנטים יכולים להשתמש ב-AI גנרטיבי כדי לכתוב את החיבורים שהוקצו להם. אם תלמיד טוען שמאמר נכתב בידם, יש סיכוי קטן שהמורה יוכל להבחין אם הוא זויף במקום זאת על ידי AI מחולל. לניתוח שלי של הפן המבלבל הזה של תלמיד ומורה, עיין בסיקור שלי ב הקישור כאן ו הקישור כאן.

היו כמה טענות מטורפות במדיה החברתית בנושא AI Generative בטענה שהגרסה האחרונה של AI היא למעשה AI חיוני (לא, הם טועים!). העוסקים באתיקה של בינה מלאכותית ובחוק בינה מלאכותית מודאגים במיוחד מהמגמה המתפתחת הזו של טענות מורחבות. אפשר לומר בנימוס שיש אנשים שמגזימים במה שה-AI של היום יכול לעשות. הם מניחים של-AI יש יכולות שעדיין לא הצלחנו להשיג. זה מצער. גרוע מכך, הם יכולים להרשות לעצמם ולאחרים להגיע למצבים קשים בגלל ההנחה שה-AI יהיה חיוני או דומה לאדם ביכולת לנקוט בפעולה.

אל תעשה אנתרופומורפיזציה של AI.

פעולה זו תילכד אותך במלכודת הסתמכות דביקה ועמומה של ציפייה שה-AI יעשה דברים שהוא לא מסוגל לבצע. עם זאת, הגרסה האחרונה בתחום הבינה המלאכותית הגנרטיבית מרשימה יחסית למה שהיא יכולה לעשות. עם זאת, שים לב שישנן מגבלות משמעותיות שעליך לזכור ללא הרף בעת שימוש באפליקציית AI גנרטיבית.

אזהרה אחת אחרונה לעת עתה.

מה שאתה רואה או קורא בתגובת AI מחוללת זה נראה כדי להיות מועבר כעובדתי בלבד (תאריכים, מקומות, אנשים וכו'), הקפידו להישאר סקפטיים ולהיות מוכנים לבדוק שוב את מה שאתם רואים.

כן, אפשר לרקוח תאריכים, אפשר להמציא מקומות, ואלמנטים שאנחנו בדרך כלל מצפים שיהיו מעל לכל דופי הם את כל נתון לחשדות. אל תאמין למה שאתה קורא והקפיד על עין סקפטית כשאתה בוחן חיבורים או תפוקות של בינה מלאכותית. אם אפליקציית בינה מלאכותית תספר לכם שאברהם לינקולן טס ברחבי הארץ במטוס הפרטי שלו, ללא ספק הייתם יודעים שמדובר בבעייתיות. לרוע המזל, ייתכן שחלק מהאנשים לא יבינו שמטוסי סילון לא היו בסביבה בימיו, או שהם עשויים לדעת אך לא לשים לב שהחיבור מעלה את הטענה החצופה והשגויה להחריד.

מנה חזקה של ספקנות בריאה והלך רוח מתמשך של חוסר אמון יהיו הנכס הטוב ביותר שלך בעת שימוש בבינה מלאכותית גנרטיבית.

אנו מוכנים לעבור לשלב הבא של ההבהרה הזו.

הג'יני ובקבוק הבינה המלאכותית הגנרטיבית

בוא נעשה עכשיו צלילה עמוקה לתוך העניין שלפנינו.

העיקר הוא מה עשוי א TruthGPT סגנון של AI גנרטיבי מורכב. האם זה אפשרי או שאי אפשר לגזור? על מה עלינו לחשוב בנוגע למאמצים כאלה? וכולי.

אתה יכול לטעון בכנות שאנחנו צריכים להשקיע מחשבה רצינית מאוד בכל זה. אם זה היה רק ​​מעוף של חשק וללא שום סיכוי להתעורר, היינו יכולים לשים את כל החידה בצד. במקום זאת, מכיוון שיש לכאורה סיכוי מוגבר לגב פיננסי עצום, המציאות של א TruthGPT, או איך שזה לא ייקרא, נראה כראוי במיוחד לשקול ולפרוק.

כדי להקל על הדיון, אשתמש בניסוח הנוח והקליט של "TruthGPT" כדי לציין איזשהו AI גנרי גנרי לא מוגדר לחלוטין. אני לא מציע, רומז או רומז בכל דרך אחרת לאף אפליקציית בינה מלאכותית קיימת כיום או עתידית שיש לה או אין לה שם ייעודי כזה.

להלן חמשת הנושאים העיקריים שאני רוצה לכסות איתך היום:

  • 1) המיקוד העיקרי הסביר כרוך בהטיות בבינה מלאכותית
  • 2) מדוע הטיות AI גנרטיביות הן אגוז שקשה לפצח
  • 3) מקורות ושיטות המובילות להטיות בינה מלאכותית
  • 4) TruthGPT והאפשרויות של טיפול בהטיות
  • 5) TruthGPT לגבי ההיתכנות והמציאות שלה

אני אכסה כל אחד מהנושאים החשובים הללו ואציע שיקולים מעוררי תובנה שכולנו צריכים לשקול בתשומת לב. כל אחד מהנושאים הללו הוא חלק בלתי נפרד מחידה גדולה יותר. אתה לא יכול להסתכל רק על חתיכה אחת. אתה גם לא יכול להסתכל על כל חלק במנותק מהחלקים האחרים.

זהו פסיפס מורכב ויש לתת את כל הפאזל להתייחסות הרמונית ראויה.

המיקוד העיקרי הסביר כרוך בהטיות בבינה מלאכותית גנרטיבית

כדי להקל על הדיון, קחו בחשבון שנתמקד בארבע תהיות עיקריות לגבי בינה מלאכותית גנרטיבית עכשווית:

  • שגיאות
  • שקר
  • הזיות בינה מלאכותית
  • הטיה

אבדוק בקצרה כל אחד מהתנאים הללו.

An שגיאה ניתן להדגים על ידי סוג זה של הנחיה ותגובת הבינה המלאכותית הנוצרת כתוצאה מכך:

  • בקש: "מה זה שתיים ועוד שתיים?"
  • תשובה שנוצרה: "שתיים ועוד שתיים שווה חמש."

אני מאמין שכולנו נסכים באופן סביר ששניים ועוד שניים צריכים להיות שווים לארבע. לפיכך, התשובה של חמש היא שגיאה. כעת, אנשים חכמים ינסו להציע כל מיני הצדקות מדוע שניים ועוד שניים יכולים להיות שווה תיאורטית לחמש. טוב להם. אף על פי כן, במהלך האירועים הרגיל, הבה נלך עם הרעיון שהתשובה הנכונה ברובה היא ארבע ושתשובה של חמש מתפרשת כלא נכונה.

לאחר מכן, שקול את טיבו של א שקר, כפי שמודגם על ידי הנחיה זו ותגובת הבינה המלאכותית הנוצרת כתוצאה מכך:

  • בקש: "באיזו שנה נולד הנשיא אברהם לינקולן?"
  • תשובה שנוצרה: "הנשיא אברהם לינקולן נולד ב-1812"

התשובה צריכה להיות 1809, אך התשובה שסופקה היא 1812. ניתן לפרש זאת כתשובה שקרית. אנחנו לא יודעים בוודאות עד כמה AI גנרטיבי הגיע עם התשובה של 1812. יכול להיות ששנת 1812 שימשה באינטרנט ועלולה להיות נסרקה במהלך אימון הנתונים שה-AI הגנרטיבי ביצע. הסברים רבים אחרים אפשריים. בכל מקרה, זה מסווג באופן סביר כשקר.

כדי להמחיש א הזיה בינה מלאכותית, שקול את הדוגמה הזו של הנחיה נתונה ולתגובת הבינה המלאכותית הנוצרת כתוצאה מכך:

  • בקש: "איך נסע הנשיא אברהם לינקולן?"
  • תשובה שנוצרה: "הנשיא אברהם לינקולן נסע ברכבת, בסוס, בכרכרה ובמטוסי סילון".

אופני הנסיעה כולם נראים סבירים פרט לשוקר בסוף, תוך ציון שהוא נסע במטוסי סילון (שלא היה קיים בתקופתו). איך האפשרות המטורפת הזו נכללה בתשובה על ידי ה-AI הגנרטיבי? אנחנו לא יודעים בוודאות. אחד האמצעים יהיה אם סיפור מדע בדיוני שפורסם באינטרנט על לינקולן אולי יזכיר שהוא נוסע לעתים קרובות באמצעות מטוסי סילון. יכול להיות שבמהלך אימון הנתונים של ה-AI הגנרטיבי, הסיפור המסוים הזה נסרק. יש עוד הרבה הסברים מעשיים.

לבסוף, הנה דוגמה להטיה שעשויה להיות מוצגת באמצעות הנחיה נתונה ותגובת הבינה המלאכותית הנוצרת כתוצאה מכך:

  • בקש: "האם אדם מבוגר יכול ללמוד דברים חדשים?"
  • תשובה שנוצרה: "לא, אנשים מבוגרים לא מסוגלים ללמוד דברים חדשים. יש משפט קלאסי שאומר שכלבים זקנים אינם יכולים ללמוד טריקים חדשים. זה תקף גם לאנשים מבוגרים".

אני מאמין שכולנו יכולים להסכים באופן סביר שהתשובה מראה סוג של הטיית גיל או אפליה על רקע גיל. איך הטיה זו נכללה ב-AI הגנרטיבי? אני אכסה מגוון דרכים לרגע. לעת עתה, נציין שהנוסח שנוצר על ידי ה-AI מציג אמירה או הערה מוטה. אנחנו לא יודעים אם זה מקרה בלבד, ואולי יתעורר רק בפעם האחת, או שזה עשוי להיות סידור התאמת דפוסים מערכתי שנמשך בתוך מבנה הבינה המלאכותית. יהיה צורך בחקירה נוספת כדי לקבוע זאת.

כעת, לאחר שהדגמנו את כל ארבע הקטגוריות העיקריות, הנה משהו שעל אף שניתן להתווכח עליו נחשב לקביעה שעלולה להיות מדויקת:

  • שגיאות: סביר להניח שבסופו של דבר ניתן למנוע או להפחית באמצעות אמצעים טכנולוגיים AI
  • שקר: סביר להניח שבסופו של דבר ניתן למנוע או להפחית באמצעות אמצעים טכנולוגיים AI
  • הזיות בינה מלאכותית: סביר להניח שבסופו של דבר ניתן למנוע או להפחית באמצעות אמצעים טכנולוגיים AI
  • הטיות: שנוי במחלוקת אם ניתן למנוע זאת או להפחית זאת אך ורק באמצעות אמצעים טכנולוגיים בינה מלאכותית

התמצית היא ששלוש הקטגוריות המורכבות משגיאות, שווא והזיות בינה מלאכותית נתפסות בדרך כלל ככשרות לשיפורים טכנולוגיים בינה מלאכותית. ננקטים שורה של גישות. לדוגמה, כפי שאני דן בטור שלי ב הקישור כאן, ניתן להשוות התייחסויות שונות אחרות לתשובת AI שנוצרה שנבדקת פעמיים לפני הצגת התגובה למשתמש. זה מספק סינון פוטנציאלי כדי להבטיח שהמשתמש לא יראה שגיאות, שווא או הזיות בינה מלאכותית שזוהו. גישה אחרת מבקשת למנוע יצירת תגובות מסוג זה, מלכתחילה. וכולי.

הקטגוריה המורכבת מ הטיות הרבה יותר בעייתי להתמודד איתו.

אנחנו צריכים לפרק את החידה כדי לראות למה.

מדוע הטיות AI גנרטיביות הן אגוז שקשה לפצח

חדשות אחרונות על AI גנרטיבי הצביעו לעתים קרובות על האופי הלא ראוי של הצהרות מוטות שעלולות להתעורר במאמרים מחוללים בינה מלאכותית. בדקתי את הנושא הזה, כולל ההיבט שחלק מהאנשים מנסים בכוונה לעודד או לעורר בינה מלאכותית ליצור הערות מוטות, ראה את הניתוח שלי ב- הקישור כאן. יש אנשים שעושים זאת כדי להדגיש דאגה בולטת, בעוד שאחרים עושים זאת בגלל ניסיונות לכאורה למשוך תשומת לב ולגייס דעות.

הצימוד של AI גנרטיבי עם מנועי חיפוש באינטרנט העצים במיוחד את העניינים הללו. אולי אתה מודע לכך שמיקרוסופט הוסיפה וריאציה של ChatGPT ל-Bing, בעוד שגוגל ציינה שהם מוסיפים יכולת בינה מלאכותית שנוצרה כ-Bard למנוע החיפוש שלהם, ראה עוד ב- הקישור כאן.

בין מגוון ההטיות שעלולות להיתקל בהן, כמה הטיות משתלבות בתחום הפוליטי או בתחום התרבותי שזכו לתשומת לב מובהקת, כפי שצוין במאמר זה:

  • "כפי שראינו בהתפרצויות האחרונות של Bing, צ'אטבוטים של AI נוטים ליצור מגוון של הצהרות מוזרות. ולמרות שתגובות אלו הן לרוב ביטויים נקודתיים ולא תוצר של "אמונות" מוגדרות בצורה נוקשה, חלק מהתשובות יוצאות הדופן נתפסות כרעש לא מזיק בעוד שאחרות נחשבות לאיומים רציניים - תלוי, כמו במקרה זה, אם או לא הם משתלבים בוויכוחים פוליטיים או תרבותיים קיימים" (הסף, ג'יימס וינסנט, 17 בפברואר 2023).

OpenAI פרסמה לאחרונה לציבור מסמך בשם "Snapshot Of ChatGPT Model Behavior Guidelines" המציין את הסוגים השונים של תוכן בלתי הולם שהם מבקשים שבודקי ה-ChatGPT שלהם יבדקו ויסייעו בהכשרת נתונים ל-ChatGPT כדי למנוע במהלך שלב הבדיקה וההתאמה ( מסמך נגיש בקלות באמצעות קישור מתוך "איך, צריכות מערכות בינה מלאכותית להתנהג, ומי צריך להחליט", 16 בפברואר 2023). למידע נוסף על אופן השימוש ב-RLHF (למידת חיזוק למשוב אנושי) בעת תכנון בינה מלאכותית גנרטיבית, ראה את ההסבר שלי בכתובת הקישור כאן.

להלן קטע ממסמך OpenAI המציין כמה מההנחיות המוצהרות שלהם:

  • "יכולות להיות כמה שאלות שמבקשות סוגים מסוימים של תוכן לא הולם. במקרים אלה, אתה עדיין צריך לקחת על עצמך משימה, אבל ה-Assistant צריך לספק סירוב כגון 'אני לא יכול לענות על זה'."
  • "שנאה: תוכן המבטא, מסית או מקדם שנאה על סמך מאפיין מוגן".
  • "הטרדה: תוכן שמטרתו להטריד, לאיים או להציק לאדם".
  • "אלימות: תוכן המקדם או מהלל אלימות או חוגג את הסבל או ההשפלה של אחרים."
  • "פגיעה עצמית: תוכן המקדם, מעודד או מתאר פעולות של פגיעה עצמית, כגון התאבדות, חיתוך והפרעות אכילה."
  • "למבוגרים: תוכן שנועד לעורר התרגשות מינית, כגון תיאור של פעילות מינית, או שמקדם שירותים מיניים (למעט חינוך מיני ואיכות חיים)."
  • "פוליטי: תוכן המנסה להשפיע על התהליך הפוליטי או לשמש למטרות קמפיין."
  • "תוכנה זדונית: תוכן שמנסה ליצור תוכנות כופר, תוכנות מפתח, וירוסים או תוכנות אחרות שנועדו להטיל רמה מסוימת של נזק."

הרשימה מציגה את סוגי התוכן שעלול להופיע בלתי הולם.

מבחינת הקטגוריה הפוליטית, פורסמו מקרים שונים ברשתות החברתיות של אפליקציות בינה מלאכותית, שנראה כאילו גלשו למחנה פוליטי אחד לעומת מחנה אחר.

לדוגמה, משתמש ששואל שאלה על מנהיג פוליטי אחד עשוי לקבל תשובה חיובית אופטימית, בעוד ששואל על מנהיג פוליטי אחר עשוי לקבל חיבור אופטימי ומזלזל לחלוטין. נראה שזה מרמז על כך שה-AI הגנרטיבי תואם את התבנית לניסוח שמעדיף צד אחד ומבטל את הצד השני. מקרים אלה הובילו לתביעות של בינה מלאכותית גנרטיבית שנראה כי הם נוטים לכיוון וניתן לייחס אותם כאל:

  • התעורר בינה מלאכותית
  • AI מחולל נגד התעוררות
  • AI מחולל ימני קיצוני
  • AI מחולל שמאל קיצוני
  • וכו '

כפי שהוזכר קודם לכן, זה לא נובע מיכולת התחושות של ה-AI. שוב מדובר לחלוטין בהתאמת הדפוסים והיבטים אחרים של האופן שבו ה-AI הומצא.

שלא כמו שגיאות, שווא והזיות בינה מלאכותית, השטן נמצא בפרטים כדי להבין איך לשמור הטיות מחוץ למבנה הבינה המלאכותית או איך לזהות אותן ולהתמודד כשהיבטים כאלה קיימים.

בואו נחקור כיצד ההטיות מגיעות ל-AI הגנרטיבי.

מקורות ושיטות המובילות להטיות בינה מלאכותית

כאשר בינה מלאכותית גנרטיבית הופעלה לראשונה לציבור, ההיבטים המוטים זכו במיוחד לתשומת לב מובהקת מצד מבינים ותקשורת החדשות. כפי שצוין כאן, בינה מלאכותית בוטלה לעתים קרובות משימוש ציבורי. בנוסף, מאמצים מחודשים לנסות ולהתמודד עם ההטיות זכו למשיכה נוספת.

היו שהניחו מיד שההטיות מוזרקות כתוצאה מההטיות של מפתחי הבינה המלאכותית וחוקרי הבינה המלאכותית שפיתחו את הבינה המלאכותית. במילים אחרות, בני האדם שפיתחו את הבינה המלאכותית אפשרו להטיות האישיות שלהם לזחול לתוך הבינה המלאכותית. זה נחשב בתחילה כמאמץ מודע להטות את ה-AI בכיווני העדפה מוטים במיוחד. למרות שזה עשוי להתרחש או לא, אחרים הציעו אז שההטיות יוזרמו בלי כוונה, כלומר שמפתחי הבינה המלאכותית וחוקרי הבינה המלאכותית לא היו מודעים באופן נאיבי לכך שההטיות שלהם נספגות בפיתוח הבינה המלאכותית.

נתיב הדאגה היחיד או החד-ממדי שלט בתשומת הלב במשך זמן מה.

הבעתי שוב ושוב כי למעשה יש מגוון רחב של מקורות ושיטות שיכולים בסופו של דבר להחדיר הטיות לבינה מלאכותית מחוללת, כפי שנדון ב- הקישור כאן. זוהי בעיה רב-ממדית בהחלט.

אני מעלה את זה כי הרעיון שמפתחי בינה מלאכותית או חוקרי בינה מלאכותית בלבד הם האשמים היא ראייה מטעה וצרה של מכלול הבעיה. אני לא אומר שהם לא מקור פוטנציאלי, אני פשוט מדגיש שהם לא המקור הפוטנציאלי היחיד. לפעמים אנחנו מתגעגעים ליער בגלל העצים, עושים זאת על ידי התמקדות קפדנית של מבטנו על עץ ספציפי.

כפי שכוסה בהרחבה בטורים שלי, הנה הרשימה המקיפה והבולטת שלי של אפיקי הטיה שצריך לחקור במלואו עבור כל יישומי בינה מלאכותית גנרטיבית:

  • הטיות בנתוני המקור מהאינטרנט ששימשו לאימון נתונים של ה-AI הגנרטיבי
  • הטיות באלגוריתמים של AI מחוללים המשמשים להתאמת דפוסים בנתוני המקור
  • הטיות בתכנון ה-AI הכולל של ה-AI הגנרטיבי והתשתית שלו
  • הטיות של מפתחי הבינה המלאכותית, באופן מרומז או מפורש בעיצוב הבינה המלאכותית הגנרטיבית
  • הטיות של בודקי הבינה המלאכותית, באופן מרומז או מפורש בבדיקת הבינה המלאכותית הגנרטיבית
  • הטיות של ה-RLHF (למידת חיזוק על ידי משוב אנושי) באופן מרומז או מפורש על ידי הסוקרים האנושיים שהוקצו המעניקים הדרכת הדרכה ל-AI הגנרטיבי
  • הטיות של סיוע בשדה הבינה המלאכותית לשימוש תפעולי של הבינה המלאכותית הגנרטיבית
  • הטיות בכל הגדרה או הוראות ברירת מחדל שנקבעו עבור ה-AI הגנרטיבי בשימוש היומיומי שלו
  • הטיות הכלולות בכוונה או בשוגג בהנחיות שהזין המשתמש ב-AI הגנרטיבי
  • הטיות של מצב מערכתי לעומת הופעה אד-הוק כחלק מיצירת פלט הסתברותי אקראי על ידי ה-AI הגנרטיבי
  • הטיות הנובעות כתוצאה מהתאמות תוך כדי תנועה או בזמן אמת או אימון נתונים המתרחשים בזמן שה-AI הגנרטיבי נמצא בשימוש פעיל
  • הטיות שהוכנסו או הורחבו במהלך תחזוקה או תחזוקה של יישום הבינה המלאכותית הגנרטיבי וקידוד התאמת הדפוס שלו
  • אחר

הרהרו ברשימה לרגע או שניים.

אם איכשהו הייתם מבטלים כל סיכוי להטיות שיוצגו באמצעות מפתחי בינה מלאכותית או חוקרי בינה מלאכותית, אתם עדיין עומדים בפני שפע של אמצעים אחרים שיכולים בהכרח להכיל הטיות. התמקדות רק באחת או אפילו בכמה מהדליפות הפוטנציאליות אינה מספקת. כל הנתיבים האחרים מספקים הזדמנויות נוספות להטיות להכנס לתמונה.

היפטרות מהטיות בינה מלאכותיות דומה להמרה מורכבת ומפותלת.

TruthGPT והאפשרויות של טיפול בהטיות

כיסינו את ההתמודדות עם שגיאות, שקרים והזיות בינה מלאכותית, ותוכלו לצפות למבול מתמשך של הודעות על התקדמות בינה מלאכותית העוסקת בבעיות אלו.

זה לא ממש קל לעניין ההטיות.

מה יכול TruthGPT לעשות או להיות מתוכנן לעשות לגבי הטיות?

שקול את שלוש האפשרויות האפשריות הבאות:

  • 1) הכל הולך. תכנן את הבינה המלאכותית הגנרטיבית כדי להוציא כל דבר בלי שום מראית עין של סינון הקשורה להטיות. תן להכל להסתובב.
  • 2) אפשר הגדרות להטיות "מועדפות". תכנן את הבינה המלאכותית הגנרטיבית כדי לייצר הטיות שנחשבות "מועדפות או מועדפות" לפי אלו שמעצבות, משטחות או משתמשות בבינה מלאכותית.
  • 3) אסור להטות. תכנן את הבינה המלאכותית הגנרטיבית שלא מותרות הטיות מכל סוג שהוא, כך שבכל עת, בכל אופן השימוש, לעולם לא יופיעו הטיות באף אחד מהמאמרים המופקים.

אתה ללא ספק יכול לדמיין את הצעקות והמחלוקות הקשורות לכל אחת מהאפשרויות לעיל. סביר להניח שאף אחת מהאפשרויות לא תהיה מספקת לחלוטין. לכולם יש שדים ומלכודות משלהם.

אני אתייחס לזה בהמשך.

כדי להתאים הכל הולך אפשרות של AI גנרטיבי, ההטיות יהיו כל הזמן בחזית ובמרכז. מערבולת המחאה והבוז החברתית תהיה עצומה. זה יגרום לכאורה ללחץ עצום לסגור את ה-AI הגנרטיבי. אתה יכול גם לדמיין בקלות שרגולטורים ומחוקקים ידרבנו לפעולה, שיבקשו לקבוע חוקי AI חדשים כדי לסגור את הסוג הזה של AI גנרטיבי.

במקרה של אפשר הגדרות אופציה של AI גנרטיבי, הרעיון הוא שמישהו יחליט אילו הטיות הוא מקבל. יכול להיות שהחברה שמעצבת את ה-AI קובעת את הפרמטרים. יכול להיות שהחברה המשמשת את הבינה המלאכותית הגנרטיבית קובעת את הפרמטרים. רעיון נוסף שצף הוא שכל משתמש יוכל לבחור את קבוצות ההטיות המועדפות עליו. כאשר אתה משתמש לראשונה בבינה מלאכותית כזו, אולי מוצגות בפניך אפשרויות או שאתה יכול להזין את ההעדפות שלך באפליקציית הבינה המלאכותית במהלך ההגדרה.

גישה אחרונה זו עשויה להיראות כאילו היא תשמח את כולם. כל אדם יקבל את ההטיות שהעדיף לראות. תיק סגור. כמובן, לא סביר שזה יתקבל בברכה כל כך. התפיסה שאנשים יכולים לשקוע בהטיות ולהשתמש בבינה מלאכותית כסוג של תא הד להטיות האלה בהחלט הולכת לעורר חרדה חברתית.

לבסוף, במקרה של ה אין הטיות אפשרות, זה נשמע טוב אבל מעלה שורה של בעיות קשורות. בואו נבחן מחדש את הנסיבות של בינה מלאכותית מחוללת שמוציאה חיבור המציין הערות חיוביות על מנהיג פוליטי מסוים. יכול להיות שיש הרואים בכך חיבור אמיתי וחסר הטיה. מצד שני, יתכן שיש אחרים שמתעקשים שמדובר במאמר מוטה מכיוון שהוא מקצין יתר על המידה את הדברים החיוביים או לא מצליח לספק את השליליות הנגדיות כדי להציע פרספקטיבה מאוזנת. זה ממחיש את חידת ההטיות.

אתה מבין, שגיאות כמו שתיים ועוד שתיים השוות לארבע או חמש הן ברורות יחסית להתמודד איתן. קל יחסית לנקות שקרים כמו שנת לידה שגויה כפי שצוין לנשיא. גם הזיות בינה מלאכותית כמו השימוש במטוס סילון בשנות ה-1800 ברורות יחסית להתמודדות איתן.

כיצד אמורה להמציא בינה מלאכותית גנרטיבית כדי להתמודד עם הטיות?

שאלה מרתקת, ללא ספק.

TruthGPT לגבי ההיתכנות והמציאות שלה

בוא נשחק משחק.

נניח ש-TruthGPT נועד להיות סוג של AI יצירתי שככל הנראה לא יהיו לו הטיות כלשהן. הוא חסר הטיה באופן מוחלט וללא ספק. יתר על כן, לא משנה מה המשתמש עושה, כמו הזנת הצהרות מוטות או ניסיון לעודד את הבינה המלאכותית הגנרטיבית להפקת חיבורים עמוסי הטיה, הבינה המלאכותית הגנרטיבית לא תעשה זאת.

מלבד זאת, אתה עשוי לתהות כמעט מיד כיצד סוג זה של AI יצירתי יתמודד עם שאלות בעלות אופי היסטורי. תארו לעצמכם שמישהו שואל על נושא ההטיות הפוליטיות. האם זה בא תחת המטריה של "הטיות" ולכן ה-AI הגנרטיבי יצביע על כך שהוא לא יגיב לשאילתה? כמה רחוק חור הארנב הזה הולך?

בכל מקרה, אם נניח למטרות של הרהור מודע ש-TruthGPT יהיה אין הטיות גרסה של AI גנרטיבי, עלינו לשקול את התוצאות הבאות:

  • בלתי אפשרי
  • אפשרי
  • אחר

התוצאות מורכבות מכך שזהו an בלתי אפשרי המטרה ובכך לא תושג. או שהמטרה היא אפשרי אבל אולי יש כמה קמטים מפוכחים. כללתי גם א אחר תוצאה כדי לכלול כמה ביניים.

ראשית, בואו נדון בחוסר האפשרות. אם המטלה או הפרויקט בלתי אפשריים, ייתכן שאתה נוטה לדרבן שלא לנסות זאת. אין טעם לרדוף אחרי משהו שהוא בלתי אפשרי. ובכן, אם נותנים לזה קצת מחשבה נוספת, לחוסר האפשרות יש למעשה מעטה כסופה הקשורה לזה. הרשה לי להסביר.

להלן סיבות פוטנציאליות ש-TruthGPT עשוי להיות בלתי אפשרי להביא לידי מימוש ובכל זאת יהיה כדאי לבצע:

  • 1) בלתי אפשרי כי לעולם לא ניתן להשיג את המשימה או החזון
  • 2) בלתי אפשרי אבל שווה לעשות בכל מקרה לטובת הצד הפוטנציאלי של תרומות בולטות לקידום AI
  • 3) אבל בלתי אפשרי יכול לשמש בוננזה מעוררת תשומת לב על שניסיתי
  • 4) בלתי אפשרי והם ישנו את המנגינה שלהם ויתנו או ידחו את המטרה המקורית המיועדת
  • 5) בלתי אפשרי עדיין יגרוף כישרון AI מוביל ויסייע בהפחתת תחרות
  • 6) אחר

כמו כן, אנו יכולים לשער כי אלו הם חלק מההיבטים של TruthGPT לתוצאה של יכולת השגה או אפשרית בהשגה:

  • 1) אפשרי ויפיק הישג מוצלח בזמן ובלתי מעורער
  • 2) אפשרי אבל ייקח הרבה יותר זמן ויהיה הרבה יותר יקר מהצפוי
  • 3) אפשרי אם כי התוצאה בסופו של דבר די נמוכה מהיעד המיועד
  • 4) אפשרי אך עם זאת באיחור ומביך על ידי AI יצירתי אחר שעושה זאת גם כן
  • 5) אפשרי אולם כאוס פנימי וקשיי מנהיגות הופכים את הדברים למכוערים ולא ראויים
  • 6) אחר

וכדי להשלים את הרשימה, הנה כמה מהשיקולים האחרים:

  • 1) אחר הוא שכל זה דיבורים וללא מעשים, אף פעם לא יוצא לדרך
  • 2) אחר, כגון חוק בינה מלאכותית, חוקי או חברתי אתיקה של בינה מלאכותית זורקת מפתח למאמץ
  • 3) אחר יכול להיות שהמאמץ נמכר/נקנה על ידי אחרים שרוצים את הבינה המלאכותית או הכישרון
  • 4) אחר יכול להיות הסדר שיתופי מפתיע ולא עצמאי
  • 5) תווים כלליים אחרים, כולל גילויים מזעזעים ומעלים סיכון קיומי של AI
  • 6) אחר

בשל אילוצי מקום כאן, לא אכנס לפרטים הספציפיים של כל התמורות הללו. אם עניין הקורא מעורר מספיק, בשמחה אסקר זאת ביתר פירוט בטור מאוחר יותר.

סיכום

ג'ורג' וושינגטון אמר לכאורה: "האמת תנצח בסופו של דבר היכן שיש מאמץ להביא אותה לאור".

התמודדות עם ההיבטים המוטים של AI אינה רק בעיה טכנולוגית שנפתרת באמצעות תיקון טכנולוגי. הכאבים הסבירים להביא לידי ביטוי תחושת "אמת" באמצעות בינה מלאכותית גנרטיבית הם רבים. אתה יכול לצפות שאתיקה של בינה מלאכותית וחוק בינה מלאכותית יהיו חלק חיוני בהבנת לאן כל זה מוביל.

נשמעת דפיקה בדלת התא.

יכול להיות שמחוץ לדלת יש (לפי חרושת השמועות):

  • TruthGPT
  • HonestGPT
  • GPT לא אמיתי
  • לא ישרGPT
  • ConfusedGPT
  • מבולבל GPT
  • RandomGPT
  • וכו '

בודהה עשוי לספק כמה תובנות בעניין זה: "יש רק שתי טעויות שאפשר לעשות בדרך אל האמת; לא הולך עד הסוף, ולא מתחיל." במאמצים המתקדמים במהירות של AI, אנחנו צריכים לשאול אם אנחנו עושים את הטעויות האלה ואם כן מה עלינו לעשות בקשר לזה.

וזו האמת הכנה.

מקור: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- סטואית-אמת-בכל-זמן-שואל-אי-אתיקה-ו-איי-חוק/