גוגל, Meta, OpenAI מתאחדים עם ענקיות אחרות בתעשייה נגד תמונות של התעללות בילדים בינה מלאכותית

כדי להילחם בהפצת חומרי התעללות מינית בילדים (CSAM), קואליציה של מפתחי בינה מלאכותית מובילה - כולל גוגל, Meta ו-OpenAI - נשבעה לאכוף מעקות בטיחות סביב הטכנולוגיה המתפתחת.

הקבוצה נרתמה על ידי שני ארגונים ללא מטרות רווח: קבוצת טכנולוגיה לילדים Thorn ו- All Tech is Human מניו יורק. תורן, שנקראה בעבר קרן DNA, הושקה ב-2012 על ידי השחקנים דמי מור ואשטון קוצ'ר.

ההתחייבות הקולקטיבית הוכרזה ביום שלישי יחד עם דו"ח חדש של Thorn הדוגל בעקרון "בטיחות לפי עיצוב" בפיתוח AI גנרטיבי שימנע יצירת חומר התעללות מינית בילדים (CSAM) לאורך כל מחזור החיים של מודל AI.

"אנו קוראים לכל החברות המפתחות, פורסות, מתחזקות ומשתמשות בטכנולוגיות ובמוצרי AI גנרטיביים להתחייב לאמץ את עקרונות הבטיחות לפי עיצוב ולהפגין את מסירותן למניעת יצירה והפצה של CSAM, AIG-CSAM ופעולות אחרות של ילדים מיניים. התעללות וניצול", אמר ת'ורן בהצהרה.

AIG-CSAM הוא CSAM שנוצר על ידי AI, שהדוח ממחיש שיכול להיות קל יחסית ליצירה.

תמונה שמראה כיצד AI יכול לעוות תמונה.
תמונה: קוץ

Thorn מפתחת כלים ומשאבים המתמקדים בהגנה על ילדים מפני התעללות וניצול מיניים. בדוח ההשפעה שלו לשנת 2022, הארגון אמר כי נמצאו למעלה מ-824,466 תיקים המכילים חומר התעללות בילדים. בשנה שעברה, Thorn דיווח על יותר מ-104 מיליון תיקים של חשד ל-CSAM שדווחו בארה"ב בלבד.

כבר בעיה באינטרנט, פורנוגרפיית ילדים מזויפת עמוקה זינקה לאחר שדגמי AI גנרטיביים הפכו זמינים לציבור, כאשר דגמי AI עצמאיים שאינם זקוקים לשירותי ענן הופצו בפורומים של רשת אפלים.

AI גנרטיבי, אמר Thorn, עושה יצירת נפחי תוכן קלה יותר כעת מאי פעם. טורף ילד יחיד עלול ליצור כמויות עצומות של חומרי התעללות מינית בילדים (CSAM), כולל התאמת תמונות וסרטונים מקוריים לתוכן חדש.

"נהירה של AIG-CSAM מהווה סיכונים משמעותיים למערכת אקולוגית של בטיחות ילדים שכבר חייבת במס, ומחמירה את האתגרים העומדים בפני רשויות אכיפת החוק בזיהוי והצלה של קורבנות קיימים להתעללות, ומגדילה את מידת הקורבנות החדשה של ילדים נוספים", מציין Thorn.

הדו"ח של Thorn מתאר שורה של עקרונות שמפתחי בינה מלאכותית יפעלו לפיהם כדי למנוע שימוש בטכנולוגיה שלהם ליצירת פורנוגרפיית ילדים, כולל מיקור אחראי של מערכי הדרכה, שילוב לולאות משוב ואסטרטגיות בדיקת לחץ, שימוש בהיסטוריית תוכן או "מקור" עם שימוש לרעה יריב. בחשבון, ואירוח אחראי של דגמי הבינה המלאכותית שלהם.

אחרים החתומים על ההתחייבות כוללים את מיקרוסופט, Anthropic, Mistral AI, Amazon, Stability AI, Civit AI ו-Metaphysic, שכל אחת מהן מפרסמת הצהרות נפרדות היום.

"חלק מהאתוס שלנו ב-Metaphysic הוא פיתוח אחראי בעולם בינה מלאכותית, נכון, זה עניין של העצמה, אבל זה קשור באחריות", אמר סמנכ"ל השיווק של Metaphysic, אלחנדרו לופז. פענוח. "אנחנו מזהים במהירות שלהתחיל ולהתפתח זה אומר ממש לשמור על הפגיעים ביותר בחברה שלנו, שהם ילדים, ולמרבה הצער, הקצה האפל ביותר של הטכנולוגיה הזו, המשמשת לחומרי התעללות מינית בילדים בצורות של פורנוגרפיה מזויפת עמוקה. , זה קרה."

Metaphysic, שהושק ב-2021, הגיע לגדולה בשנה שעברה לאחר שנחשף שכמה כוכבים הוליוודיים, כולל טום הנקס, אוקטביה ספנסר ואן האת'וויי, השתמשו בטכנולוגיית Metaphysic Pro כדי לבצע דיגיטציה של מאפייני הדמיון שלהם במטרה לשמור על בעלות על התכונות הנחוצות. להכשיר מודל AI.

OpenAI סירבה להגיב יותר על היוזמה, במקום זאת סיפקה פענוח הצהרה פומבית של המנהיג שלה לבטיחות ילדים, צ'לסי קרלסון.

"אכפת לנו מאוד מהבטיחות והשימוש האחראי בכלים שלנו, וזו הסיבה שבנינו מעקות בטיחות ואמצעי בטיחות חזקים ב-ChatGPT וב-DALL-E", אמר קרלסון בהצהרה. "אנו מחויבים לעבוד לצד Thorn, All Tech is Human והקהילה הטכנולוגית הרחבה יותר כדי לקיים את עקרונות הבטיחות לפי עיצוב ולהמשיך את עבודתנו בהפחתת נזקים פוטנציאליים לילדים."

פענוח פנה לחברים אחרים בקואליציה אך לא שמע מיד.

"ב-Meta, בילינו למעלה מעשור בעבודה כדי לשמור על בטיחות אנשים באינטרנט. בזמן הזה, פיתחנו כלים ותכונות רבות כדי לעזור למנוע ולהילחם בנזק פוטנציאלי - וככל שהטורפים הסתגלו כדי לנסות ולהתחמק מההגנות שלנו, המשכנו להסתגל גם", אמר מטה בהצהרה מוכנה.

"בכל המוצרים שלנו, אנו מזהים ומסירים באופן יזום חומר CSAE באמצעות שילוב של טכנולוגיית התאמת hash, מסווגים של בינה מלאכותית וביקורות אנושיות", כתבה סגנית נשיא גוגל לפתרונות אמון ובטיחות סוזן ג'ספר בפוסט. "המדיניות וההגנות שלנו נועדו לזהות כל מיני CSAE, כולל CSAM שנוצר על ידי AI. כאשר אנו מזהים תוכן נצלני אנו מסירים אותו ונוקטים בפעולה המתאימה, שעשויה לכלול דיווח עליו ל-NCMEC."

באוקטובר, קבוצת כלבי השמירה בבריטניה, קרן ה-Internet Watch, הזהירה כי חומרי התעללות בילדים שנוצרו על ידי בינה מלאכותית עלולים 'להציף' את האינטרנט.

נערך על ידי ריאן אוזאווה.

הישאר מעודכן בחדשות הקריפטו, קבל עדכונים יומיים בתיבת הדואר הנכנס שלך.

מקור: https://decrypt.co/227731/aig-csam-google-meta-openai-fight-ai-child-sexual-abuse-material