מיקרוסופט משפרת את אבטחת ה-AI Chatbot כדי לסכל את הטריקים

Microsoft Corp הוסיפה מספר תכונות אבטחה ב-Azure AI Studio שאמורות, לאורך זמן, להמשיך להפחית את הסבירות שהמשתמשים שלה מגדירים מודלים של AI למצב שיגרום להם לפעול באופן חריג או לא הולם. חברת הטכנולוגיה הרב לאומית שבסיסה ברדמונד, וושינגטון, תיארה את השיפורים בפוסט בבלוג, תוך שימת דגש על הבטחת שלמות אינטראקציות בינה מלאכותית וטיפוח אמון בבסיס המשתמשים.

מגנים מהירים ועוד 

בין הפיתוחים העיקריים היא יצירת "מגני דחיפה", טכנולוגיה שנועדה למצוא ולהרוג זריקות מיידיות תוך כדי שיחה עם צ'טבוטים של AI. אלו הם מה שנקרא פריצות מעצר והם בעצם קלט של משתמשים שמתכוונים להיווצר בצורה כזו שהם מעוררים תגובה לא רצויה מדגמי הבינה המלאכותית.

לדוגמה, מיקרוסופט משחקת את חלקה בעקיפין עם הזרקות מיידיות, שבהן ביצוע פקודות מרושעות אפשרי, ותרחיש כזה עלול להוביל להשלכות אבטחה חמורות כמו גניבת נתונים וחטיפת מערכת. המנגנונים הם המפתח לזיהוי ולתגובה לאיומים המיוחדים הללו בזמן אמת, לדברי שרה בירד, מנהלת המוצר הראשית של מיקרוסופט עבור AI אחראי.

מיקרוסופט מוסיפה כי בקרוב יהיו התראות על מסך המשתמש, שיצביעו על מתי סביר להניח שדגם מביע מידע שקרי או מטעה, מה שמבטיח יותר ידידותיות למשתמש ואמון.

בניית אמון בכלי AI 

המאמץ של מיקרוסופט הוא חלק מיוזמה גדולה יותר, שנועדה לתת לאנשים אמון בבינה מלאכותית הפופולרית ההולכת וגוברת, המיושמת באופן נרחב בשירותים המכוונים לצרכנים בודדים וללקוחות ארגוניים. מיקרוסופט עברה עם מסרק עדין שיניים, לאחר שגרמו למקרים שבהם הייתה למשתמשים את היכולת לשחק את הצ'אטבוט Copilot כדי לייצר פלטים מוזרים או מזיקים. זה יהיה תמיכה בתוצאה שמראה את הצורך בהגנות חזקות נגד הטקטיקות המניפולטיביות שהוזכרו, שעשויות לעלות עם טכנולוגיות AI וידע פופולרי. חיזוי ולאחר מכן הפחתה הוא הכרה של דפוסי התקפה, כגון כאשר תוקף חוזר על שאלות או מנחה משחק תפקידים.

כמשקיע והשותף האסטרטגי הגדול ביותר של OpenAI, מיקרוסופט פורצת את הגבולות של איך לשלב וליצור טכנולוגיות AI אחראיות ובטוחות. שניהם מחויבים לפריסה אחראית ולמודלים הבסיסיים של AI Generative לאמצעי בטיחות. אבל בירד הודה שדגמי השפה הגדולים האלה, אפילו כשהם מתחילים להיראות כבסיס לחלק גדול מהחדשנות העתידית של AI, אינם חסינים למניפולציות.

בנייה על יסודות אלה תדרוש הרבה יותר מסתם הסתמכות על הדגמים עצמם; זה יצטרך גישה מקיפה לבטיחות ואבטחה של AI.

מיקרוסופט הודיעה לאחרונה על חיזוק אמצעי האבטחה עבור Azure AI Studio שלה כדי להציג ולהבטיח צעדים יזומים שננקטים כדי להגן על נוף איומי ה-AI המשתנה.

היא שואפת להימנע משימוש לרעה ב-AI ולשמור על שלמות ואמינות האינטראקציה של AI על ידי שילוב מסכים והתראות בזמן.

עם ההתפתחות המתמדת של טכנולוגיית הבינה המלאכותית ואימוצה בהכללות רבות בחיי היומיום, יגיע הזמן עבור מיקרוסופט ושאר קהילת הבינה המלאכותית לשמור על עמדת אבטחה ערנית מאוד.

מקור: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/