מיקרוסופט ואוניברסיטת בן-גוריון: שיתוף פעולה בזיהוי דליפות פרטיות במודלי שפה
המחקר יתמקד בניתוח אופן התזמון של תהליכים במודלי שפה, במטרה לזהות דפוסים שיכולים לחשוף מידע מוסתר או מוצפן
מיקרוסופט ואוניברסיטת בן-גוריון בנגב הכריזו על שיתוף פעולה מחקרי חדשני בתחום הבינה המלאכותית והסייבר.
המחקר המשותף יתמקד בזיהוי נקודות תורפה במודלי שפה גדולים (LLM), במטרה למנוע דליפות מידע פרטי ורגיש. שיתוף הפעולה צפוי להרחיב את מאמצי המחקר של מיקרוסופט בתחומי ה-AI והאבטחה, באמצעות שילוב הידע והמומחיות של חוקרי האוניברסיטה.
המחקר יתמקד בניתוח אופן התזמון של תהליכים במודלי שפה, במטרה לזהות דפוסים שיכולים לחשוף מידע מוסתר או מוצפן. מומחי הפקולטה להנדסת מערכות מידע באוניברסיטת בן-גוריון פיתחו מומחיות ייחודית בתחום אבטחת מודלי שפה גדולים, מה שהוביל לשיתוף הפעולה עם מיקרוסופט.
יוזמה זו תואמת את מטרות Microsoft’s Secure Future Initiative (SFI), תוכנית רב-שנתית שמטרתה להעמיד את נושא האבטחה בראש סדר העדיפויות של מיקרוסופט, בתגובה לאיומי הסייבר הגוברים. היוזמה מתמקדת בשלושה עקרונות מרכזיים: אבטחה בתכנון, אבטחה כברירת מחדל ותפעול מאובטח.
ד"ר תומר סיימון, המדען הראשי של מיקרוסופט ישראל מחקר ופיתוח, ציין כי שיתוף הפעולה ממחיש את המחויבות של מיקרוסופט להוביל חדשנות טכנולוגית וליצור תובנות משמעותיות בתחומי האבטחה והבינה המלאכותית. הוא הוסיף כי מיקרוסופט מעודדת שיתופי פעולה נוספים עם האקדמיה בישראל.
ד"ר ישראל מירסקי, ראש מעבדת הבינה המלאכותית ההתקפית באוניברסיטת בן-גוריון, הסביר כי המחקר יתמקד במניעת ניצול לרעה של מודלי שפה. הוא השווה את התקפות הסייבר על מודלים אלה לצפייה בצורת מעטפות דואר, שמאפשרת להאקרים לפענח את תוכן ההתכתבות.
ד"ר איתם שטרית, מנהל דאטה סיינס ואחראי Responsible AI במיקרוסופט ישראל מחקר ופיתוח, הדגיש את החשיבות של שמירה על פרטיות המשתמשים ושימוש בטוח בטכנולוגיות AI. הוא ציין כי שיתוף הפעולה יאפשר למיקרוסופט להמשיך ולחזק היבטים אלה ולהישאר צעד אחד לפני תוקפים פוטנציאליים.
השותפות צפויה לתרום לקידום תחום הסייבר וה-AI בנגב, אזור שהפך למוקד חדשנות בתחומים אלה. באר שבע, בפרט, נהנית ממגוון חוקרים ומפתחים בעלי מומחיות רבה, המגיעים מהאזור ומהפריפריה.