נפלתם קורבן למתקפת פישינג? ייתכן וזו הייתה בינה מלאכותית שענתה לכם

אופיר קפלושניק, מנהל מחלקת הנדסת פתרונות לאזור ספרד, ישראל, יון וקפריסין ב-F5, מפרט מגמות עתידיות בעולם הסייבר: ״מודלי שפה גדולים (LLMs) ישתלטו על הדו-שיח בין מתקפת הפישינג לבין הקורבן״

תמונה: ניב קנטור

בעידן שבו הטכנולוגיה מתפתחת בקצב חסר תקדים, בינה מלאכותית משפיעה על נוף הסייבר והופכת לכוח המעצב את המרחב הדיגיטלי. ככל שארגונים משלבים יותר בינה מלאכותית בפעילותם, פרדיגמת אבטחת הסייבר עוברת שינוי עמוק.

בינה מלאכותית לא רק מעניקה לארגונים כלים מתקדמים לזהות ולסכל איומי סייבר, אלא גם מציגה אתגרים חדשים כאשר תוקפים רותמים את היכולות שלה כדי לתכנן התקפות מתוחכמות. משחק הגומלין המורכב הזה מעלה את הצורך בגישה פרואקטיבית וסתגלנית באבטחת המידע כדי להגן על העתיד הדיגיטלי.

הנה תחזיות סייבר שאספנו יחד עם מעבדות F5 Labs לשנת 2024. 

בינה מלאכותית תייצר דו-שיח עם קורבנות פישינג: מודלי שפה גדולים (LLMs) ישתלטו על הדו-שיח בין מתקפת הפישינג לבין הקורבן. כנופיות פשע מאורגנות לא יצטרכו להעסיק אנשים כדי לתרגם הודעות ולשמש כ"מרכז תמיכה".

במקום זאת, בינה מלאכותית יוצרת תתרגם הודעות, תגיב באופן אותנטי, ותדריך את הקורבן. שילוב מידע אישי זמין לציבור יאפשר ליצור הונאות מציאותיות, כאשר ארגוני פשעי סייבר יגדילו את ה-Phishing-as-a-Service המוכר בקנה המידה וברמת היעילות.
 
פשע מאורגן ישתמש בבינה מלאכותית יוצרת באמצעות חשבונות מזויפים: חשבונות מזויפים מבוססי בינה מלאכותית, הכוללים פוסטים ותמונות, נראים כך שאי אפשר להבחין בינם לבין תוכן אנושי אמיתי. אסטרטגיות התקיפה שחשבונות מזויפים מייצרים, כולל הונאה, מילוי אישורים (credential stuffing), דיסאינפורמציה ומניפולציה במרקטפלייס, יעלו ביעילותן תוך התאמה לריאליזם אנושי באפס מאמץ. 
 
מדינות לאום ישתמשו בבינה מלאכותית יוצרת (GenAI) כדי לפרסם דיסאינפורמציה: מתחילת מלחמת חרבות ברזל, כלי בינה מלאכותית יוצרת שינו את האופן שבו אויב מתנהל תקשורתית, תוך יצירת תוכן מזויף, הפקת טקסט אוטומטית לדיסאינפורמציה, קמפיינים של מידע מוטעה ועוד.

מגמה זאת ניכרה גם בחזיתות אחרות בעולם דוגמת החזית האוקראינית. נראה זאת בקנה מידה גדול לקראת אירועים גלובליים גדולים, דוגמת הבחירות לנשיאות ארה"ב והאולימפיאדה בפריז שיתקיימו במהלך 2024. גופים דוגמת Adobe , Microsoft , BBC ואחרים יצרו את תקן C2PA fטכניקה לסימון קריפטוגרפי על מקור המדיה הדיגיטלית. הזמן יגיד אם תהיה לכך השפעה ניתנת למדידה.
 
היקף ההאקטיביזם (Hacktivism) יגדל הודות לבינה מלאכותית יוצרת ולהתקדמות טכנולוגית: פעילות האקטיביסטית במהלך אירועים גלובליים מרכזיים תגדל ככל שכוח המחשוב יהיה זול יותר וקל יותר לשימוש.

סביר שהאקטיביסטים ינצלו את ההזדמנויות הללו כדי לזכות במוניטין ובאהדה למטרות בהן הם תומכים. ארגונים הקשורים באופן רופף לאירועים אלו עשויים להפוך למטרות ואף לקורבנות. מגמה זו עשויה להתרחב לחברות וארגונים התומכים במטרות שונות.
 
כלי בינה מלאכותית, סמארטפונים ומחשבים ניידים יאפשרו לשחקנים לא מתוחכמים להצטרף למאבק במרחב הסייבר. בסכסוכים הנוכחיים בארץ ובעולם, ככל שהפעילות מתגברת בשדה הקרב הפיזי, כך גם ההתקפות הרסניות יותר.

דוחות מודיעיניים חשפו התקפות DDoS מבוזרות, דליפות נתונים, השחתת אתרים והתמקדות בשיבוש תשתית קריטית.
 
התקפות רשת יעשו שימוש בקלט מבינה מלאכותית יוצרת בזמן אמת: בשל יכולתו של מודל שפה גדול (LLM) ליצור קוד, הוא משמש לכוון תהליכים במהלך התקפות בזמן אמת, ומאפשר לתוקפים להגיב להגנות.
 
תוקפים יכולים למנוף ממשקי API ממערכות GenAI פתוחות דוגמת ChatGPT, או לבנות מודל שפה גדול משלהם, וכך לשלב את הידע והרעיונות ממערכת בינה מלאכותית במהלך התקפה על אתר אינטרנט או רשת.

אם התקפה על אתר תיחסם עקב בקרות אבטחה, תוקפים יוכלו להשתמש במערכת בינה מלאכותית כדי להעריך את התגובה ולהציע דרכים חלופיות לתקיפה. בקרוב נראה מינוף רב יותר של מודלי שפה גדולים בשרשראות ההתקפות לרעתנו.
 
מודלי שפה גדולים דולפים - LLLMs (Leaky Large Language Models): מחקר חדש הראה דרכים פשוטות בהן ניתן להערים על מודלי שפה גדולים כדי לחשוף את נתוני ההדרכה שלהם, הכוללים לעתים נתונים קנייניים ואישיים.

החיפזון ליצור מודלי שפה גדולים קנייניים עלול לגרום לחשיפה של נתוני אימון באמצעות התקפות חדשות או בשל בקרות אבטחה שהוגדרו בצורה שגוייה ובמהירות.

אנו מצפים לראות כשלי אבטחה בכלים מבוססי GenAI - כמו דליפות מאסיביות של PII, טכניקות חדשות להשגת גישה לא מורשית והתקפות DDoS. ההשפעה של דליפות מודלי שפה גדולים היא בעלת פוטנציאל עצום לנזק בשל נפח הנתונים העצום.
 
חולשות אבטחה הנובעות משימוש בבינה מלאכותית יוצרת: מפתחים רבים משתמשים בבינה מלאכותית יוצרת כדי לכתוב קוד או לבדוק באגים. אך ללא אמצעי הגנה נכונים, מודלי שפה גדולים ייצרו מבול של קוד בעל חולשות אבטחה.

בעוד שמערכות ה-OSS מעמידות סיכון, התועלת שלהן היא בגישה מובנית הדורשת תיקון פעם אחת. אם תתגלה חולשת אבטחה בספריית OSS, ניתן לתקן אותה פעם אחת ולאחר מכן להשתמש בה. עם יצירת קוד GenAI, כל מפתח יקבל בסופו של דבר פיסת קוד ייחודית ומותאמת אישית.

מודלי בינה מלאכותית לכתיבת קוד מפיקים קוד כל כך מהר, שמפתחים לא מספיקים לבדוק. יתרה מכך, ייתכן שהמודלים לא מודעים לחולשות האבטחה האחרונות (תלוי מתי המודלים נבנו), ולכן לא יוכלו לכתוב קוד נקי מהחולשות ולא יימנעו מיבוא ספריות עם חולשות אבטחה. בעידן הבינה המלאכותית היוצרת, ארגונים שמעדיפים מהירות על פני אבטחה יהיו בסיכון ליצור חולשות אבטחה חדשות.

img
פרשנות | כוח צבאי משמעותי של נאט״ו יכול להקטין הסתברות למלחמה גרעינית באירופה
דעה | אופציה צבאית ישראלית תוכל לרסן את איראן 
קבוצת SQLink רוכשת את ZIGIT הישראלית
קבוצת SQLink רוכשת את ZIGIT הישראלית