המהפכה או החנק? רגולציית ה-AI שמסעירה את ארה”ב, סין ואירופה
תחת חסר רגולציה פדרלית, המדינות ממלאות את הוואקום: בשנת 2025 בלבד הוגשו ביותר מ־48 מדינות וטריטוריות בארה”ב מעל 1,000 הצעות חוק בנושאי AI
הבינה המלאכותית (AI) מהווה הזדמנות ואתגר לממשלות ולחברות, עם פוטנציאל לשיפור יעילות, מחקר, ושירותים, אך גם סיכונים כגון טעויות, פגיעה בזכויות ופרטיות, והטיות במודלים. אין הגדרה אחידה ל-AI, והתחום מתעדכן במהירות: ב־2025 אומצה הגדרה חדשה ב־OECD ובחוקים פדרליים בארה”ב, הרואה ב-AI “מערכת ממוחשבת המסוגלת לחזות, להמליץ או להחליט בהשפעת יעדים שהגדיר אדם”.
על פי דו״ח שפורסם לקונגרס האמריקאי, בארה”ב אין כיום רגולציה פדרלית רחבה ל-AI. עד מאי 2025 נחקקו פחות מ-30 חוקים פדרליים הכוללים את המונח AI, כשכמעט מחציתם קשורים לתקציב ולביטחון. הדגש האמריקאי הוא על עידוד חדשנות, קידום מחקר (למשל, דרך חוק CHIPS ותקציבי NSF), פיתוח מסגרות וולונטריות, והנחיות לממשל הפדרלי עצמו, אך ללא רגולציה מחייבת על המגזר הפרטי.
תחת חסר רגולציה פדרלית, המדינות ממלאות את הוואקום: בשנת 2025 בלבד הוגשו ביותר מ־48 מדינות וטריטוריות בארה”ב מעל 1,000 הצעות חוק בנושאי AI, כולל חוקים המחייבים סימון תוכן גנרטיבי (קליפורניה), חשיפת נתוני אימון מודלים, ורגולציה לצרכנים ולעובדים (קולורדו). זאת לצד צוותי בדיקה במדינות כמו וושינגטון שמגבשים המלצות להמשך הרגולציה.
הקונגרס והממשל הפדרלי מתמקדים בהקמת קבוצות עבודה, קידום הנחיות וולונטריות ובקרה פנימית: דו”ח של הקונגרס ב־2024 כלל 66 ממצאים ו־89 המלצות, בדגש על שמירת חדשנות, הגנה על זכויות אדם, ושמירה על משקל מרכזי לאדם בקבלת החלטות. הממשלים השונים (ביידן וטראמפ) נבדלים בדגשים: ממשל ביידן שם דגש על בטיחות, בקרה ודרישת דיווח מיצרנים, בעוד הממשל הנוכחי (טראמפ) מדגיש קידום צמיחה כלכלית, הימנעות מרגולציה “זהירה מדי” וחיזוק התחרותיות הבינלאומית.
רוב הפעילות הרגולטורית האמריקאית היא סקטוריאלית – בתחום הבריאות, הפיננסים, והבחירות. לדוג’ הוצעו חוקים לבדיקה, סימון ושקיפות במערכות קבלת החלטות אוטומטיות, מניעת deepfakes והגנה על מידע רפואי. ה־AI Use Case Inventory הפדרלי מצביע על למעלה מ־1,990 מקרי שימוש מדווחים, בעיקר בתמיכה אדמיניסטרטיבית, רפואה ושירותי ציבור.
שלושה מודלים מרכזיים
האיחוד האירופי: חוק ה־AI Act מיישם רגולציה מקיפה לפי רמות סיכון: איסור מוחלט על מערכות מסוכנות (למשל, ביומטריה בזמן אמת), רגולציה נוקשה על מערכות קריטיות, חובת סימון שקוף במערכות גנרטיביות ו־chatbots (באוגוסט 2025), ותיעוד מוגבר למערכות חישוביות גדולות (סף רגולציה – 10^25 FLOPs). קנסות מגיעים עד €35 מיליון או 7% מההכנסה הגלובלית.
בריטניה: גישה גמישה שמבוססת עקרונות וללא חוק ייעודי, דגש על אחריות רגולטורים סקטוריאליים, עידוד חדשנות ו־sandbox רגולטורי, והגדלת הפיקוח צפויה לאחר בחירות 2024.
סין: רגולציה ממוקדת בטכנולוגיות (למשל deepfake), שליטה ממשלתית חזקה, מימון מסיבי ותמיכה אקטיבית – אך עם דגש ממשלתי על תחרותיות עולמית.
ברמה הבינלאומית ישנה התכנסות סביב עקרונות בטיחות, שקיפות, והגנה על זכויות, תחת גופים כמו OECD, ה־G7 והאו”ם, עם יוזמות משותפות, סימון דיגיטלי, ומעקב אחר שימושים קריטיים. במקביל, קיימת תחרות גלובלית: דו”ח Stanford AI Index לשנת 2025 מדווח שארה”ב עדיין מובילה במודלים המובילים, אך סין סוגרת במהירות את הפער.
האתגר המרכזי – לאזן בין עידוד חדשנות ושמירה על תחרותיות, לבין שמירה על בטיחות הציבור, זכויות פרט, ואתיקה. נדרש פיתוח מסגרות רגולציה דינאמיות, גמישות, ושקופות, שמאפשרות סקירה תקופתית ומתאימות לשינויים הטכנולוגיים המהירים.