האיחוד האירופי רצה להיות הראשון בעולם שמסדיר את הבינה המלאכותית. בגלל שזה תחום חשוב. נציבות האיחוד ניסחה חוק שכולל הגבלות על מערכות AI בסיכון גבוה, תקנים טכניים, חובות שקיפות, ועונשים לחברות שלא יעמדו בכללים.
אבל פתאום – ברקס.
לפי דיווחים והדלפות, הנציבות מתכוונת להציע דחייה של שנה לפחות ביישום חלק מרכזי בחוק: החלק שמטפל במערכות AI שעלולות לפגוע בבטיחות, בבריאות או בזכויות האדם.
אז למה האיחוד עוצר? בגלל לחצים? בגלל פחד? או אולי כי זה פשוט הצעד האחראי?
אירופה רצתה להוביל – אבל הרגולציה הקדימה את השטח
מאז 2021, האיחוד האירופי הצהיר שהוא מתכוון להוביל את העולם בקביעת כללי משחק לטכנולוגיות AI. באפריל 2024 הוא אישר את ה-AI Act: חוק שאמור היה להפוך לרף עולמי. התקווה הייתה שמדינות רבות אחרות יישרו קו עם הסטנדרטים האירופים, כמו שקרה עם ה-GDPR בתחום הפרטיות.
החוק קבע דרישות מחמירות למערכות שמוגדרות "בסיכון גבוה" – כמו כלי קבלת החלטות במערכות בריאות, משפט או חינוך. חברות שפועלות באירופה היו אמורות להתחיל ליישם את הדרישות כבר באוגוסט 2026.
אבל אז משהו נשבר.
ארגונים עסקיים באירופה, כולל שמות כמו איירבס, לופטהנזה ומרצדס, דרשו לעצור. שיח כללי על מצב הכלכלה באירופה והשפעת הרגולציה התחילו לחלחל, והנציבות גילתה שהסטנדרטים שכל הרגולציה אמורה להישען עליהם… עוד לא קיימים או מחמירים מדי.
ולכן מגיעה ההצעה הנוכחית: לדחות את מועד הכניסה לתוקף לאוגוסט 2027 לפחות.
הלחצים שהובילו לדחייה
כדי להבין למה בריסל נסוגה, צריך לעקוב אחרי מסלול הלחץ.
מהצד האמריקאי – ממשל ארה״ב, חברות הטכנולוגיה הגדולות וקבוצות לובי לחצו חזק על מוסדות האיחוד. כולם טענו שה-AI Act מחמיר מדי, חסר גמישות, ומסכן את החדשנות. בתרגום פשוט: אם תחמירו, הסטארט-אפים שלנו יצאו מאירופה. העובדה שממשל טראמפ לא מיישר קו עם אירופה מחדדת את הפער בין אירופה לארה"ב.
מהצד האירופי – עשרות חברות תעשייה גדולות הצטרפו לקריאה להשהות את החוק. הן הזהירו שהחוק יכביד דווקא על עסקים אירופאים, בזמן שמתחרות שלהם מסין וארה"ב פועלות בלי הגבלות דומות. אפילו מדינות באיחוד התחילו להשמיע ספקות.
והנציבות השתכנעה. לא כי החוק שגוי במהותו, אלא מסיבות נוספות: אין כלים להפעיל אותו, חסרים סטנדרטים טכניים. אין ודאות משפטית, והעלויות עלולות להיות עצומות.
הצעת הדחייה נעטפת בשפה יפה של "פישוט דיגיטלי" (digital simplification), אבל לדעתי היא בעצם ויתור טקטי. ניסיון לקחת זמן ולשקול שוב את הרגולציה, לפני שהיא תיכנס לתוקף ותחנוק את הכלכלה האירופית.
כשלים בניהול סיכונים: האם בכלל קיימת בעיה?
הצעד הכי בסיסי בגיבוש רגולציה הוא לשאול: מה הבעיה שאנחנו מנסים לפתור?
במקרה הזה התמונה פחות ברורה. אין ספק שבינה מלאכותית יכולה להוות סיכון – לשוק העבודה, לפרטיות, לשקיפות בהחלטות ציבוריות. אבל הרגולציה הזו לא נבנתה על בסיס ניתוח סיכונים סדור. אין רשימה של סיכונים ותכנית לטפל בכל סיכון. הרגולציה מבוססת על ניתוח מקיף, אבל בתמצית ההנחה היא: "AI זה מסוכן ולכן צריך לפעול מהר".
זו טעות קלאסית של רגולציה שמונעת מאינטואיציה. במקום למפות את הסיכונים באופן קונקרטי, להעריך הסתברות, ולנתח את החומרה – מתבססים על אמירה כללית ש-AI זה מסוכן. ואז קובעים קטגוריות עלומות כמו "AI בסיכון גבוה" ומצמידים לכל אחת מהן סט של חובות ואיסורים. הקטגוריות של המערכות מאוד כלליות, ההוראות שחלות על הקטגוריות האלו מאוד רחבות. אין מספיק הבחנה בין מקרים שבהם נדרש פיקוח מחמיר לבין מקרים שלא מצדיקים התערבות – רגולציה כזו תגרום לציות עיוור, או פשוט להימנעות מפיתוח AI. שתי התוצאות רעות.
הרגולציה האירופית גם התעלמה מהכלל הכי חשוב: רגולציה היא כלי לניהול סיכונים – לא מטרה בפני עצמה. אם אין סטנדרטים ברורים ואם אי אפשר לציית בצורה סבירה – זו לא רגולציה אפקטיבית, זו רגולציה שמייצרת בעיה חדשה.
מה המחיר של רגולציה מוקדמת מדי
רגולציה על טכנולוגיה שנמצאת עדיין בשלבי פיתוח מוקדמים היא הימור יקר.
ה-AI Act תוכנן להיכנס לתוקף בזמן שהטכנולוגיה עוד משתנה מדי חודש. במצב כזה ההסתברות לטעות גדולה: אנחנו לא מבינים את הטכנולוגיה עד הסוף וחוסר הוודאות הזה צפוי להימשך גם בעתיד.
במצבים כאלה, רגולציה מחמירה יוצרת שלושה נזקים עיקריים:
עלויות ציות גבוהות ובלתי צפויות – עסקים נדרשים להשקיע משאבים אדירים כדי לעמוד בחובות רגולטוריות שלפעמים אין להן תשתית מעשית.
פגיעה בחדשנות ובגמישות – כשהסטנדרטים לא מוגדרים, החברות לא יודעות מה מותר ומה אסור. סטארט־אפים ומוסדות מחקר עלולים לוותר על פרויקטים מתוך חשש להסתבך עם רגולציה. חברות גדולות אולי יעסיקו עוד עורכי דין, אבל חברות קטנות פשוט יסגרו או יצאו מאירופה.
האטה תחרותית מול שווקים גלובליים – החברות האירופיות מתמודדות עם דרישות רגולציה מחמירות, בזמן שמתחרות בארה"ב ובסין ממשיכות לרוץ קדימה. נוצר פער תחרותי שקשה לגשר עליו.
במקום לקדם את השוק הזה, רגולציה מוקדמת ומחמירה מדי יוצרת חשש ואי ודאות. היא עלולה פשוט לדחוק את החדשנות החוצה.
האם רגולציה היא תחרות?
הניסיון של האיחוד להיות "הראשון בעולם" שמסדיר את תחום ה-AI הפך את הרגולציה ממכשיר מדיניות לכלי יחסי ציבור. וזה מסוכן.
רגולציה לא אמורה לשרת מיתוג גיאופוליטי או לשמש כלי להאדרה עצמית של מוסדות. רגולציה היא לא תחרות "מי מחוקק ראשון". רגולציה נועדה לנהל סיכונים בצורה חכמה, מדורגת ומבוססת נתונים.
אבל – וזה אבל חשוב – גם רגולציה לא מתקיימת בריק. כלים רגולטוריים משפיעים על חדשנות, תחרות, פריון, שוק העבודה ואפילו גיאופוליטיקה. ולכן חייבים לאזן בין ניהול סיכונים לבין המדיניות הרחבה יותר שהרגולציה משפיעה ומושפעת ממנה.
אם הרגולציה חונקת את השוק המקומי, היא אולי מצמצמת סיכונים כמו deep fake אבל גם יוצרת סיכון אחר – סיכון של ירידה ביכולת הכלכלית, של בריחת מוחות ושל אובדן ריבונות טכנולוגית.
ולכן בנציבות האיחוד האירופי שוקלים עכשיו עוד שיקולים חוץ מהצורך ברגולציה עצמה, אלא גם שיקולים כמו השפעות כלכליות רחבות. רגולטורים צריכים להביא את זה בחשבון.
נכון לקבוע רגולציה, אבל מתי ואיך לעשות את זה?
העובדה שהאיחוד האירופי דוחה את יישום חוק ה-AI לא אומרת שצריך לשבת בחיבוק ידיים. אם המנגנונים הרגולטוריים עוד לא בשלים, אפשר לפעול באמצעים אחרים:
- רגולציה רכה (soft law) – המלצות לא מחייבות, קווים מנחים, או קוד אתי וולונטרי שיאפשרו לתעשייה להתיישר עם עקרונות בלי להיתקע בבירוקרטיה.
- הסדרה עצמית (self-regulation) – לאפשר או לעודד מגזרים רלוונטיים לקבוע בעצמם סטנדרטים זמניים, תוך מעקב ופיקוח ממשלתי.
- פיילוטים מבוקרים – לקבוע ולאכוף חלקים מצומצמים מהחוק על קבוצות מוגדרות, כדי ללמוד ולהתאים את הרגולציה.
- פיתוח תקנים טכניים – במקום לרוץ קדימה עם עוד ועוד דרישות, צריך להשקיע בבניית תשתית רגולטורית: להגדיר מה בדיוק נחשב "שקיפות", מה זה "החלטות ניתנות להסבר", או "מערכת בסיכון גבוה".
סיכום: עיכוב הוא לא כישלון – זה סימן לבגרות רגולטורית
הנטייה להגיב מהר לטכנולוגיות חדשות נובעת לעיתים מפחד. אבל דווקא ההחלטה לעצור, לשאול שאלות ולדחות יישום של חוק מורכב היא סימן למערכת בוגרת.
המהלך של האיחוד האירופי מעיד שהוא מבין שרגולציה איכותית לא נמדדת במהירות, אלא ביכולת שלה לפתור בעיה אמיתית, בלי להכניס בעיה אחרת בדלת האחורית.
אם הממשלה רוצה להגן על הציבור היא חייבת להיות שקולה, מדורגת ומבוססת על ניתוח סיכונים. צריך לדעת לומר שאולי מיהרנו ולהודות שלפעמים צריך לתקן.

פוסט מעניין מאד.
הוא מתכתב יפה עם הפרסום של מערך הסייבר הלאומי –
https://www.gov.il/he/pages/alert_1945
על שימוש בAI כמערכת תקיפת סייבר עצמאית.
אולי הרגולציה צריכה "לתקוף" את העניין ממקום אחר… איך להתגונן נגד ה-AI?
(מוזיקת "שליחות קטלנית" ברקע)
אהבתיאהבתי