בשנים 2023-2024 הנשיא ביידן חתם על מספר צווים נשיאותיים שעסקו בבינה מלאכותית. כשטראמפ הושבע הוא ביטל כ-80 צווים נשיאותיים של ביידן, כולל אלו שעסקו בבינה מלאכותית.
לפני שבוע ממשל טראמפ פרסם מדיניות עדכנית: נוהל שמנחה את כל הסוכנויות והגופים בממשל הפדרלי איך להשתמש בבינה מלאכותית (בעבר ראינו שהכללים של ממשל ביידן הפריעו לאימוץ בינה מלאכותית בתוך המערכת הציבורית).
מה שיפה במסמך הזה זה שהוא מצליח לשמור על עקרונות של בינה מלאכותית אחראית, וגם מקפיד לאפשר חדשנות. זה איזון לא פשוט, שיש מדינות שבכלל לא מנסות להשיג.
אז מה יש שם?
1. בינה מלאכותית אחראית זה עדיין הסטנדרט
למרות חילופי ממשלים, המסר ברור: בנושא הזה אין מהפכה, אלא דווקא המשכיות.
הנוהל מחזק את עקרונות הבינה המלאכותית האחראית שעליה מדברים באקדמיה ואפילו מאמץ חלק מהגישה של האיחוד האירופי.
הנה שתי דוגמאות מתוך הנוהל:
"על הסוכנויות לאפשר ניהול אחראי של בינה מלאכותית" (עמ' 12)
"על הסוכנויות לוודא שהשימוש שלהן בבינה מלאכותית הוא אמין, מאובטח ואחראי" (עמ' 13)
כלומר – צריך לנהוג באופן אחראי, וצריך לבדוק (אמינות, אבטחה וכו').
2. גישה מבוססת-סיכון
המסמך יוצר קטגוריה חדשה: "שימוש בעל השפעה גבוהה".
כשמערכת בינה מלאכותית משפיעה ישירות על החלטות משמעותיות שיש להן השפעות כבדות – למשל החלטות משפטיות, רפואיות או ביטחוניות – צריך לנהל את הסיכונים באופן זהיר וקפדני יותר. ההגדרה הזו שונה תפיסתית מההגדרה של האיחוד האירופי.
זו לא רק סיסמא. המסמך דורש לבצע חמישה צעדים:
1. לזהות ולתעד את כל השימושים שהם בעלי השפעה גבוהה;
2. למדוד ולעקוב אחר התוצאות בפועל של אותם שימושים בבינה מלאכותית;
3. לוודא עמידה בדרישות הרגולציה – למשל החובה לבצע ניהול סיכונים ועוד דרישות שבנוהל או במסמכים אחרים;
4. לבצע בחינה חיצונית בלתי תלויה, לפני החלטה לקבל סיכונים;
5. לנהל מרשם מרכזי של השימושים האלו, ולתעד את סוג השימוש.
החידוש כאן הוא לא רק ברשימת הדרישות – אלא בגישה שמחברת בין עוצמת ההשפעה הפוטנציאלית לבין חומרת האמצעים שצריך לנקוט. ככה זה צריך להיות, זה ניהול סיכונים על רגל אחת.
3. יותר גמישות
בעוד שהרגולציה האירופית (חוק ה-AI) יוצרת רשימות של סיכונים לפי נושא, בלי קשר לשימוש בפועל; המסמך האמריקאי יוצר הגדרה שמבוססת על תוצאות אפשריות של השימוש בפועל. זה לא רק יותר מדוייק, יש פה יתרון של גמישות ופרקטיות.
אבל זה גם יוצר אתגר: קל יחסית לעקוף את החובה אם טוענים שהמערכת היא רק "כלי עזר" ולא מקבלת את ההחלטות בפועל.
אם ארגון יטען שהמערכת משמשת רק ככלי עזר בתהליך קבלת ההחלטות והיא לא מקבלת החלטות וגם לא הבסיס העיקרי, הוא יצליח להימנע מהחובות והפיקוח המחמירים שחלים על שימושים בעלי השפעה גבוהה.
זה אומר שלצד היתרונות של הגמישות, יש גם חוסר ודאות מסוים. וזה יוצר פוטנציאל למחלוקות משפטיות. ייתכן שעל הנקודה הזו יהיו קרבות פרשנות בבית המשפט.
אז מה השורה התחתונה?
המסמך הזה רחוק מלהיות מושלם, אבל הוא בנוי טוב, הוא שקול ונותן כיוון ברור. הוא מראה שאפשר לקדם חדשנות בלי לוותר על עקרונות של בינה מלאכותית אחראית. ויותר מזה – הוא מזכיר לנו שניהול סיכונים זה כלי אמיתי שרלוונטי גם לטכנולוגיות חדשניות.
בנוסף, הממשל האמריקאי בוחר לקדם מדיניות סדורה ואחראית. אלו חדשות טובות.
