הפוסט הזה נכתב לבקשת הקהל. בעקבות הפוסטים הקודמים על הכללים בארה"ב בנושא AI, קיבלתי הרבה בקשות לספר על הרגולציה שנקבעה על שימוש ממשלתי ב-AI.
בחודש מרץ 2024, ה-OMB האמריקאי פרסם כללים לגבי ניהול סיכונים עבור שימוש של משרדי ממשלה ב-AI. הכללים האלו נועדו ליישם את ההוראת שנקבעו בצו הנשיאותי של הנשיא ביידן לגבי מדיניות ל-AI.
ממשל ביידן הציג את הכללים האלו כהתערבות קלה וגמישה, במטרה לאפשר לעודד חדשנות. בפועל זה לא ממש המצב. הכללים האלו מכתיבים לכל הממשל הפדרלי מתי ואיך מותר להשתמש ב-AI כולל תהליכים מאוד ספציפיים וטכניים. זו גישה היררכית, מה שמכונה באנגלית top-down.
הכללים מציבים 15 דרישות ותהליכים ספציפיים שחובה לעמוד בהם. חשוב לזכור שהרגולציה בנויה משכבות על גבי שכבות. כך שזו תוספת של כללים לנהלים הממשלתיים הקיימים, לגבי מחשוב, רכש, פרטיות, שימור ידע ותיעוד, אבטחת מידע ועוד. ולמקרה שלא יצא לכם לעבוד בגוף ממשלתי – הרגולציה הפנימית מכבידה ומסורבלת לא פחות מהרגולציה שמוטלת כלפי חוץ על הציבור.
למרות ההצהרות הכוונה הטובה, הכללים משקפים טעות נפוצה ברגולציה: התקווה שאם נגדיר לאנשים בדיוק איך להתנהל ‘נכון’ – זה יבטיח שהטכנולוגיה תהיה בטוחה, שהאנשים יפעלו בזהירות ושהסיכונים יצומצמו כראוי.
הנה דוגמה אחת לבעייתיות של הכללים האלו.
כשטכנולוגיה טובה נתקלת בעומס רגולטורי
ממשלות צריכות לתרגם מסמכים בין שפות שונות. כבר שנים יש שימוש בתכנות מחשב לסיוע משימות תרגום, כולל תרגום מבוסס למידת מכונת. בשנים האחרונות תרגום מבוסס AI תופס תאוצה והופך יותר נרחב. לפי איגוד חברות התרגום, בשנת 2023 כמעט שני שליש מחברות התרגום בארה"ב עשו שימוש בתכנות תרגום ממוחשבות, ו-70% מהן ציינו שהן מתכננות להאיץ ולהרחיב את השימוש בתרגום אוטומטי כבר בשנתיים הקרובות.
זה לא רק עניין של חיסכון במשאבים, אלא גם עניין של איכות. מחקר משנת 2020 שפורסם ב-Nature Communications מצא שתרגום אוטומטי (במקרה הזה מאנגלית לצ'כית) היה מוצלח יותר ממתרגמים אנושיים.
למרות התועלות המשמעותיות, הכללים של ה-OMB צפויים להגביל את השימוש בכלי התרגום האלו. הכללים מתייחסים לתרגום באמצעות AI באופן מחמיר במיוחד. לפי הכללים, כל מערכת שמספקת שירותי תרגום או פרשנות בשידור חי, ללא מעורבות של מתרגם מוסמך, תהיה כפופה לתהליך רגולטורי חדש ומורכב. הדרישות מטילות גם חובה לקבל אישור מראש וגם לעבוד לפי כללים מכבידים כאשר משתמשים בתכנות AI לתרגום. זאת אומרת שגם לאחר שיתקבל אישור לשימוש במערכת, נדרש פיקוח קבוע של מתרגם מוסמך.
ההערכות הן שהכללים האלו יפגעו במאמץ של ממשלת ארה"ב להנגיש מסמכים וערוצי תקשורת לציבור – בדגש על אוכלוסיות שוליים. צו נשיאותי של הנשיא קלינטון קבע הוראות לגבי הנגשה של מסמכים ושירותיםי ציבוריים לשפות נוספות חוץ מאנגלית – לאור הצורך בכך. ממשלת ארה"ב משרתת אוכלוסייה מגוונת ורב-לשונית. לא מצאתי נתונים חד משמעיים, אבל נראה שיש בארה"ב כ-7 מיליון מבוגרים שמתקשים לתקשר באנגלית. עם זאת, הממשל לא ממש מצליח לתרגם את המסמכים והשירותים שלו לשפות אחרות.
דוח של הנציבות הפדרלית לזכויות האזרח שבדק את התפקוד הממשלתי סביב הוריקן הארווי והוריקן מאריה, מצא שליקויים רבים בהצלה של אזרחים ובטיפול בהם נבע מפער בתקשורת עם אנשים שלא דוברים אנגלית. אפשר לראות שהבעיה לא קיימת רק בעיתות חירום. דוח של ה-GAO משנת 2017 על מחלקת המדינה חשף פערים משמעותיים ביכולת הלשונית של הדיפלומטים האמריקאים כי ל-23% אין את מיומנויות השפה הנדרשות לתפקידיהם. אם העובדים בממשל לא דוברים את השפות הרלוונטיות – כדאי שהם ישתמשו בתרגום AI.
הצורך בפתרונות תרגום ממוחשבים מבוססי AI ברור. אבל הכללים של ה-OMB מונעים מהסוכנויות לממש את הפוטנציאל של הטכנולוגיה הזו. וכמו שנראה מיד – הכללים גם מונעים ניהול מושכל של הסיכונים.
רגולציה בגישת top-down
הגישה הרגולטורית הזו מייצרת בעייתיות סביב שאלת הגורם שמנהל את הסיכונים. סיפרתי בעבר שהתפקיד של הרגולטור הוא לנהל סיכונים. וגם הסברתי איך הם אמורים לעשות את זה.
אז מה הסיפור?
כאשר קובעים כללים אחידים מלמעלה, הרגולטור מבצע את תהליך הערכת הסיכונים. זאת אומרת מזהה את הסיכונים, קובע היכן יש להתערב ומנסח את הכללים שנועדו לצמצם את הסיכונים. במערכת כזו, הגורמים בשטח, כמו היחידות הממשלתיות שמיישמות טכנולוגיות AI, לא מעורבות בניהול הסיכונים אלא בעיקר מבצעות ומיישמות את הכללים שנכפו עליהן.
המשמעות היא ניהול סיכונים אחיד לכלל הסוכנויות הממשלתיות ולכל המקרים, תוך התעלמות מהמאפיינים הייחודיים של כל סיטואציה. כאשר היחידות הממשלתיות בשטח לא יכולות להפעיל שיקול דעת נרחב, הן נאלצות לפעול לפי כללים רוחביים שהוגדרו מראש, גם אם יש להן את הידע והמיומנויות להתמודד עם הסיכונים בצורה יעילה יותר בהקשר הספציפי שלהן.
בכך, המערכת לא מאפשרת להן להתאים את ניהול הסיכונים לנסיבות המשתנות של כל מקרה, מה שמוביל ליישום כללים קשיחים שאינם מתחשבים במציאות המורכבת. וגם כשהמציאות לא מאוד מורכבת – לעיתים קרובות היא תהיה פשוט שונה ממה שהרגולטור המרכזי דמיין.
שאלת האחריות
מזה נגזרת בעיה נוספת – פגיעה באחריות.
כשהממשל בוחר בגישה ריכוזית כזו שמקבלת החלטות עבור כולם באופן רוחבי, האחריות מוטלת על הגורם המרכזי שקובע את הכללים, ולא על הגורמים שצריכים רק ליישם אותן.
מה הלך הרוח של המפוקח במצב כזה?
זה הולך בערך ככה:
"אם אני נדרש רק לציית לכללים שהכתיבו לי – אני עושה מה שאמרו לי ולא מעבר. הרי ממילא אין לי מרחב תמרון וזו לא אחריותי. ואם יקרה משהו? כל עוד צייתתי לכללים – זו לא בעיה שלי, אלא של מי שקבע את הכללים. אני לא מקבל החלטות, אני רק מיישם."
כמובן שזו לא בחירה של הגורם המפוקח / המיישם. זה מה שהמערכת אומרת לו – אנחנו נקבע בשבילך מה לעשות. אנחנו לא סומכים עליך ולכן אתה צריך רק ליישם.
המצב הזה משאיר מעט מאוד מקום לאחריות וליוזמה בקרב הגורמים שמיישמים את הכללים. לעיתים הגישה הרגולטורית הזו מבטאת חוסר אמון של קובע הכללים במי שצריך לציית להם. וחוסר אמון לא יוצר תחושת אחריות או שותפות, להיפך. התוצאה היא שהם יהיו ‘ראש קטן’ כי זה מה שמצופה מהם: לא יציעו שיפורים, לא יחפשו איך מייעלים את ניהול הסיכונים, ולא יתאימו את הכללים למצבים המשתנים בשטח.
תמונת הרוחב של הבעיה הזו
זו בעיה דומה לרגולציה של הממשלה על הציבור ועל עסקים פרטיים. כאשר הרגולטור הוא זה שמבצע את כל תהליך ניהול הסיכונים, הוא למעשה לא מותיר מקום לאחריות אישית של הגורמים המפוקחים. במקום לעודד אותם לקחת אחריות על צמצום הסיכונים ולפתח מסוגלות עצמית להתמודד עם הבעיות, הגישה הריכוזית יוצרת תלות מוחלטת ברגולטור, שהוא היחיד שעסוק בצמצום הסיכונים.
מה שהגישה הרגולטורית הזו מלמעלה למטה מחמיצה הוא ההקשר. זוהי בעיה. כפי שנכתב בטיוטת המסגרת לניהול הסיכונים של מכון התקנים הלאומי האמריקאי (NIST), "מערכות AI אינן בהכרח מסוכנות", אך "לעיתים קרובות ההקשר קובע האם תהיה השפעה שלילית או לא".
ניהול סיכונים אמיתי אינו רק הבחנה בין "AI טוב" ל-"AI רע" (או בין מצבים "בטוחים" ל-"מסוכנים"). ניהול סיכונים דורש הבנה של ההקשר הקונקרטי (מי, מה, מתי, איפה, למה ואיך). למשל, ההקשר שבו פועלת האפליקציה של ה-AI. וזה בדרך כלל קורה ברמת השטח. בהיעדר הקשר ספציפי, הכללים שנקבעו בשיטת top-down מתבססים על הנחות עבודה גורפות, למשל שכל מערכות ה-AI מסוכנות, עד שיוכח אחרת, או שתמיד כשמשתמשים במערכת AI צריך לבצע תהליך מסוים.
הגישה הזו לא רק ריכוזית. בהיעדר הקשר ספציפי היא נוטה להיות פחות מהותית ויותר בירוקרטית.
מה התוצאה של הגישה הבירוקרטית הזו? יותר סרבול ופחות עיסוק בתוכן.
בהקשר של AI – התוצאה כנראה תהיה פגיעה בהפצה וביישום של טכנולוגיית AI תוך ויתור על ניהול סיכונים אמיתי. בשורה התחתונה: פגיעה בשירותים לציבור ופגיעה בבטיחות. מה שנקרא loss-loss.
כמו שראינו, התרחיש הזה כבר מתרחש בפועל. המקרה של טכנולוגיית התרגום בעזרת AI הוא רק דוגמה אחת של הגבלת ניהול סיכונים אמיתי ויצירת סבך בירוקרטי שמקשה על אימוץ טכנולוגיה מועילה.
סיכום
הסתכלנו על דוגמה של שירותי תרגום בעולם הרגולציה על AI, אבל הסוגיה הרבה יותר רחבה.
זו רק דוגמה לבעייתיות ברגולציית top down שבה הרגולטור מבצע את מלוא ניהול הסיכונים ולא משחרר גמישות ואחריות למפוקחים. הבעיה הזו לא החלה ברגולציה עם AI. רגולטורים ומקבלי החלטות עושים את הטעות הזו כבר עשרות שנים והבאנו אותה איתנו גם לעידן ה-AI.
עכשיו, כשהטכנולוגיה יותר חזקה ומשמעותית, עוד יותר חשוב להתמודד עם הבעיה הזו, כדי לנהל את הסיכונים ולהנות מהפוטנציאל החיובי של הטכנולוגיה החדשה.
