רגולציה ובינה מלאכותית (2): האתגרים של הרגולטורים

במבט ראשון זה נשמע מוזר שצריך להתייחס בנפרד לרגולציה על בינה מלאכותית. למה זה משנה שהפעילות נעשית על ידי מכונה ולא על ידי בני אדם? הרי אותם כללים צריכים לחול על הפעילות, בלי קשר לטכנולוגיה.

קוראים לזה מדיניות "נייטרליות טכנולוגית" (tech neutrality) והיא מבוססת על עקרון השוויון – same business, same risks, same rules (אותם עסקים, אותם סיכונים, אותם כללים).

ניקח להמחשה ענף שצפוי להשתנות דרמטית בעקבות מהפכת הבינה המלאכותית – ביטוח. זה תחום עם המון רגולציה. על חברות הביטוח חלים שורה ארוכה של כללים והגבלות, שנועדו להבטיח שהן פועלות באופן תקין ושומרות על הזכויות של הלקוחות שלהם.

נניח שחברת הביטוח מחליטה להשתמש באלגוריתם של בינה מלאכותית – לדוגמה, אלגוריתם שמחליט מהו גובה פרמיית ביטוח הבריאות של לקוח פוטנציאלי. אם החברה תעמוד בכל החובות הרגולטוריות שלה – מדוע שבכלל תתעורר בעיה?

כשהצורה משנה את המהות

המציאות יותר מסובכת. העיקרון של "ניטרליות טכנולוגית" מבוסס על כך שהטכנולוגיה לא משנה את המהות – כלי הוא רק כלי. אבל הבינה המלאכותית מערערת את הפרדיגמה הזו. בלי להיכנס לדיון הפילוסופי על ההגדרה של "בינה", אפשר להסכים שישויות עם בינה מלאכותית נמצאות על הרצף שבין כלי לבן אדם, בין אובייקט לסובייקט. חוקר בשם Ignacio Cofone מאוניברסיטת מקגיל מצביע על שלוש מאפיינים של רובוטים שמקנים להם תכונות כמו-אנושיות:

(1) אוטונומיה – מערכות ממוחשבות אוספות מידע ולומדות מהטעויות של עצמן. יכולת הלמידה הזו משנה את קבלת ההחלטות באופן שמפתחי המערכות לא תמיד יכולים לחזות או לשלוט עליו;

(2) מוחשיות – לחלק מהרובוטים יש התגלמות מוחשית במציאות שמאפשרת להם לפעול ולהיות באינטראקציה עם בני אדם;

(3) ערכיות חברתית (social valence) הם מעוררים הזדהות ואינטימיות (תחשבו על הסרט "Her").

התוצאה היא טשטוש ההבחנה בין אדם לכלים ושינוי מהותי של כללי המשחק. השימוש בבינה מלאכותית יוצר מציאות חדשה. ובעולם החדש רגולטורים צריכים להתמודד עם ארבעה אתגרים מרכזיים.

אתגר ראשון: רגולציה שמיועדת לבני אדם

האתגר הראשון הוא טכני ופשוט יחסית: רגולציה שדורשת פעולה של בן אדם. מי שעבר תיאוריה בישראל אמור להכיר את סעיף 28 לתקנות התעבורה, שקובע כי "נוהג רכב חייב להחזיק בידיו את ההגה או הכידון כל עוד הרכב בתנועה". לרכב אוטונומי אין ידיים.

דוגמה אחרת מגיעה מרגולציה פיננסית. בהקשרים שונים יש דרישה שנציג אנושי יהיה מעורב באינטראקציה עם לקוחות, כמו זיהוי פנים-אל-פנים בעת פתיחת חשבון.

חסם אחר הוא חוקים שקובעים שרק לקבוצה מסוימת של בני אדם מותר לבצע פעולות מסוימות, למשל אבחון, זיהוי וריפוי מחלות (רופאים) או ייעוץ משפטי וכתיבת חוזים (עורכי דין). רובוט שעוסק בכירורגיה או בודק הסכמים משפטיים עשוי להיחשב כ"מסיג את גבול המקצוע".

אם מחוקקים ורגולטורים רוצים לאפשר לכלים טכנולוגיים מתקדמים להגיע לשווקים – עליהם להסיר חסמים כאלו (חלק מהחסמים נגרמים מתקני תהליך, שאפשר להחליף בתקני ביצוע).

אתגר שני: לפקח על קבלת ההחלטות

במקרים אחרים הרגולציה קובעת הוראה רחבה וכללית, כדי להכווין שיקול דעת ולקבוע סטנדרט של התנהגות ראויה. לחברות אסור להפלות לקוחות על בסיס דת, מין, גזע ונטייה מינית; למונופולים אסור "לנצל את כוחם לרעה"; וגופים פיננסיים חייבים "לנהל סיכונים באופן זהיר ותקין". איך קובעים את הסטנדרט עבור החלטות של גורם לא-אנושי?

נחזור לדוגמה של האלגוריתם שקובע את גובה פרמיית הביטוח הרפואי. איך אפשר לדעת האם האלגוריתם לא מפלה לרעה את המבוטח בשל שיקולים אסורים?

מחוקקים ורגולטורים יצטרכו להכריע מהו הסטנדרט שלפיו נקבע האם אלגוריתם "פעל באופן מפלה". האם הבעיה היא במידע שהאלגוריתם קיבל על המועמדים? האם הבעיה היא בהחלטות הלא-שוויוניות שהתקבלו לגביהם? האם הבעיה היא בתהליך האימון שעל בסיסו נבנה המודל? או שהבעיה היא בעובד האנושי שהסתמך על האלגוריתם בקבלת ההחלטה?

אלגוריתמים הם לעתים קרובות "קופסה שחורה": אופן קבלת ההחלטות שלהם אינו מובן לאיש, אפילו למפתחים שלהם. אם אנחנו לא יודעים איך הם "חושבים" נתקשה לפקח עליהם ולקבוע האם הם הפלו או נהגו בזהירות מספקת.

אתגר שלישי: של מי האחריות?

ואם זה לא מספיק, יש גם את נושא האחריות. חוקים ותקנות לא רק מגדירים חובות, אלא גם קובעים על מי הן מוטלת, ומי אחראי כשנגרם נזק. למשל, חוקי תעבורה מגדירים מי הגורם האחראי לפיצוי בגין נזקים בתאונת דרכים מבין כל הגורמים הרלוונטיים – נהגים, הולכי רגל, יצרני הרכב, חברות הביטוח או המדינה.

עכשיו רגולטורים צריכים להכריע מה עושים עם תאונות שיערבו כלי רכב אוטונומיים. האם האחראי הוא הנהג, היצרן הסופי או המתכנת? ועל בסיס אילו קריטריונים קובעים זאת?

אתגר רביעי: להתאים את הרגולציה לטכנולוגיה

ואולי השאלה החשובה ביותר בעצם הפוכה ממה שדיברנו עליו עד עכשיו – לא איך רובוטים ומכונות חכמות יוכלו לציית לכללים הקיימים, אלא מה הכללים המתאימים? התפקיד העיקרי של הרגולטורים יהיה לחשוב מחדש על הרגולציה ולהתאים אותה לשינויים טכנולוגיים.

יישומים דיגיטליים לאבחון רפואי מוסדרים כיום על ידי ה-FDA בארה"ב כ"ציוד רפואי" (medical device). תהליך רישום ציוד רפואי הוא ארוך ומסורבל, ועשוי לקחת מספר שנים. הביקורת על ה-FDA היא שהתהליך לא מתאים לאפליקציות של אבחון רפואי, מאחר שיש להן אלגוריתם דינמי שלומד ומשתכלל כל הזמן. ה-FDA הודה לאחרונה כי המדיניות הישנה אינה מתאימה למוצרי בריאות דיגיטלית, והודיע כי הוא מגבש מסגרת רגולטורית חדשה שתתאים למאפיינים הייחודיים שלהם.

לפעמים השינויים הנחוצים נמצאים בפרטים הקטנים ממש. רוב חוקי התעבורה בעולם מחייבים נהגים לשמור מרחק מינימלי אחד מהשני מטעמי בטיחות. אבל חוקרים מצאו שכלי רכב אוטונומיים שנוסעים צמוד אחד לשני בשיירה (Platooning) ומתקשרים אחד עם השני ברשת אלחוטית יכולים להקטין את העומס בכביש, מבלי להתפשר על בטיחות. נכון להיום 11 מדינות בארצות הברית העבירו חוקים שמאפשרים למשאיות אוטונומיות לנהוג בשיטה הזו. נהג אנושי ורכב אוטונומי נוהגים אחרת, ולכן אין סיבה שהרגולציה עליהם תהיה זהה.

מחשבות לסיכום

ראינו שהטשטוש בין כלים לבני אדם מייצר מגוון שאלות שאין להם עדיין תשובה ברורה. לא תמיד נכון לשמור על ניטרליות טכנולוגית, כי לפעמים הטכנולוגיה משנה את המהות עצמה. במקרים האלו נצטרך לחשוב מחדש על הרגולציה ולהתאים אותה.

אבל ייתכן שבינה מלאכותית יוצרת סיכונים פוטנציאלים כל כך גדולים, שאנחנו צריכים לחשוב על פתרונות חדשים לחלוטין. נדבר על זה בפוסט הבא.

__

סדרת הפוסטים בנושא AI (וגם הפוסט הזה) נכתבה יחד עם עו"ד עדן לנג. עדן הוא עורך דין ברשות ניירות ערך ומתמחה ברגולציה פיננסית וטכנולוגיה. הדעות המובעות הן שלו בלבד ולא מייצגות בהכרח את עמדת הרשות.

להשאיר תגובה

הזינו את פרטיכם בטופס, או לחצו על אחד מהאייקונים כדי להשתמש בחשבון קיים:

הלוגו של WordPress.com

אתה מגיב באמצעות חשבון WordPress.com שלך. לצאת מהמערכת /  לשנות )

תמונת Facebook

אתה מגיב באמצעות חשבון Facebook שלך. לצאת מהמערכת /  לשנות )

מתחבר ל-%s

%d בלוגרים אהבו את זה: