רגולציה ובינה מלאכותית (3): הסכנות שאולי מצדיקות רגולציה

שנת 1998 היתה השנה האחרונה שבה ניתן היה לשבט בני אדם באופן חופשי בישראל. בסוף של אותה שנה העבירה הכנסת חוק שאסר על התערבות גנטית בבני אדם, שכוללת יצירת עוברים משובטים או מניפולציה גנטית בתאי רביה. הרקע לחוק אינו גל של שיבוטים אנושיים, אלא השיבוט המפורסם של הכבשה דולי בקיץ 1996 בסקוטלנד. יצירת היונק המשובט הראשון בעולם עוררה דאגה מוסרית ואתית מהאפשרות שטכנולוגיית השיבוט תיושם יום אחד על בני אדם. לכן מדינות רבות החליטו רבות לאסור שיבוט בני אדם בחקיקה, הרבה לפני ניסיון ראשון לשיבוט בני אדם.

רגולציה, כידוע, נועדה להתמודד עם סיכונים. לעיתים עצם האפשרות התיאורטית שסיכונים כלשהו יתממש גורר התערבות רגולטורית אגרסיבית מראש. מנסחי החוק למניעת התערבות גנטית בבני אדם לא המתינו לשיבוט האנושי הראשון לפני שהחליטו למנוע זאת מבעוד מועד.

להתערבות רגולטורית מוקדמת יש מחיר. הגבלות על מחקר ופיתוח עלולות למנוע חדשנות טכנולוגית, שעשויה יום אחד להביא לפריצת דרך רפואית או מדעית. ייתכן שנפיק מאותו פיתוח תועלת הרבה יותר גבוהה מהנזק הפוטנציאלי – אבל לעולם לא נדע כי חסמנו אותו בתחילת הדרך. זו דילמה שאין לה פתרון קסמים. קשה לקבוע האם הטכנולוגיה יוצרת סכנה כה גדולה ודרמטית, עד שהיא מצדיקה את העלות של התערבות מוקדמת.

בינה מלאכותית – סכנה קיומית?

עד כמה חמור הסיכון מטכנולוגיית בינה מלאכותית? יש שסבורים שיותר ממה שנדמה לנו. הפילוסוף השוודי ניק בוסטרום, החדיר לשיח הציבורי את המושג "בינת-על" (superintelligence). הכוונה לאפשרות התיאורטית שמכונות ישתכללו בביצוע יותר ויותר משימות עד כדי כך שבשלב מסוים הם יעלו על היכולות הקוגניטיביות של בני האדם בכל התחומים. על אף שתרחיש כזה נראה קיצוני ומרוחק, אנחנו רואים שעם הזמן מכונות לומדות מאפילות על בני אדם בעוד ועוד תחומים, כך שלא ניתן לשלול אותו לחלוטין.

הטענה של בוסטרום היא שהסיכון הנשקף מפיתוח לא זהיר של בינה מלאכותית מציב אותה בקטגוריה של איומים כמו מלחמה גרעינית או שינוי אקלים – סיכון קיומי לעתיד האנושות. לאזהרות האלו הצטרפו דמויות טכנולוגיות כמו ביל גייטס, סטיב ווזניאק ואילון מאסק – לא בדיוק אנשים טכנופוביים, פסימיסטיים או חובבי רגולציה.

הכוח של ענקיות ה-AI

תחום הבינה המלאכותית נשלט כיום על ידי תשע חברות ענק: שש אמריקאיות (גוגל, פייסבוק, אפל, מיקרוסופט, אמזון ו-IBM) ושלוש סיניות (באידו, אליבאבא וטנסנט). כל אחת מענקיות הטכנולוגיה משלבות כבר היום אלגוריתמים מבוססי AI במגוון רחב של שירותים "חינמיים" – ניווט, תרגום, קשרים חברתיים, חיפוש, כתיבת מיילים, בחירת תכנים, ניהול בתים חכמים ומשימות יומיומיות.

האלגוריתמים הללו עוזרים קצת למשתמשים, אבל המשתמשים עוזרים לאלגוריתמים להפוך ליותר ויותר משוכללים בחיזוי התנהגות. וכאשר התנהגות ניתנת לחיזוי, היא גם ניתנת לשליטה. חברות הטכנולוגיה לא מרוויחות רק ממכירת פרסומות, אלא מהיכולת לעצב את ההתנהגות שלנו כדי להגדיל את הערך למפרסמים. במלים אחרות, החשש אינו שהמכונות ישמידו אותנו בעתיד הרחוק, אלא ישלטו בהתנהגות שלנו למטרות עסקיות. זה לא פרק עתידני של "מראה שחורה" – זה קורה כבר היום.

יוזמות לרגולציה על AI

ההתפתחויות האלו מעוררות קריאות לרגולציה חדשה כוללת של בינה מלאכותית. פול נמיץ, יועץ בכיר בנציבות האירופית טוען כי ריכוז העוצמה מפיתוחים של בינה מלאכותית בידיים של מספר מצומצם של חברות מהווה סכנה מוחשית לדמוקרטיה, לכלכלה החופשית ולחירויות הפרט. לדבריו, ה-GDPR, אשר מסדיר את איסוף המידע האישי ועיבודו, מטפל רק בחלק מהבעיה. השלב הבא והמתבקש הוא חקיקה כללית חדשה שתסדיר את האופן שבו מכונות מקבלות החלטות.

איך תיראה רגולציה כל כך שאפתנית? חלק מההצעות פשוטות יחסית, כמו לחייב הזדהות ושקיפות של בוטים שבאים באינטראקציה עם בני אדם, בעיקר לצרכים פוליטיים. הצעות אחרות יותר דרמטיות: נמיץ מציע לחייב חברות לבצע הערכת סיכונים של בינה מלאכותית, בדומה לחובה דומה ב-GDPR, לפני השקת מוצר חדש; וכן לחייב חברות להסביר כל החלטה של אלגוריתם בפני כל מי שמושפע ממנה.

רעיון אחר הוא להקים סוכנות אירופית לרובוטיקה, שתפעיל מערך רישוי של מערכות בינה מלאכותית. הרעיון עלה גם בארה"ב –חוקר בשם מתיו שצ'רר הציע רישוי ממשלתי וולונטרי של בינה מלאכותית (חברות שיקבלו את הרישוי הממשלתי ייהנו מאחריות מקלה במקרה של נזק, בעוד שחברות ללא רישיון יהיו כפופות למשטר של אחריות מוחלטת).

תגובת נגד

למרות שיש הסכמה שצריך רגולציה על שימושים ספציפיים בבינה מלאכותית, הרעיון של רגולציה כוללת על בינה מלאכותית מעורר הרבה מחלוקת. המבקרים טוענים שהחששות מפני בינה מלאכותית מוגזמת מדי ונשענות על תרחישים אפוקליפטיים ושעדיין לא הוכח שהרגולציה הקיימת לא מספיקה. מכון המדיניות American Action Forum, טוען שלרגולטורים יש ארסנל של כלים אחרים שהם צריכים להפעיל – כמו "רגולציה רכה" שפועלת באמצעים לא מחייבים (best practice) ושיתופי פעולה עם התעשייה. לדעתם פעולות כאלו (שכבר התחילו) ייתרו את הצורך ברגולציה.

דוגמה לכך ניתן לראות במסמך שהאיחוד האירופי פרסם לאחרונה בנושא של אתיקה של בינה מלאכותית. המסמך קובע שורה של עקרונות לפיתוח אתי של מערכות ממוחשבות חכמות: העדר פגיעה באוטונומיה אנושית (שהמכונות תמיד יהיו כפופות להתערבות של בני אדם), שמירה על פרטיות, שקיפות, יציבות ואבטחה, העדר אפליה ויצירת השפעה חיובית על רווחת בני אדם. המסמך של האיחוד האירופי אינו רגולציה כופה אלא קווים מנחים (guidelines). זאת אומרת שהדיון במישור האתי ולא הרגולטורי.

כנראה שבעתיד הקרוב נראה בעיקר רגולציה על שימוש ספציפיים של בינה מלאכותית, אבל אם החברות לא יפעלו בצורה אחראית ושקופה – הן עלולות לעורר תגובת נגד של רגולציה כוללת ומקיפה מאוד.

__

סדרת הפוסטים בנושא AI (כמו גם הפוסט הזה) נכתבה יחד עם עו"ד עדן לנג. עדן הוא עורך דין ברשות ניירות ערך ומתמחה ברגולציה פיננסית וטכנולוגיה. הדעות המובעות הן שלו בלבד ולא מייצגות בהכרח את עמדת הרשות.

להשאיר תגובה

הזינו את פרטיכם בטופס, או לחצו על אחד מהאייקונים כדי להשתמש בחשבון קיים:

הלוגו של WordPress.com

אתה מגיב באמצעות חשבון WordPress.com שלך. לצאת מהמערכת /  לשנות )

תמונת גוגל

אתה מגיב באמצעות חשבון Google שלך. לצאת מהמערכת /  לשנות )

תמונת Twitter

אתה מגיב באמצעות חשבון Twitter שלך. לצאת מהמערכת /  לשנות )

תמונת Facebook

אתה מגיב באמצעות חשבון Facebook שלך. לצאת מהמערכת /  לשנות )

מתחבר ל-%s