לאן הולכת הרגולציה על בינה מלאכותית? תמונת מצב לחציון הראשון של 2023

בחודשים האחרונים כולנו נחשפנו לפירות של טכנולוגיות בינה מלאכותית. זה לא קרה בין ליל, אבל הן הפכו ליותר נגישות והציבור פתאום גילה מה הן יכולות להציע – והתחיל להתלהב.

גם בעלי תפקידים רשמיים גילו את הבינה המלאכותית והתחילו להשתמש בה. חברי קונגרס מארה"ב, חברי פרלמנט מבריטניה, חברי כנסת בישראל וגם נגיד בנק ישראל – הקריאו נאומים שנכתבו על-ידי מנועי בינה מלאכותית.

רובנו נחשפנו לשני יישומים של בינה מלאכותית – ממשקי טקסט (כמו ChatGPT ו-BARD) וממשקים ליצירת תמונות (כמו DALL-E ו-Midjourney). אני לא חושב שצריך להציג אותם ולכן רק אגיד שהכלי הבולט כיום – ChatGPT מאפשר לכתוב הוראות בשפה אנושית ולקבל תשובות חכמות ויצירתיות. הצ'אט יודע לענות על שאלות עובדתיות, לנסח מסמכים, לארגן מידע, להציע רעיונות וליצור תוצרים מגוונים שונים (רשימת קניות, מסלול טיול, שירה בסגנון ימי הביניים).
מנועים גרפיים יכולים לייצר לכם תמונות, תצלומים ואומנות ויזואלית מכל סוג ולכל צורך. כבר לא צריך לחפש תמונה, צריך רק לכתוב בדיוק מה אתם רוצים – ותקבלו את זה (כמו תמונת הנושא של הפוסט הזה).

בינה מלאכותית – התלהבות וחששות

יש התלהבות גדולה מהכלים האלו ועיסוק באופן שבו אפשר להשתמש בה כדי לייעל פעולות ולבצע משימות שונות בעבודה ובחיים הפרטיים.

בממשלות בעולם מתחיל שיח לשני כיוונים הפוכים. מצד אחד, גם אנשים שעוסקים בקביעה וביישום מדיניות התרשמו מהטכנולוגיה והם רוצים להשתמש בה. מצד שני, הכלים האלו הגבירו את השיח הקיים על הצורך לקבוע רגולציה על בינה מלאכותית. מה שהיה נדמה כחזון עתידני – הפך למציאות מוחשית שכולם משתמשים בה. ואם הבינה המלאכותית כל כך מסוכנת – הסכנה היא כאן ועכשיו [להרחבה ראו את סדרת הפוסטים שפרסמתי על רגולציה ובינה מלאכותית].

אחד הטיעונים המעניינים – מבחינה טקטית – נשמע לאחרונה בארה"ב. חברי קונגרס התבטאו לגבי הצורך לקבוע רגולציה ללא דיחוי. ההסבר שלהם הוא שברור שזו טכנולוגיה אשר משנה את כללי המשחק ואם המחוקק יתמהמה זה יהיה מאוחר מידי. כדוגמה הם הציגו את הפלטפורמות החברתיות (כמו פייסבוק) שהתחילו לפני כעשרים שנה כפרויקט קטן ולא מזיק, אבל הפכו לתאגידים רבי עוצמה – חברתית, תקשורתית וכלכלית. בניגוד לפייסבוק שבתחילת ימיה הייתה אתר חברתי לסטודנטים אמריקאיים, במקרה של הבינה המלאכותית – היכולות המרשימות והפופולאריות הגבוהה כבר קיימות וברורות לכולם.

אגב, באופן מעניין גם היוצר של ChatGPT הודיע שהוא תומך ברגולציה על התחום, כדי למנוע שימוש מזיק בבינה מלאכותית. שתי שאלות שנצטרך ללבן: איך בדיוק עושים את זה ואיך הרגולציה לא תשרת את השחקנים הקיימים? (מזכיר שגם פייסבוק ביקשה שיטילו עליה רגולציה, ולא מכוונות אלטרואיסטיות).

רגולציה על בינה מלאכותית – צעדים ראשונים

ממשלות לא התעוררו בנובמבר 2022 כש-ChatGPT נחשף לציבור. כבר מספר שנים יש עיסוק בגיבוש מדיניות עקרונית וקווים מנחים לרגולציה על בינה מלאכותית. כך למשל, באה"ב ממשל ביידן פרסם באוקטובר 2022 תכנית ראשונית למגילת זכויות בעידן הבינה המלאכותית (Blueprint for an AI Bill of Rights). התכנית כוללת עקרונות כמו הגנה מפני אלגוריתמים מפלים או מוטים, ושקיפות של האלגוריתמים ולגבי שימוש בבינה מלאכותית.

גם בישראל נעשתה עבודה בין משרדית בנושא. ובאוקטובר 2022 פורסמה להערות טיוטה של מסמך שעוסק במדיניות, ברגולציה ובאתיקה לתחום הבינה המלאכותית.

בשני המקרים מדובר בניירות-מטה שמטרתם להציג את המדיניות המתגבשת – אך עדיין לא מדובר ברגולציה שקובעת חובות ואיסורים.

באיחוד האירופי מקדמים הצעת חוק להסדרת הבינה המלאכותית (שטרם התקבלה כחוק), אבל היא מיועדת להסדיר רק חלק מההיבטים של בינה מלאכותית (כמו סוגיות מסחריות ואזרחיות) ולא שימוש לרעה בהם.

האירופים מקדמים דירקטיבה לגבי האחריות האזרחית (כמו גרימת נזק לזולת) ודירקטיבה נפרדת לגבי אחריות מוצרי בינה מלאכותית. הבעיה שאני צופה היא שלא תהיה מסגרת אחידה וקוהרנטית – כי בצינור של האירופים יש שלושה מהלכים נפרדים על הנושא (חוק ושתי דירקטיבות).

בנקודת הזמן הנוכחית אנחנו עדיין לא רואים הצעה מקיפה ומלאה לרגולציה על בינה מלאכותית. מצד אחד, יש חשש שרגולציה לא תצליח לחזות את השימושים וההתפתחויות האפשריים ולכן תהיה בלתי מועילה או שהיא תפגע בהתפתחות הטכנולוגיות. מהצד השני כבר עכשיו מתעוררות בעיות עקב השימוש בבינה מלאכותית, וכמו שאמרו חברי הקונגרס האמריקאיים – ייתכן שאם נתמהמה נפספס את הרכבת.
יש פה דילמה כפולה – מה לעשות ומתי?

מבט קדימה

כדי לסכם את תמונת המצב, הנה כמה חששות מרכזיים וכיווני התפתחות אפשריים:

  1. יש חשש רב מפני מידע מטעה שיווצר ויופץ בעזרת בינה מלאכותית. דוגמת הקיצון היא "זיוף עמוק" – יצירת תוכן לא אמיתי אך הסוואה שלו או חיקוי מאוד מוצלח. זה יכול להיות התחזות לאדם אחר או פברוק מחקר אקדמי.
  2. בעיני יש סיכון דומה אך מוחשי יותר – הטעיה בלתי מכוונת. האלגוריתם לפעמים טועה או לא מבין את השאלה. ולפעמים נדמה שהוא כל כך רוצה לעזור שהוא ממציא תשובה (נסו לבקש ממנו רשימת מאמרים על נושא מסוים – ייתכן מאוד שהרשימה תכלול מאמרים שלא קיימים).
    הבעיה נגרמת מאחר שממשקי הבינה המלאכותית מספקים פלט שמנוסח היטב ומשדר אמינות ו"ביטחון עצמי" גבוה. למשל, ChatGPT לא יגיד לכם "אין לי את כל המידע, אבל אני משער שהתשובה היא פחות או יותר 23". הוא גם לא יגיד: "אני מעריך שהתשובה היא X, אבל רמת הוודאות היא 65%". הוא פשוט יציג תשובה – מנוסחת באופן מהודק וקולח.
    ואנחנו טועים לחשוב שאם הוא כותב בביטחון – הוא ודאי יודע וצודק. זה לא שימוש לרעה, אלא פשוט מקור לטעויות ותקלות.
  3. הטייה לא מודעת. כל הכלים האלו נועדו להקל עלינו, אבל מה אם הם יטו את דעתנו. מחקר שבוצע לאחרונה מצא שכאשר מכוונים את כלי הבינה המלאכותית כדי להיות מוטים בעד או נגד משהו, המשתמש האנושי נוטה לאמץ את העמדה המוטה. במחקר בנו כלי AI שמסייע לכתוב תגובות לפוסטים. חלק מהמשתתפים בניסוי קיבלו כלי שעזר לנסח תשובות בעד עמדה מסוימת וחלק קיבלו כלי שהציע ניסוחים נגד העמדה הזו. לא רק שהתשובות שלהם היו יותר תואמות להגדרה ששתלו בכלי AI, גם כששאלו אותם בדיעבד מה עמדתם – המשתתפים אימצו את הטייה שנשתלה בכלי. זה יכול להשפיע על אנשים מהשורה וגם על עמדות של מקבלי החלטות וקובעי מדיניות.
  4. נייר עבודה של חוקרת מגוגל מצביע על כך שטכנולוגיות בינה מלאכותית עלולות להגביר את סיכון הסייבר. בתמצית, מאחר שאותם ממשקים יכולים לכתוב קוד ולעזור לשפר קוד – הם גם יכולים להקל על פושעי סייבר לפתח ולשכלל את המתקפות שלהם. אותה חוקרת מציע לקבוע רגולציה שתחייב איסוף של מידע שהופק על-ידי כלי בינה מלאכותית, כדי לאפשר פיקוח על שימוש בעייתי בהם.
  5. סוגיות של קניין רוחני וזכויות יוצרים: כדי שכלי הבינה המלאכותית יהיו כל כך חכמים, מוכשרים ויצירתיים צריך לאמן אותם על תוכן קיים. למשל, לתת להם "לקרוא" טקסטים או "לצפות" בתמונות רבות. זה בסיס הידע וגם הבסיס ללוגיקה שהם מפעילים. אבל מאחר שהכלים האלו מתבססים על יצירות קיימות – עולה שאלת השימוש באותן יצירות. למשל, אם ChatGPT מתבסס על תכנים שיצרתי והוא סרק אותם ומשתמש בהם ללא רשותי – אולי יש כאן הפרה של זכויות היוצרים שלי.
    יכול להיות שדיני הקניין הרוחני וזכויות היוצרים שקיימים היום מטפלים מספיק טוב בסוגיה, גם אם הם לא נכתבו במחשבה על בינה מלאכותית (ואולי הם רק זקוקים להרחבה והתאמה).
  6. פלסטר טקטי במקום מהלך שלם: יש חשש רציני שהעיסוק של הרגולטורים בעולם הוא במציאת פתרונות לבעיות המיידיות שהם רואים עכשיו, ללא חשיבה ארוכת טווח על הסיכונים. לפי טענה של חוקר אחד – התוצאה עלולה להיות מדיניות שגויה בטווח הקצר, ומאחר שתהליכי חקיקה הם ארוכים ואיטיים – לא יהיה מענה מספיק טוב גם בעתיד, כי כשסיכונים חדשים יתממשו – אנחנו שוב נופתע ולא נהיה מוכנים.
    אותו חוקר מציע לבנות מפת דרכים רב-שנתית לפיתוח המדיניות והרגולציה בתחום, שתלווה את ההתפתחות והתפוצה של כלי בינה מלאכותית. בעצם, הוא מציע לנהל את תהליך המדיניות באופן מתמשך במקום מאמצים ספורדיים (אפשר לטעון שבזה בדיוק האירופים לוקים).
  7. וכמובן יש את הסיכון האולטימטיבי – שהבינה המלאכותית תסכן את האנושות (כתבתי על זה בחלק השלישי בסדרת הפוסטים). התרחישים כאן מגוונים: החל מבינה מלאכותית ש"יוצאת לחופשי" וגורמת נזק בלי להתכוון, ועד לתרחישי בלהות מסרטי מדע בדיוני. לפני כמה שנים לא הייתם מאמינים שבינה מלאכותית עוצמית תהיה זמינה לכם מתי ואיפה שתרצו. הצעד הבא עלול להיות מפתיע ולהגיע מהר מהצפוי.

זו הייתה תמונת מצב כללית של השיח והעיסוק בבינה מלאכותית. אין לפוסט הזה מסר או אמירה נוקבת. רציתי לתת לכם קריאת כיוון ולהציג כמה מגמות. אני אמשיך לעדכן כאשר יהיו התפתחויות מעניינות.

וזו הזדמנות להזמין אתכם ללחוץ כאן ולהירשם לרשימת התפוצה כדי שתקבלו את כל התכנים והעדכונים.

תגובה אחת על “לאן הולכת הרגולציה על בינה מלאכותית? תמונת מצב לחציון הראשון של 2023

להשאיר תגובה

הזינו את פרטיכם בטופס, או לחצו על אחד מהאייקונים כדי להשתמש בחשבון קיים:

הלוגו של WordPress.com

אתה מגיב באמצעות חשבון WordPress.com שלך. לצאת מהמערכת /  לשנות )

תמונת Facebook

אתה מגיב באמצעות חשבון Facebook שלך. לצאת מהמערכת /  לשנות )

מתחבר ל-%s

%d בלוגרים אהבו את זה: