אפשר לזייף הכל

מה עושים בעידן ה-Deep Fake

מגישת מהדורת החדשות עוצרת את השידור הרגיל. הודעה דחופה מבית ראש הממשלה. התמונה מתחלפת, על המסך ראש הממשלה. הוא מודיע בשידור חי שהוא מתפטר ומוותר על הגה השלטון. דרמה אמיתית.

רק שזה לא אמיתי.

כבר יותר מ-20 שנים שכולם יודעים שאפשר לערוך תמונות בפוטושופ. אפשר לעשות אתכם רזים יותר, להסיר קמטים וגם לשתול תמונה שלכם במקום שלא הייתם בו. בהתחלה הטכנולוגיה הזו הייתה מוגבלת לתמונות ודרשה מיומנות רבה.

אבל עכשיו זה משתנה. שיפורים בכוח המחשוב והתפתחות של AI מאפשרים לעשות דברים שעד היום היו בגדר דמיון פרוע. טכנלוגויות חדשות מאפשרות למחשב ללמוד איך מישהו מדבר (באמצעות דגימות קול) ולהפיק קובץ אודיו שיאמר כל טקסט שתרצו. כל מה שצריך לעשות זה להקליד את הטקסט שאתם רוצים שאותו אדם יגיד (הנה סרטון שמסביר איך זה עובד). את אותו דבר אפשר לעשות גם בוידאו. בקיצור – אפשר לפברק ולזייף איך אדם נראה ונשמע.

קוראים לזה Deep Fake (זיוף עמוק) והמהפכה האמיתית היא שזה הופך קל מיום ליום.

למשל, חברת DeepNEN מאפשרת לכם להצטלם ולהלביש על עצמכם פנים של מישהו אחר. כל מה שאתם צריכים זה תמונה אחת של האדם שאליו אתם רוצים להתחזות.

שליטה בדעת הקהל באמצעות זיוף

במאי 2019 התפרסם בפייסבוק סרטון של ננסי פלוסי, פוליטיקאית דמוקרטית שמכהנת כיו"ר בית הנבחרים בארה"ב. בסרטון פלוסי מדברת כשבתפקיד והיא נראית שיכורה. הסרטון הזיק מאוד לפלוסי, שהכחישה שזה סרטון אמיתי. במקרה הזה הזיוף היה פשוט יחסית: לקחו סרטון מקורי, האטו את המהירות שלו ואז התאימו את הקול כדי להסתיר את המניפולציה. למרות שמדובר בעריכה פשוטה – הסרטון היה משכנע.

אירוע אחר קרה במדינת גבון שבאפריקה. נשיא גבון נעלם בפתאומיות והתפשטו שמועות על מותו. בתחילת השנה הנשיא צילם את הנאום המסורתי שלו, שבו הוא נראה קצת קפוא ונוקשה – אולי סובל מאירוע מוחי. לא היה ברור האם הוידאו מזוייף, כי היום אפשר וקל מתמיד לבצע זיוף כזה. בסוף התברר שהסרטון אמיתי, אבל כל הדיון על הנושא המחיש כמה קל לטעון שמשהו מזוייף. הגבול בין אמת לשקר כבר לא חד וברור.

אפשר להמר שבעתיד הקרוב נראה זיוף מתוחכם יותר ויהיה הרבה יותר קשה להוכיח שמדובר בזיוף.

סוף עידן העובדות?

וזה לא מוגבל רק לוידאו. אנחנו צורכים מידע בעוד אופנים, בעיקר בטקסט. פרויקט GPT2 זכה לכינוי "הבינה המלאכותית שמסוכנת מידי להפעלה". בתמצית, זו מערכת שיודעת שפה כל כך טוב שהיא תכתוב עבורכם כל מסמך עם כל עובדה או טענה שתרצו. זו יכולה להיות ביקורת על מסעדה, מחקר מדעי או טקסט אידיאולוגי. גם למומחים בתחומם יהיה קשה לזהות שמדובר בפברוק. המכונה הזו כותבת טקסטים הגיוניים, יצירתיים ובסגנון הדרוש לכם. בקיצור – אפשר לייצר אסמכתאות להכל (חשוב לציין שיש לטכנולוגיה כזו יתרונות רבים, היא למשל יכולה לשפר שירותי תרגום או לשמש כמסייע כתיבה).

לא ברור מה אפשר לעשות. עד היום התרגלנו להתבסס על הוכחות – מאמר מדעי או הקלטה של מישהו. אבל פתאום יש טכנולוגיה שמאפשרת לזייף את ההוכחות הקשות שבאמצעותן הפרכנו שקרים. יכול להיות שבעתיד הקרוב לא נוכל לסמוך אפילו על העובדות הכי בסיסיות מבחינתנו. הנה ארבע מחשבות על תגובות אפשריות:

1. צמצום חשיפה בדיעבד

יכול להיות שהמקסימום שאפשר לעשות זה לזהות מידע מפוברק ולהסיר אותו מהאינטרנט. זה מה שפייסבוק עושה היום – הסרטון של ננסי פלוסי פורסם לראשונה בפייסבוק, שהסירה את הסרטון אחרי 36 שעות. זה אומר שהפלטפורמות הן השחקן המרכזי – בין זו פייסבוק או גופי החדשות.

זמן התגובה של פייסבוק מעלה שאלה עקרונית – נניח שזיהינו שמדובר בזיוף, מה אפשר לעשות והאם זה אפקטיבי? רוב הנזק מהסרטון נגרם ב-24 השעות הראשונות. האם מישהו יטרח להתנצל או לתקן החלטות בדיעבד? ואיך אפשר לתקן תדמית ציבורית שכבר נפגעה?

2. ללמוד לבדוק ולאמת מידע

הוולסטריט ג'ורנל כבר התחיל להתכונן כדי להתמודד עם סרטונים והקלטות כוזבים. עיקר הדגש הוא בפרוטוקול בדיקה של מקורות והקניית מיומנות לעיתונאים. ככל שקוראים יותר על טכנולוגיית Deep Fake – מבינים שמיומנויות כאלו אולי יעזרו בעתיד הקרוב, אבל ככל שעובר הזמן הטכנולוגיה הזו הופכת ליותר מתוחכמת ומוציאה תוצרים מדוייקים יותר. וזה מוביל אותנו בחזרה למכונות.

3. נצטרך להיעזר במכונות

אם איכות הזיוף תהיה ברמה שלא נוכל לזהות אותו (בהשקעה סבירה של זמן ומאמץ), יכול להיות שהפתרון לבעיה הוא טכנולוגיה. נהיה תלויים בטכנולוגיה שתעזור לנו לזהות האם מדובר במידע אותנטי או סינטטי. מול טכנולוגיית זיוף תתחיל לעלות טכנולוגיה של אימות ותיקוף. כבר יש כלים שיודעים לזהות טקסטים שנבנו על-ידי GPT2. זה יראה כמו משחק התופסת בין מפתחי וירוסים ומפתחי אנטי-וירוסים. המשמעות היא שמהר מאוד האמת תהיה נתונה למירוץ חימוש.

4. רגולציה (?)

קשה להאמין שפוליטיקאים או רגולטורים יצליחו לעמוד בפיתוי לקבוע רגולציה על הנושא. הרי מדובר ברגולציה על האמת ("מה יותר חשוב מהאמת?"). מצד שני, קצב ההתקדמות של הטכנולוגיה רק מאיץ וגובר, בזמן שהרגולציה זזה לאט מאוד. אז מה יכול לקרות?

כיוון אחד הוא להתבסס על הרגולציה הקיימת שיש בתחום מניעת ההטעיה. למשל, חובה לציין שמידע או סרטון עבר מניפולציה. או לחייב חתימה על כך שהמידע המקורי לא עבר שינויים (חתימה דיגיטלית או אישור אנושי). האם נטיל חובה כזו על כל סרטון? אולי רק על סרטונים מסוג מסויים? ברגע שמתחילים לחשוב על זה, מבינים שיהיה מאוד סבוך לקבוע הוראות בנושא. ובכלל לא ברור אם תהיה תועלת בסימון סרטונים.

הבעיה שגם פה אנחנו נכנסים למירוץ חימוש טכנולוגי – מי שיצליח לפברק חתימה כזו יתחמק מהרגולציה. יהיה מאוד מאתגר לפקח על הוראה כזו.

כיוון שני הוא לאסור על הטכנולוגיה הזו. לטפל ב"בעיה" במקור. אבל לא מדובר בטכנולוגיה אחת, אלא בהרבה קטגוריות של אמצעים טכנולוגיים. הניסיון להגדיר את כל הטכנולוגיות האסורות כנראה נדון מראש לכישלון. יש משהו חצי אירוני ברגולציה שאוסרת על שימוש בטכנולוגיה מסוימת. הרי הטכנולוגיה היא רק כלי מופשט, ולא רעה או טובה לכשעצמה. אז אולי צריך לאסור באופן גורף על מניפולציות ועריכה של סרטונים? הקושי עם כיוון כזה הוא שאיסור גורף יהיה מאוד מרחיק לכת, ימנע עריכה לגיטימית ויהיה קשה עד בלתי אפשרי לפקח על איסור כזה. גם איסור כזה יוביל למירוץ חימוש טכנולוגי.

זה לא דיון תיאורטי – הכל קורה כבר עכשיו. מספר סנטורים (דמוקרטים ורפובליקנים) מקדמים הצעת חוק שנקראת The Deepfake Report Act. זו הצעה לחקיקת מסגרת – היא מטילה על המחלקה לביטחון המדינה לבדוק את השימוש בסרטוני Deep Fake ואת הטכנולוגיות הקיימות ולהציע שינויים רגולטורים. האמריקאים עדיין לא מציעים תוכן מפורט, אבל הם רוצים למנות רגולטור לנושא. מבחינתם יש לחץ להסדיר את הנושא לפני הבחירות בנובמבר 2020. כבר עכשיו יש ביקורת על הצעות החקיקה השונות.

 

התובנה העיקרית מהסיפור הזה ומהניסיון לחשוב על פתרונות היא שבגלל קצב ההתקדמות של הטכנולוגיה, איבדנו את היכולת לחזות את העתיד. אנחנו מוכרחים לאמץ גישה צנועה יותר ליכולת שלנו להעריך מה יקרה. רגולציה מיועדת לחול בעתיד אבל היא נקבעת על סמך ניסיון העבר והדימיון שלנו – ושניהם מוגבלים. נראה שבמקרה הזה אין לרגולציה סיכוי מול ההתפתחויות העתידיות. כנראה שהפתרונות יהיו טכנולוגיים ולא רגולטוריים.
__

תודה למתי מריאנסקי מנהל קבוצת הפייסבוק "עליית המכונות" על ההערות והסיוע במחקר.

להשאיר תגובה

הזינו את פרטיכם בטופס, או לחצו על אחד מהאייקונים כדי להשתמש בחשבון קיים:

הלוגו של WordPress.com

אתה מגיב באמצעות חשבון WordPress.com שלך. לצאת מהמערכת /  לשנות )

תמונת Facebook

אתה מגיב באמצעות חשבון Facebook שלך. לצאת מהמערכת /  לשנות )

מתחבר ל-%s

%d בלוגרים אהבו את זה: