מארק צוקרברג, מנכ"ל Meta (חברת האם של פייסבוק ואינסטגרם), הודיע בתחילת חודש ינואר על פניית פרסה. במשך שנים Meta הפעילה עובדים שפעלו כ'בודקי עובדות (fact checkers) שבדקו תכנים והחליטו האם לאשר או לפסול אותם. לפעמים בם הסתייעו בטכנולוגיה ולפעמים הם פעלו ידנית. אולי גם לכם קרה שפוסט נפסל.
השיטה הזו ביטאה אחריות וניהול ריכוזי של התוכן על ידי פייסבוק. בלי קשר לתוכן המדיניות (מה חוסמים ולמה) – פייסבוק לקחה על עצמה לקבוע אילו תכנים לגיטימיים ואילו לא. אם אתם זוכרים, צוקרברג לא רק פעל בשיטה הזו אלא גם קרא להטלת רגולציה שתחייב אותה.
לפני חודש צוקרברג הודיע על שינו מדיניות. צוות בודקי העובדות יפורק. במקומו ובמקום ניהול ריכוזי על ידי פייסבוק, הקהילה תשפוט.
מה זה בדיוק אומר? ציבור המשתמשים בפייסבוק יחליטו אילו פוסטים מזיקים ואילו פוסטים מטעים וצריך מידע או הקשר נוסף לצידם. המודל הזה מבוסס על השיטה הנוכחית של טוויטר, שמבוססת על Community Notes". זאת אומרת, במקום להתבסס על סינון וחסימה של תוכן על ידי גורם מרכזי, מתבססים על הערות ומידע נלווה, שיקבע על ידי המשתמשים. זה שינוי גם של כלי המדיניות (חסימה / מידע) וגם של מבנה הכוח (מי אחראי לפיקוח על התכנים – הפלטפורמה/ המשתמשים).
לכאורה זה פתרון מעולה – פחות שליטה מרכזית, פחות אג׳נדות שנקבעות במחשכים ויותר זרימה חופשית של מידע.
כבר עכשיו אתם כנראה מבינים שאפשר לדבר על פייסבוק באופן מפורש, או להתייחס אליה כמטאפורה לרגולטורים.
הבעיות בשיטה החדשה
במהלך הבחירות לנשיאות ארה"ב ב-2020, צוות חוקרים עצמאי זכה לגישה חסרת תקדים לנתונים של פייסבוק ואינסטגרם. למיטב ידעתי זה המחקר המקיף ביותר שבחן את ההשפעות של מדיניות תוכן על הפצת מידע ברשתות חברתיות.
אחת המסקנות המרכזיות של המחקר נוגעת לאופן שבו מנגנוני האכיפה של Meta השפיעו על המידע שהמשתמשים נחשפו אליו. הדוחות והנתונים מראים שמידע מוטעה התפשט באופן שונה משמעותית ממידע רגיל.
בעוד שמידע רגיל התפשט בעיקר דרך משתמשים ודפים שיש להם חשיפה רחבה, המידע המוטעה הופץ בעיקר "מפה לאוזן" – ממשתמש למשתמש. מנגנון האכיפה של הפלטפורמה נועד להעניש "עבריינים חוזרים" ולכן הוא פעל בעיקר מול דפים עם (pages), אך לא הוחל על משתמשים פרטיים. הגישה הזו יצרה פרצה שאפשרה למידע המוטעה להמשיך להתפשט באופן נרחב.
החוקרים גם מצאו שאחוז מזערי מהמשתמשים (פחות מ-1%) אחראי להפצה של רוב המידע המוטעה. הם היו מעטים אבל ההשפעה שלהם הייתה עצומה – הם חשפו מיליוני משתמשים אחרים לתוכן מטעה. כנראה שגם ב-Meta לא יכלו להתעלם מהפרצה הזו, כי בעקבות הבחירות ב-2020, Meta החלה להחיל את סנקציות ה"עבריינים החוזרים" גם על משתמשים פרטיים.
המחקר מעלה שאלות קשות על השינויים ש-Meta, מקדמת כיום במדיניות שלה. מדיניות גמישה מדי עלולה לפתוח מחדש את הדלת להפצת מידע מזיק או מטעה – מבלי שלציבור, לממשלה או לחוקרים תהיה אפשרות לדעת אילו השפעות יש לכך על המידע שאנחנו רואים. אולי אפילו לא נדע שאנחנו ניזונים ממידע מטעה. והטעיה יכולה ללבוש הרבה צורות, החל מתוכן מסחרי, דרך נושאים פוליטיים ועד תעמולה גיאו-פוליטית (חמאס/ קטאר/ רוסיה/ סין).
עקב האכילס של הרשת החברתית
אחת התופעות המרתקות והמדאיגות בעולם המידע המוטעה היא אותם "משתמשי על" (על משקל super spreades מהקורונה) – אותם יחידים שמפיצים כמויות עצומות של מידע מטעה או כוזב. התופעה הזו זוהתה לא רק בפייסבוק, אלא גם בפלטפורמות אחרות כמו טוויטר.
נראה שהתופעה הזו היא נקודת התורפה המרכזית במאבק נגד מידע מוטעה. זיהוי מידע מוטעה הוא משימה הרבה יותר מורכבת ממה שנדמה. זה לא רק להימנע מטעויות של פסילת תוכן אמיתי (false positive), אלא שזה מאוד מאתגר גם לתפוס את התוכן הבעייתי (false negative). תוסיפו לכך את העובדה שהתפשטות המידע המזיק והמטעה מהירה כל כך, שבמקרים רבים הנזק נעשה לפני שהתוכן בכלל מזוהה.
אבל יש תקווה. מאחר שזיהינו את מקור הבעיה, אנחנו יכולים לגבש פתרונות.
קשה לבחון כל פריט תוכן במהירות אבל דווקא קל יחסית לזהות את "משתמשי העל" שמפיצים את המידע הכוזב. מסתבר שההתנהגות שלהם כל כך בולטת, שהם מטרות די קלות לזיהוי.
זה אומר שבמקום לרדוף אחרי כל התוכן ברשתות החברתיות, כל מה שצריך לעשות זה לאתר את "משתמשי העל" ולמקד בהם את בקרת התוכן. מאחר שמדובר בפחות מ-1% מהמשתמשים, אפשר עם מעט משאבים (יחסית) לטפל בחלק ניכר מהבעיה.
כשמתסכלים על זה ככה, קיומם של "משתמשי העל" הוא כבר לא מכשול אלא מאפיין שמקל את האכיפה. צריך רק הכנה מוקדמת.
האם זה רצוי?
אפשר לטעון שזה לא "הוגן" למקד חלק ניכר ממשאבי בקרת התוכן במספר מועט של משתמשים. אפשר גם לומר טענה יותר מרחיקת לכת – שהרשתות החברתיות בכלל לא צריכות לעסוק בתוכן שאנחנו רואים.
בהקשר הזה אני מציע לזכור שהרשתות החברתיות תמיד מסננות את התוכן שאנחנו רואים. האלגוריתמים של פייסבוק, אינסטגרם ופלטפורמות אחרות קובעים איזה תוכן יוצג בפיד שלנו (ולכמה זמן) ואיזה תוכן יוסתר.
כמובן שאפשר לחשוב על אלטרטיבות – ואני מזמין אתכם להציע בתגובות רעיונות.
מה תהיה התוצאה של שינוי המדיניות?
בחזרה ל-Meta, שהחליטה להפסיק לבצע בקרת תוכן, והעבירה את האחריות לקהילת המשתמשים. ההחלטה הזו מעוררת חששות רבים.
האם זה יוביל להצפה של תוכן מטעה? בשנת 2020 ראינו גל של תוכן מטעה – החל מתיאוריות קונספירציה סביב הקורונה ועד הטעייה סביב הבחירות לנשיאות בארה"ב (כמו מידע שגוי שהופץ בכוונה על מקומות הצבעה).
ויש חשש שהשיטה החדשה לא תצליח למנוע הפצה רחבת היקף של מידע מזיק בזמן.
לצערנו, ייתכן שלעולם לא נדע. אם אף אחד לא עוקב אחרי התוכן, אפילו לא כמתבונן – אנחנו פשוט לא נדע מה היו התוצאות. Meta לא הזמינה מחקר עצמאי להעריך את ההשפעות של המדיניות החדשה. ומאחר שאנחנו עוסקים במידע – עצם הידיעה שלנו מוטלת בסימן שאלה.
