איך גורמים לכם להסכים בלי שתשימו לב
באוגוסט 2016 אפליקציית WhatsApp ביצעה שינוי דרמטי בתנאי השימוש שלה. השינוי בוצע כי פייסבוק רכשה את WhatsApp, ורצתה לקבל גישה למידע שנאסף על יותר ממיליארד אנשים שמשתמשים ב-WhatsApp.
משתמשי WhatsApp התבקשו לבחור אם להסכים לתנאים החדשים. WhatsApp פעלה בשקיפות: היא טרחה ליידע את המשתמשים שהמידע האישי שלהם עומד לעבור לחברת האם. אבל היא לא טרחה לציין בבירור שהמשתמשים רשאים לבחור שלא לשתף את המידע עם פייסבוק, ועדיין להשתמש ב-WhatsApp. ומשתמש שרצה לבחור שלא לשתף את המידע, היה צריך להתאמץ כי אפשרות ה-opt-out היתה מוחבאת עמוק בתוך הגדרות החשבון או בתחתית העמוד.
הרוב הגדול של משתמשי WhatsApp כנראה לא שמו לב לאפשרות הזו או לא הבינו את משמעותה. וכמעט כולם נתנו לפייסבוק הרשאה לקצור את המידע האישי שלהם, כולל מספרי טלפון והרגלי שימוש. המשימה הוכתרה בהצלחה.
זו המודעה העיקרית שהוצגה למשתמשי WhatsApp: תאשרו את התנאים החדשים אם אתם רוצים להמשיך להשתמש באפליקציה. האפשרות להודיע שהמשתמש לא מעוניין להעביר מידע לפייסבוק הופיעה במקום מוצנע.
לפעמים מכנים את השיטה הזו Privacy Zuckering, על מארק שם צוקרברג ששיכלל אותה לרמה של אומנות: לחלץ מהמשתמש יותר מידע ממה שהוא רוצה לתת.
אני מסכים (אבל לא זוכר למה)
תחשבו רגע על כל ההחלטות שאי פעם קיבלתם. עכשיו תחשבו על כל ההחלטות שקיבלתם במחשב או בסמארטפון. כל אפליקציה שהורדתם, עסקה שביצעתם, מידע אישי שמסרתם, כל “I agree” שאי פעם לחצתם עליו. עם יד על הלב, עד כמה אתם יכולים לומר שההחלטה התקבלה מתוך מודעות מלאה והסכמה? האם הייתם חוזרים עליה בדיעבד היום אם היתה לכם האפשרות? האם בכלל שמתם לב שעשיתם אותה?
אנחנו מהמרים שאפילו לא קראתם את תנאי השימוש, אז אין לכם מוסכם על מה חתמתם ולמה הסכמתם. "קראתי את התקנון ואני מסכים" הוא כנראה השקר הכי נפוץ במאה ה-21.
בחירה חופשית היא אחד העקרונות שעליהם החברה שלנו מבוססת. אנחנו מניחים שבני האדם מסוגלים לקבל החלטות טובות עבור עצמם. אבל מצד שני, אנחנו יודעים שהסכמה היא מושג חמקמק; לפעמים היא מתקבלת על בסיס ניצול, הטעיה, פערי מידע או מניפולציה. החוק בדרך כלל מתערב כדי למנוע מצבים כאלו במטרה לוודא שבאמת יש הסכמה חופשית (למשל הגנות צרכניות). אבל הגבולות פחות ברורים בכל מה שקשור למרחב הדיגיטלי.
תבניות אפלות – מדע המניפולציה הרכה
אחת הדרכים הכי מפורסמות להשפיע על התנהגות משתמשים היא "תבניות אפלות". אלו טריקים עיצוביים שנועדו לגרום לנו לבצע פעולות מסוימות. מעצבי אפליקציות ואתרים משתמשים בכל מיני כלים ויזואליים ותכניים כדי לגרום למשתמש לבחור (או לא לבחור) באפשרות מסוימת. ריצ'רד תאלר, אחד ממחברי הספר Nudge, קורא לזה Sludge: להשתמש באותם כלים של Nudge אבל לרעה.
איך זה עובד? למשל, על ידי החבאת כפתורי "ביטול" או "הסר" במקום שלא ניתן למצוא אותם. או על ידי מודעות שמעוצבות בדיוק כמו לשוניות ניווט ומפתות את הגולש ללחוץ עליהן. דוגמה אחרת היא הוספה אוטומטית של מוצרים לעגלת הקניות האינטרנטיות (למשל כשמזמינים טיסה, חלק מהאתרים מוסיפים אוטומטית פוליסת ביטוח נסיעות). לפעמים האתרים מציגים מידע מניפולטיבי על גבול השקרי ("נותרו רק שני מקומות, הזדרזו להזמין מהר!").
תבניות אפלות משתמשות בארסנל תחמושת עיצובית – גופן, צבע אותיות, מיקום, מבוכי קישורים – כדי להקשות, לבלבל או להטעות את המשתמש. הסרטון הבא מסביר איך זה עובד – לחצו מהר על הקישור לפני שיהיה מאוחר מדי!
אלו נראים כמו דברים קטנים, אבל יש להם השפעה ממשית על ההחלטות שלנו, בעיקר בגלל שאנחנו מקבלים החלטה בתוך שברירי שנייה ולא עושים דוקטורט על כל החלטה.
הסוף לתבניות האפלות?
בפוסטים קודמים דיברנו על רגולציה עתידית על הייטק ועל בינה מלאכותית. בחודשים האחרונים הוגשה בארה"ב הצעת חוק שתאסור על שימוש בתבניות אפלות כדי לחלץ הסכמה מהמשתמשים למסור מידע אישי רגיש. באיחור של יותר מעשור המדינה עושה Anti-Privacy-Zuckering.
ההצעה מתמקדת כרגע בחברות טכנולוגיה גדולות עם יותר מ-100 מיליון משתמשים בחודש – סימן נוסף ל"טק-קלאש" שמתחולל נגד גוגל, פייסבוק ואחרות.
אם ההצעה תעבור (וסיכויה יחסית גבוהים כי היא יוזמה בין-מפלגתית), ייאסר על חברות לעצב ממשק משתמש מניפולטיבי כדי לדוג מידע אישי. איסור נוסף הוא לעצב ממשק משתמש שנועד ליצור שימוש כפייתי בקרב יישומים שמיועדים לילדים. ההצעה גם תאסור על החברות לחלק משתמשים לשתי קבוצות נפרדות ולעשות עליהם ניסויים התנהגותיים ללא הסכמתם (A/B Testing). פייסבוק ביצעה ניסוי A/B Testing ב-2014, שבו היא בדקה איך שינויים בפיד מאפשרים לפייסבוק להשפיע על מצב הרוח של המשתמשים.
כל זה מעלה שאלה – האם צריך רגולציה שתגן על האוטונומיה של בני אדם מפני מכונות ואלגוריתמים?
אוטונומיה עיצובית
"תבנית אפלה" הוא מושג עיצובי, לא משפטי. כדי שניתן יהיה לפקח על תבניות אפלות, צריך לתרגם אותו לשפה שרגולטורים ובתי משפט יכולים לעבוד איתה. מנסחי הצעת ה-DETOUR מגדירים תבנית אפלה כ"ממשק משתמש שמטשטש, חותר תחת או פוגם בקבלת ההחלטות, האוטונומיה או הבחירה של המשתמש". מלת המפתח פה היא אוטונומיה: היכולת שלנו להחליט באופן מודע וחופשי.
יהיה מעניין לראות איך יוצקים תוכן להגדרה הזו ולאיזו רזולוציה יגיעו כדי לקבוע מתי נפגעת האוטונומיה של המשתמש. כנראה שבקרוב הרגולטורים יצטרכו להכיר מושגים בסיסיים ב-UI ו-UX כדי לקבוע מתי עיצוב פוגע באוטונומיה.
לא בטוח שזה יהיה ריאלי לקבוע כל דבר ברגולציה – כמה קל צריך להיות למצוא את כפתור סגירת החשבון, האם ברירת המחדל צריכה להיות הסכמה או סירוב (וזה גם תלוי איך מנסחים את השאלה) ובאיזה צבעים ופונטים צריך להשתמש.
האם בפעם הבאה שפייסבוק תצא למסע דיג של דאטה ממשתמשים, יהיו כללים רגולטוריים שיקבעו כמה בולט צריך להיות כפתור ה-"opt-out"? בהחלט יכול להיות.
__
הפוסט נכתב יחד עם עו"ד עדן לנג. עדן הוא עורך דין ברשות ניירות ערך ומתמחה ברגולציה פיננסית ובטכנולוגיה. הדעות המובעות הן שלו בלבד ולא מייצגות בהכרח את עמדת הרשות.