כשהמטרה טובה, אבל השיטה מסוכנת: הלקח האמיתי מהסרטון נגד קניה ווסט
הבינה המלאכותית היוצרת, ובמיוחד יכולות ההתחזות שהיא מאפשרת, יוצרות סכנה עצומה לציבוריות העולמית בכלל ולכלכלה הדיגיטלית בפרט. סרטונים המסוגלים לחקות בדיוק מפחיד את דמותם וקולם של דמויות מוכרות לנו מפוליטיקאים וסלבריטאים ועד חברים וקרובי משפחה שלנו- עשויים לשחוק לחלוטין את אמון הציבור בכל אדם, ארגון ומדינה ולהוביל לכאוס חברתי מוחלט. דוגמא לכך היא הסרטון הויראלי שהציג דמויות יהודיות בולטות מגנות לכאורה את קניה ווסט על עמדותיו האנטישמיות. הסרטון עורר דיון סוער בעולם כולו אבל לאו דווקא את הדיון שיוצריו ביקשו להצית: אף שהמטרה הייתה להוקיע את תופעת האנטישמיות, האופן שבו הסרטון נוצר והופץ עורר בצדק דיון נוקב על הסכנות הטמונות בטכנולוגיית הדיפ פייק והפערים האתיים בתחום הבינה המלאכותית.
הסרטון היה כה ריאליסטי עד שעבורי, כמי שעוסקת בתחום מניעת הונאות פיננסיות ברשת, הוא עורר יותר דאגה מאשר התפעלות מהטכנולוגיה או הזדהות עם התוכן. הסרטון, כפי שעולה מתגובתה של השחקנית סקרלט ג׳והנסון, כנראה לא קיבל את אישור האנשים שאת דמותם הוא מחקה וגם אם אישור כזה היה מתקבל, לא צוין בו כי מדובר בתוכן שנוצר באמצעות בינה מלאכותית. גם אם יוצרי הסרטון לא הסתירו את אופן יצירתו, מיליוני גולשים שנתקלו בו ברשת חשבו כי מדובר בסרטון אמיתי ולכן הוא זכה לתהודה כה גדולה.
בעיה גדולה אפילו יותר בסרטון היא שהוא עשוי לנרמל טקטיקות הונאה מהעולם הפלילי בתקשורת. מנסיוני בתחום מניעת הונאות פיננסיות, ראיתי כיצד נוכלים מנצלים את רגשותינו ואת אמוננו, תוך שימוש ברטוריקה משכנעת שמסתירה את כוונותיהם האמיתיות. שימוש בדמויות מזוייפות של סלבריטאים בפרסומות המשמשות להונאה הפכו לנפוצות ביותר ברשת. באנגליה, לדוגמא, מדובר באחת מארבע משיטות המרמה הנפוצות ביותר. ההתרעמות על הסרטון אינה קשורה לזכות היצירה או לחופש הביטוי, היא נוגעת לחובה לקבוע תקן של שקיפות ויושרה על כל תוכן, ללא קשר למקורו. אם נסכים לשימוש בחיקויים סינטטיים של דמויות ציבוריות בטכניקות מניפולטיביות המזכירות תרמיות מקוונות, נתרום במו ידינו ליצירת סביבה בה איננו יכולים יותר לסמוך על שום דבר, ובכך נסכן את תשתית החברה הדיגיטלית שלנו.
ההשפעות של תוכן מזויף חורגות כמובן הרבה מעבר להונאות כלכליות. דיפ פייק המשמש לעיוות השיח הציבורי עלול לשבש תהליכים דמוקרטיים, להעליל ולהטיל דופי באנשים פרטיים ודמויות ציבוריות ולהגביר את הקיטוב חברתי.
בהמשך לדיון הסוער על הסרטון, התפרסמו מגוון כתבות המייעצות לציבור כיצד לזהות תוכן שנוצר באמצעות בינה מלאכותית. . מה שחסר ברבות מהכתבות הללו היא המילה ״כרגע״ - כרגע הטכנולוגיה היא ברמת הבשלה כזו שעוד ניתן פה ושם לזהות סימנים מחשידים לכך שמדובר בדיפ פייק אבל, מאחר שתחום הבינה המלאכותית, מתפתח במהירות אדירה, לא רחוק היום שבו לא תהיה לנו שום דרך להבחין בזיוף. לכן, עלינו לפתח כלים חדשים שיסייעו לנו לנווט בעולם החדש בו חלק מהחושים שלנו כבר לא יכולים להגן עלינו מסכנות.
הצעד הראשון הוא רגולציה, אתיקה ואחריות. כל גורם שאינו עברייני חייב לסמן בברור את התוכן שלו המיוצר באמצעות בינה מלאכותית. בדיוק כפי שפרסומות מחויבות להצהיר "המציגים הינם שחקנים", עלינו לקבוע חובה לסמן תכנים שנוצרו על ידי בינה מלאכותית כדי להבטיח שקיפות ולמנוע הטעיה. הצעד השני ההכרחי הוא חינוך הציבור, מילדים ועד קשישים, להטיל ספק במה שהם רואים, במיוחד כאשר מצופה מהם לבצע פעולה כלשהי החל מהעברת כסף ועד הצבעה בבחירות.
לבסוף, אל מול השימוש השלילי שעושים בה, הבינה המלאכותית יכולה לשמש גם ככלי רב עוצמה להגנה וזיהוי הונאות. מערכות מבוססות בינה מלאכותית מסוגלות לנתח דפוסים ולהצליב מידע בזמן אמת כדי לאתר סימנים להתחזות או זיוף, בין אם מדובר בפרופילים מזויפים ברשתות החברתיות, ניסיונות דיוג (Phishing) בהודעות דוא"ל או זיופים קוליים ווידאו מתוחכמים. כדי לנצל את כוחה של הבינה המלאכותית לטובת הגנה על הציבור, יש לקדם פיתוח של כלי זיהוי מתקדמים, לחזק את שיתוף הפעולה בין גורמים טכנולוגיים, גופי ממשל וגורמי אכיפה, ולוודא שהטכנולוגיה משרתת את האינטרס הציבורי ולא את מי שמנסים לנצל אותה לרעה.
אילת אליעזר היא Chief Product Officer בחברת BioCatch המסייעת לבנקים ומוסדות פיננסיים להיאבק בהונאות פיננסיות ברשת