מלכודת ה-AI: הכתבה שהרובוטים לא רוצים שתקראו
התרחיש שבו רובוטים ישלטו באנושות אמנם נשמע כלקוח מסרטי "שליחות קטלנית", אבל גם חוקרים ומדענים מודאגים מפיתוח רובוטים חכמים ותוכנות בינה מלאכותית. סטיבן הוקינג כבר מזהיר מ"ההתקדמות האחרונה בתולדות האנושות", ואילו אלון מאסק הקצה מיליוני דולרים כדי שמערכות המחשב יהיו קצת יותר מוסריות
- השקעה של אלון מאסק תממן פיתוח מוסר אצל מחשבים ורובוטים
- רובוט הרג עובד בפולקסווגן, ומצית את שאלת המוסר הרובוטי
- הרובוט המשרת Pepper הושק ואזל מן המלאי תוך דקה בודדת
בטוויטר התגובות הרבות נעו בין זעזוע לשעשוע מקאברי, עם תהיות כמו "האם זו תחילת התמרדות הרובוטים נגד המין האנושי?". יציאתו בימים אלה של הסרט החדש בסדרת "שליחות קטלנית", המתמקד כמובן ברובוטים מחסלים, רק הגבירה את העניין - כמו גם שמה של כתבת "פייננשל טיימס" שרה או'קונור שדיווחה על התאונה, וגרמה לרבים לעשות את הקישור הבלתי נמנע לגיבורת "שליחות קטלנית" שרה קונור.
האמת, כמובן, קצת פחות דרמטית. הרובוט המדובר הוא לא יותר ממכונה אוטומטית ופרימיטיבית למדי להרכבת מכוניות, נטולת כל סוג של בינה מלאכותית, שהופעלה בשל טעות אנוש בשעה שאזור העבודה שלה היה אמור להיות נקי מבני אדם. ואולם, נראה שהמקרה רק מחזק את החרדה הציבורית מפני כניסת רובוטים חכמים באמת ליותר ויותר תחומים בחיינו, לצד מחשבים המצוידים בבינה מלאכותית בעלת יכולות מרחיקות לכת.
לא רק פוביה
אם בעבר הרובוטים השתלבו בפסי ייצור במפעלים עלומים, הרחק מעין הציבור (כלומר, עד שמתרחשת תאונה), הרי שכיום המצב שונה לחלוטין. במעבדות MIT ובוסטון דיינמיקס מפתחים מגוון רובוטים בעלי יכולות תנועה דמיוניות, שיודעים לחקות את טכניקת הריצה של הצ'יטה ובעלי חיים אחרים; המכונית האוטונומית של גוגל כבר נוסעת בכבישי קליפורניה, נבאדה ופלורידה; הרובוטים המעופפים הם אחד הטרנדים החמים של השנים האחרונות, ואם התוכניות של אמזון יתממשו עשויים להיות העתיד של המשלוחים; בחדרי ניתוח נעזרים יותר ויותר בזרועות רובוטיות לניתוחים מסובכים, וביפן הושק החודש הרובוט Pepper, שמסוגל לנתח רגשות אנושיים.
גם מערכות הבינה המלאכותית הפכו מתיאוריה לפרקטיקה: רבים מאיתנו משתמשים בסמארטפון בעוזרות וירטואליות כמו סירי וקורטנה, ומחשב העל ווטסון של IBM (שהפך לפלטפורמת ענן) צפוי להשתלב גם כן ביישומי מובייל בתחומים שונים, מבישול ועד רפואה. המערכות העכשוויות בתחום יודעות לפענח תמונות, לזהות פנים, לצייר, להלחין, ללמוד כיצד לשחק במשחקי וידיאו ואפילו לתכנת - פיתוחים שלצד התועלת שבהם מעוררים מרבצם את הפחדים מפני מחשבים חזקים ונבונים מדי, כאלה שעלולים יום אחד להתמרד ולהפנות את עוצמתם נגד בני האדם.
חרדה זו מתבטאת בגל מחודש של סרטים בנושא בשנים האחרונות: "Her" המפורסם של ספייק ג'ונס אמנם הציג עולם חביב למדי שבו בני אדם מתאהבים באינטליגנציה המלאכותית, אך לצדו יצאו לאקרנים גם "התעלות" שבו הופך ג'וני דפ לישות ספק אנושית, ספק ממוחשבת - קטלנית ושוחרת רע; "אקס מכינה" של אלכס גרלנד העוסק במייסד הכריזמטי של ענקית טכנולוגיה דמויית גוגל, ובניסיונותיו המפוקפקים ליצור רובוטיות תבוניות; "צ'אפי" שמציג גרסה דיסטופית של העיר הדרום אפריקאית יוהנסבורג שבה שולט צבא רובוטים; וגם הסרט החדש בסדרת "שליחות קטלנית", "ג'נסיס", שמגיע השבוע לקולנוע בישראל.
ואולם, לא רק יוצרי מדע בדיוני מעלים את בעיית המוסר הרובוטי (כשהבולט בהם היה אייזיק אסימוב), וגם לא מדובר רק בפוביה ציבורית מפני הלא נודע, אלא בבעיה שמעסיקה כיום כמה מהדמויות הבולטות ביותר בעולם הטכנולוגיה.
היזם אלון מאסק, למשל, טען כי פיתוח לא מבוקר של בינה מלאכותית עלול להיות מסוכן יותר מפצצות גרעין, והזהיר בעיקר מיוזמותיה של גוגל בתחום. בינואר האחרון הביע גם ביל גייטס את חששו מהתפתחות כזו בדיון באתר רדיט, ואילו סטיבן הוקינג גרס כי יצירת אינטליגנציית-על מלאכותית ובעלת תודעה "יכולה להיות האירוע החשוב ביותר בהיסטוריה האנושית, אבל למרבה הצער גם האחרון, אם לא נשכיל להימנע מהסכנות שטמונות בו".
מרבית החוקרים המומחים לתחום, על פי סקר שערכה המחלקה לפילוסופיה בהרווארד, סבורים כי ישנו סיכוי של 50% להגיע לבינה מלאכותית ברמת תחכום אנושית עד שנת 2050, וסיכוי של 90% לעשות זאת עד 2080.
חתול בסכנה
כדי להתמודד עם ההשלכות האפשריות, פרסם בתחילת השנה פרופ' סטיוארט ראסל מאוניברסיטת ברקלי, אחד מחלוצי הבינה המלאכותית, מכתב פתוח שעליו חתמו מאות מדעני מחשב, יזמים העוסקים בבינה מלאכותית ובכירים בחברות כמו גוגל, מיקרוסופט, IBM ופייסבוק. החותמים קראו לניתוב המחקר בתחום לפיתוח מערכות בינה מלאכותית בעלות תועלת חברתית, במקום להתמקד רק בשיפור היכולות הטכניות. הקריאה זכתה השבוע להמשך מעשי יותר בדמות יוזמה של מאסק וארגון המדענים האמריקאי "Future of Life", מיוזמי העצומה של ראסל, להקמת 37 צוותי מחקר בהשקעה של 10 מיליון דולר. הצוותים יעסקו בשאלות כמו "איך להתאים את האינטרסים של מערכות מחשוב סופר-אינטליגנטיות לערכים אנושיים" או "כיצד לשמור על מערכות נשק מבוססות בינה מלאכותית תחת שליטה אנושית ראויה".
לטענת ראסל, בפני חוקרי התחום לא עומדות עוד בעיות רבות בדרכם לבנות מחשבים בעלי יכולות חשיבה מקבילות לאלו של בני אדם, ולא מדובר בהכרח בבשורה משמחת. "המדענים האלה לא חושבים מספיק על ההשלכות הרחבות של מחקריהם", אמר ראסל למגזין "ויירד", והזהיר מפני תרחיש שבו מחשבים יוכלו לשפר בעצמם את התוכנה והחומרה שלהם, תהליך שעלול לצאת משליטה ללא פיקוח אנושי מספיק.
מעבר לתרחיש אימים בסגנון "סקיינט" מ"שליחות קטלנית", הבעיות עלולות להיות יומיומיות בהרבה: למשל, רובוט לניהול משק בית שהחליט להכין ארוחת ערב מהחתול המשפחתי כפתרון למחסור במצרכים. כדי למנוע זאת, אומר ראסל, צריך לפתח מנגנונים שיטמיעו ברובוטים הבנה של קונפליקטים ערכיים ושל פתרונם הראוי. "יש כאן גם אינטרס כלכלי, לא רק מוסרי", אומר ראסל. "מספיק שמקרה החתול יקרה פעם או פעמיים ואף אחד לא ירצה רובוט בביתו".
עו"ד רובוטי
פן אחר של החרדה מהרובוטים מתמקד בהשלכה קרובה ומוחשית הרבה יותר של ההתקדמות הטכנולוגית: החשש של אנשים לפרנסתם. מחקרים העוסקים בשאלה "האם רובוטים ייקחו לך את העבודה" מתפרסמים לאחרונה בקצב הולך וגובר, וחלק מהנתונים בהחלט מאיימים. לפי חברת המחקר בוסטון גרופ, למשל, רובוטים מבצעים כיום בארה"ב רק 10% מהעבודות שהטכנולוגיה הנוכחית מאפשרת להם לבצע, ולהערכתה עד 2025 יגדל שיעור זה ל-25%. מי שישלמו את המחיר יהיו עובדים אנושיים שיאבדו את מקומות עבודתם או יסבלו מירידה בשכר.
כבר כיום יותר ויותר מטלות מועברות לטיפול רובוטים ואלגוריתמים, מהרכבת מכוניות ועד איתור וסיכום מידע משפטי, שעד לאחרונה היווה חלק ניכר מהעבודה של עורכי דין בתחילת דרכם. תחזיות רדיקליות יותר מאלה של בוסטון גרופ, כמו זו של ד"ר מגי אדרין-פוקוק מאוניברסיטת לונדון, מדברות על היעלמות של מקצועות שלמים במדינות המערב בתוך כמה עשורים, ובהם סיעוד או תיווך נדל"ן.
"יש לא מעט היסטריה והגזמה סביב נושא הבינה המלאכותית, ותמיד יהיה אחוז מסוים מהאוכלוסייה שפוחד מכל שינוי", אומר ל"כלכליסט" ד"ר יורם קלמן, חוקר ומרצה בכיר במחלקה לניהול ולכלכלה באוניברסיטה הפתוחה. "עם זאת, חשוב שלא לתת לאנשי הטכנולוגיה לקבל לבדם את ההחלטות בסוגיות בעלות השפעות חברתיות מרחיקות לכת. בסופו של דבר, שינויים רחבים מתרחשים לא רק בגלל ההתקדמות במחקר, אלא בעקבות הדרכים שבהן היא מיושמת. אז נכון, התרחיש שבו חלק מהאנשים יאבדו את פרנסתם או יעבדו בתנאים פחות טובים אפשרי. ואולם, מצב כזה יתרחש בגלל החלטות פוליטיות וכלכליות לא פחות מאשר בגלל הטכנולוגיה עצמה".
למרות החששות, תרחיש שבו מתקבלת החלטה כלל-עולמית לעצור את פיתוח הרובוטים ואלגוריתמי הבינה המלאכותית נראה לפי שעה תלוש מהמציאות לא פחות מסרטי המדע הבדיוני שמזינים את הדאגה. גם המומחים שמביעים את חששם מפני ההשלכות מעדיפים להתמקד בשאלה כיצד ניתן לנצל את ההתקדמות בתחום באופן חיובי ולא הרסני, ולא כיצד לעצור או להגביל אותה.
"התועלות האפשריות הן אדירות", כתב גם הוקינג עצמו בחלק האופטימי יותר של מאמרו. "לא ניתן לנבא לאן נוכל להגיע מהחיבור בין התבונה האנושית לכלים שהבינה המלאכותית תציע לנו, ופתרון אמיתי לבעיות כמו רעב, עוני ומגפות יוכל להיות בהישג יד. עם זאת, עלינו להיערך לכך כפי שהיינו נערכים לפלישה של גזע חוצנים רב עוצמה שהיה מודיע לנו כי הוא בדרכו לכדור הארץ. על כולנו לשאול את עצמנו מה ניתן לעשות כדי להגדיל את הסיכויים לקטוף את הפירות של ההתרחשות הזו, ולמזער את סיכוניה".