תחקיר וושינגטון פוסט: האם השימוש ב-AI פוגע ביכולות המודיעין של צה"ל
תחקיר וושינגטון פוסט: האם השימוש ב-AI פוגע ביכולות המודיעין של צה"ל
לאחר מתקפת החמאס ב-7 באוקטובר צה"ל הפציץ את עזה - אבל בנק המטרות החל להצטמצם, וכדי לשמור על קצב הלחימה בצה"ל פנו לכלי AI שנקרא "הבשורה". התומכים רואים בלמידת המכונה יעילה ועוזרת ללוחמים בשטח, המתנגדים אומרים שהמערכות עדיין לא מדויקות מספיק לשימוש
לאחר מתקפת החמאס בשבעה באוקטובר, צה"ל החל להפציץ את עזה תוך התבססות על מאגר מידע שנבנה במשך השנים שכלל כתובות מגורים, מיקום מנהרות ותשתיות אחרות שמהותיות לארגון הטרור - אבל לאחר זמן מה בנק המטרות החל להצטמצם. כדי לשמור על קצב הלחימה בצה"ל פנו לכלי מתקדם של בינה מלאכותית שנקרא "הבשורה", שיכול לייצר במהירות מאות מטרות נוספות.
השימוש ב-AI כדי למלא במהירות את בנק המטרות של צה"ל אפשר לצבא להמשיך ללא הפרעה בתקיפות, כך לדברי שני אנשים המעורים בפעילות. זו מהווה גם דוגמה לאופן שבו התוכנית שהוקמה לפני עשור לקידום כלי AI למרכז פעילות המודיעין של הצבא לקחה חלק מרכזי במלחמה בעזה הנמשכת כבר 14 חודשים.
בצה"ל אמנם לא הסתירו את קיומן של התוכניות הללו, שלפי חלק מהמומחים כוללות את השימוש המתקדם ביותר ב-AI למטרות צבאיות, אך התחקיר של ה"וושינגטון פוסט" חושף כעת פרטים חדשים שעד כה לא נחשפו לגבי היכולות של תוכנית למידת המכונה, זאת לצד ההיסטוריה הסודית של הפיתוח שלה לאורך העשור האחרון.
התחקיר חושף גם דיון נחרץ בתוך הדרגים הגבוהים של הצבא, שהחל שנים לפני מתקפת החמאס, לגבי האיכות של המודיעין שנאסף באמצעות AI, כולל אם ההמלצות של הכלים הללו מספיק מבוססות ואם ההתמקדות ב-AI מחלישה את יכולות המודיעין הכלליות של צה"ל. לטענת חלק מהמתנגדים בתוך הצבא, תוכנית ה-AI הייתה כוח מאחורי הקלעים שהגדיל את מספר ההרוגים בעזה, שלפי משרד הבריאות הפלסטיני עומד על 45 אלף אנשים, שיותר ממחציתם הם נשים וילדים.
הנתונים שמעביר משרד הבריאות לא מבדיל בין אזרחים הרוגים ומחבלים. מצה"ל נמסר בתגובה כי המשרד נשלט על ידי חמאס והנתונים שהוא מספק "מלאים באי דיוקים והצהרות כוזבות".
אנשים המעורים בהתנהלות של צה"ל, ביניהם חיילים ששירתו במלחמה, טוענים כי הצבא הרחיב משמעותית את מספר האזרחים ההרוגים שנחשב למקובל לעומת הנורמות ההיסטוריות. חלקם אף גורסים כי השינוי התאפשר בשל האוטומציה, שמייצרת במהירות כמויות גדולות של מטרות חדשות, כולל של דרגים נמוכים בחמאס שהשתתפו בהתקפה בשבעה באוקטובר.
התחקיר מתבסס על ריאיונות עם יותר מעשרה אנשים המעורים במערכות, רבים מהם ביקשו להתראיין בעילום שם מכיוון שמדובר בנושאים של ביטחון לאומי.
"מה שקורה בעזה הוא ההקדמה לשינוי נרחב יותר באופן בו מלחמות נערכות", אמר סטיבן פלדסטין, חוקר בכיר במכון המחקר Carnegie Endowment, שחוקר את השימוש ב-AI במלחמה. לדבריו, נראה שצה"ל הוריד במהלך המלחמה את הרף של שיעור האזרחים ההרוגים המקובל. "זאת בשילוב עם ההאצה שהמערכות הללו מציעות ושאלת הדיוק שלהן, והתוצאה היא מספר הרוגים גבוה יותר ממה שעד כה עלה על הדעת בזמן מלחמות".
מצה"ל נמסר כי הטענות ש-AI מסכן חיים "רחוקות מהמציאות".
"ככל שיש יכולת מוגברת להשתמש בצורה יעילה בפרטי מידע, כך ההליך הופך מדוייק יותר", נמסר מצה"ל בהצהרה בתגובה. "אם כבר, לכלים האלה יש נזק היקפי מינימלי והם מעלים את הדיוק של התהליך האנושי".
לפי הנחיות הצבא, קצין צריך לאשר את ההמלצות המגיעות ממערכות "עיבוד המידע הגדולות", כך לדברי קצין מודיעין בכיר. הוא הוסיף כי מערכת הבשורה וכלי AI אחרים לא מקבלים החלטות באופן אוטונומי.
הליך השינוי ביחידת 8200 הואץ מאז 2020 ותחת פיקודו של יוסי שריאל, וכלל טרנספורמציה בעבודת היחידה ובאופן איסוף המודיעין. שריאל פיקד על הפיתוח של הבשורה, תוכנה של למידת מכונה שמבוססת על מאות אלגוריתמים של תחזיות, ומאפשרת לחיילים לסקור במהירות מאגר מידע, המכונה בקרב הצבא כ"בריכה".
האלגוריתמים עוברים על הררי נתונים שנאספים משיחות שיורטו, צילומי לוויין ורשתות חברתיות, ופולטים את נקודות הציון של מנהרות, טילים ויעדים צבאיים אחרים. ההמלצות ששורדות את ניתוח המודיעין מוכנסות על ידי קצין בכיר לבנק המטרות.
בעזרת שימוש בתוכנה לזיהוי תמונות, החיילים יכולים לזהות דפוסים עדינים, כולל שינויים זעירים לאורך השנים בצילומי לוויין של עזה, שמצביעים על כך שחמאס קבר משגר רקטות או חפר מנהרה חדשה בקרקע חקלאית. קצין לשעבר הסביר כי בכך אפשר לבצע עבודה של שבוע בתוך 30 דקות בלבד.
כלי נוסף של למידת מכונה, הנקרא לבנדר, משתמש באחוזים כדי לחזות את הסבירות שפלסטיני הוא מחבל, ובכך הצבא יכול לייצר מאגר גדול של יעדי חיסול פוטנציאליים. לתוכניות נוספות המבוססות על אלגוריתמים יש שמות כמו האלכימאי ו- Hunter and Flow. התוכנה הזו מאפשרת לחיילים לסקור מאגרי מידע שונים ועד כה לא דווח עליה.
בעזרת שימוש בתוכנה לזיהוי תמונות, החיילים יכולים לזהות דפוסים עדינים, כולל שינויים זעירים לאורך השנים בצילומי לוויין של עזה, שמצביעים על כך שחמאס קבר משגר רקטות או חפר מנהרה חדשה בקרקע חקלאית
מספר קצינים ביחידה הביעו חשש שטכנולוגיית למידת המכונה, שמאיצה את הליך קבלת ההחלטות, טומנת בחובה מספר כשלים. הדיווחים שהועברו לפיקוד הבכיר לא כללו פירוט כיצד הושג המודיעין, כלומר אם על ידי ניתוח אנושי או על ידי מערכות AI – כך שלבכירים קשה להעריך את הממצאים, כך לדבריו של קצין בכיר לשעבר. שני קצינים לשעבר נוספים טענו כי ביקורת פנים מצאה כי בחלק ממערכות ה-AI לעיבוד השפה הערבית היו אי דיוקיים, כולל טעויות בהבנת סלנג וביטויים.
טכנולוגיית לימוד המכונה של צה"ל גם חוזה מה מספר האזרחים שייפגעו כתוצאה מהתקפה, ובכך מסייעת לישראל לעמוד במרכיב מרכזי בחוק הבינלאומי. במלחמה בעזה, ההערכות לגבי מספר האזרחים שעלולים להיפגע מתקיפות חיל האוויר נערכו באמצעות תוכנה לכריית נתונים, תוך שימוש בכלים לזיהוי תמונות כדי לנתח צילומים של כתב"מים לצד איתור אותות של מגדלים סלולריים וזאת כדי לחשב את מספר האזרחים בכל אזור, כך לפי שני אנשים המעורים בנושא.
לפי טל מימרן, לשעבר יועץ משפטי לצה"ל, ב-2014 יחס האזרחים ההרוגים שהוגדר כמקובל על ידי צה"ל עמד על אזרח אחד עבור כל טרוריסט בדרג גבוה. במלחמה הנוכחית היחס עלה לסביבות 15 אזרחים עבור כל חבר חמאס בדרג נמוך. היחס הזה עלה "באופן אקספוננציאלי" לגבי חברי חמאס בדרג בינוני עד גבוה, כך לטענת ארגון שוברים שתיקה, שהתבסס על עדויות של חיילים. בניו יורק טיימס דיווחו כי הנתון עומד על 20 אזרחים הרוגים.
מצה"ל נמסר כי הערכות לגבי הנזק היקפי תואמות לחוק המלחמה, שמחייב מדינות להבדיל בין אזרחים ולוחמים ולנקוט בצעדים להגן על אנשים.
בין התומכים בשימוש של ישראל בטכנולוגיה יש שטוענים שיישום אגרסיבי של חידושים כמו AI הוא מהותי לשמירה על קיומה של מדינה קטנה שעומדת מול אויבים נחושים וחזקים. "עליונות טכנולוגית שומרת על ביטחון ישראל", אמר בלייס מיסטל, סגן נשיא למדיניות במכון היהודי לביטחון הלאומי של אמריקה, שתודרך על ידי חיל המודיעין על יכולות ה-AI של הצבא כבר ב-2021. "ככל שישראל תוכל לזהות מהר יותר את יכולות האויב ולגבור עליהן בשדה הקרב, כך המלחמה תהיה קצרה יותר, ויהיו פחות נפגעים".
בנוסף לחששות לגבי האיכות של מודיעין המגיע מכלי AI, השימוש בטכנולוגיה הוביל לשינוי בפרדיגמה בתוך הצבא, ודחק החוצה תרבות מודיעינית שלאורך ההיסטוריה העדיפה יכולות אנושיות על פני כוחות טכנולוגיים, כך לפי שלושה אנשים. ב-8200 עודדו תמיד אנליסטים בדרגים נמוכים לעקוף את המפקדים שלהם ולהעביר התרעות ישירות למפקדים הבכירים.
לפי אותם שלושה אנשים, תחת הפיקוד של שריאל וקצינים בכירים נוספים, 8200 עברה ארגון מחדש המתמקד במהנדסים תוך הדרת מומחים בשפה הערבית. כמו כן ביחידה הדיחו מספר קצינים שהיו ידועים כמתנגדים ל-AI וביטלו צוותים שלא התמקדו בטכנולוגיית כריית מידע. עד השבעה באוקטובר 60% מהחיילים ביחידה עבדו בתפקידי הנדסה וטכנולוגיה, כפול המספר לפני עשור.
עם זאת, התנהלות המודיעין של צה"ל סופגת ביקורת קשה. אישומים על רצח עם שהובאו נגד ישראל בבית המשפט בהאג על ידי דרום אפריקה מעוררים את השאלה האם החלטות קריטיות בנוגע להפצצת מטרות בעזה התקבלו על ידי תוכנה, והחקירה בעניין עלולה להצית דיון עולמי לגבי תפקיד ה-AI בלוחמה.
שריאל הודיע בספטמבר על כוונתו לפרוש מצה"ל, זאת לנוכח האשמות על מחדלי מודיעין שהובילו למתקפת השבעה באוקטובר. לטענת שני מפקדים בכירים לשעבר, ההתמקדות הזו ב-AI הייתה אחת הסיבות המרכזיות לכך שישראל נתפסה לא מוכנה באותו היום. היחידה נתנה עדיפות מוגזמת לממצאים טכנולוגיים והקשה על האנליסטים להעבער אזהרות לפיקוד הבכיר. "זה היה מפעל של AI", אמר קצין בכיר לשעבר שביקש להישאר בעילום שם. "האדם הוחלף על ידי המכונה".
שריאל באמצעות הצבא סירב להגיב על הכתבה.
ב-2019, שנתיים לפני שמונה למפקד 8200, העביר שריאל שנת שבתון באוניברסיטת הביטחון הלאומי – מוסד בוושינגטון במימון הפנטגון, שמכשיר בכירים במערכת הביטחון בכל העולם. מרצה באוניברסיטה, שביקש להישאר בעילום שם, סיפר שהוא ושריאל חלקו תפיסה רדיקלית לגבי השימוש ב-AI בשדה הקרב, וטענו כי ישראל צריכה לפרוץ קדימה לעומת בנות ברית זהירות יותר של ארה"ב. "יוסי החזיק בתפיסה שהדבר הזה מתקדם במהירות, מהר יותר מכפי שאנשים מבינים וכדאי שכולם יצטרפו למגמה", אמר המרצה.
ספר שכתב שריאל באותה שנת שבתון ופורסם תחת שם עט, מפרט את החזון שלו להטמעת אוטומציה במוסדות לביטחון לאומי. בספר, The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence,, מתאר שריאל כיצד ניתן יהיה לחזות מראש את הפעולות של טרוריסטים בודדים באמצעות אלגוריתמים לניתוח מיקומים של טלפונים, פוסטים במדיה החברתית, צילומי רחפנים ושיחות. לפי החזון המורחב של שריאל, AI יגע בכל האספקטים של תחום הביטחון, הן בזמני שלום והן בעתות מלחמה. על ידי שימוש בטכנולוגיות מעקב של AI, הגבולות של ישראל יהפכו להיות "גבולות חכמים". על ידי איסוף דיגיטלי צבאות יוכלו לבנות מראש "בנקי מטרות", הכוללים שמות, מיקומים ודפוסי התנהגות של אלפי חשודים. הטכנולוגיות הללו יוכלו להחליף בתוך חמש שנים בלבד 80% מהאנליסטים שמתמחים בשפות זרות, כך לפי שריאל.
הוא חזר לישראל מתוך כוונה להוציא את הרעיונות הללו לפועל. בקיץ 2020 הוא מונה על ידי הרמטכ"ל דאז אביב כוכבי למפקד 8200. עם זאת, מפקדים לשעבר הביעו חשש לגבי "הגישה הדתית כלפי AI" שהתפתחה ביחידה תחת פיקודו של שריאל, כך לדברי שני אנשים המעורים בנושא. כוכבי סירב להגיב.
כששריאל נכנס בפועל לתפקיד מפקד היחידה בפברואר 2021, היא כבר התנסתה בניתוח נתונים במשך שבע שנים. ליחידה הנחשבת כבר יצא מוניטין בזכות איסוף מגוון של הודעות טקסט, מיילים, רישומי שיחות ופירורים דיגיטליים אחרים באמצעות שימוש בטכנולוגיות סייבר שפותחו בה ונחשבו לטובות ביותר בעולם. אך מומחי הסייבר של 8200 היו צריכים למצוא דרך להבין את המידע שאספו.
לאחר כשלי תקשורת במהלך מלחמת לבנון השנייה ב-2006 בצבא הישראלי חישבו מסלול מחדש לגבי האסטרטגיה של שיתוף מידע. העיתונאי בן כספית הסביר כי באותו הזמן, חטיבות המודיעין לא נטו לחלוק מידע עם החיילים בשדה הקרב. כדי למנוע כשלים, המוסד ביחד עם 8200 פיתח מאגר מידע – "הבריכה" – לאחסון כל המודיעין הצבאי תחת גג אחד.
בעוד גל ה"ביג דאטא" שטף את עמק הסיליקון, המהנדסים הישראלים החלו להתנסות בכלים חדשים של כריית מידע שיכולים לתרגם ולנתח מסרים בערבית ובפרסית. מפקדי היחידה התלבטו האם לחבור למומחים כמו חברת פלנטיר מעמק הסיליקון או לבנות תוכנה משל עצמם.
בסופו של דבר הוחלט לבנות לבד, אך לטכנולוגיות על אף ההבטחה שלהן היו מגבלות. לעיתים הנפח של ההתקשרויות שהושגו היה גדול מדי עבור האנליסטים של היחידה. כך למשל, מחבלי החמאס נהגו להשתמש לעיתים קרובות במילה "אבטיח" בערבית כקדוד לפצצה, אך המערכת לא הייתה חכמה מספיק להבדיל בין שיחה על אבטיח הפרי ושיחות מוצפנת בין מחבלים. "אם תופסים אלף שיחות ביום, האם באמת רוצה לשמוע על כל אבטיח בעזה?" אמר אדם המעורה בנושא.
שריאל בתוקף תפקידו כמפקד היחידה האיץ את מאמצי כריית המידע. הוא פיקח על ארגון מחדש נרחב שחילק את מאמצי המודיעין למה שהמפקדים כינו כ"מפעלי AI" שמוקמו במרכז חדש בבסיס חיל האוויר בנבטים. כל צוות תכנן מאות אלגוריתמים וטכנולוגיות למידת מכונה, וחלקו תחזיות של התוכנות לכל אורך שרשרת הפיקוד של חיל המודיעין.
הצבא השקיע גם בטכנולוגיות ענן חדשות, שעיבדו במהירות אלגוריתמים וזאת כהכנה לעימות צפוי עם חיזבאללה בגבול הצפון. אפליקציה בשם צייד (Hunter) אפשרה לחיילים בשדה הקרב להשיג מידע באופן ישיר. אפליקציה נוספת בשם Z-Tube מאפשרת לחייילים במהלך הקרב לצפות בסרטונים חיים של אזורים אליהם הם עמדו להיכנס, ואילו האפליקציה Map It, מספקת הערכות בזמן אמת לפגיעה אפשרית באזרחים באזור ספציפי שפונה.
ב-8200 מחזיקים בבנק מטרות: רשימה של ציוני GPS של יעדי תשתיות ומפקדים של החמאס וחיזבאללה, המקושרים למנהרה ספציפית או לקומה בבניין דירות. תחזוקת בנק המטרות חייבה כוח אדם נרחב – אנליסטים נדרשו לאשר את הממצאים שלהם עם לפחות שני מקורות עצמאיים ולרפרש את המידע באופן קבוע, כך לפי שלושה אנשים. לפני שמטרה נכנסת באופן רשמי לבנק, קצין בכיר היה צריך לאשר אותה ועורך דין צבאי וידא שהיא עומדת בחוק הבינלאומי, הוסיפו חמישה אנשים נוספים. אולם, מפקדי המודיעין בהובלת שריאל האמינו שלימוד מכונה יכול להאיץ משמעותית את התהליך.
"לקח למפקדי המודיעין שנים להשיג בנק של מטרות מסוג זה, אך מה יקרה אם יכשירו מודל AI לחקות את העבודה של הקצין המיועד?" אמר קצין בכיר לשעבר המעורה בהליך החדש. המאמצים כללו איסוף מיליארדי אותות מחיישנים שהוצבו על כטב"מים, מטוסי 35-F ומוניטורים תת קרקעיים, וכן משיחות שצותתו להן. האותות הללו שולבו עם מאגרי המידע שכללו מספרי טלפון, פרופילים במדיה החברתית, אנשי קשר, קבוצות צ'אט ומסמכים פנימיים. המידע הזה הוזן לתוך תוכנה שיכולה לזהות דפוסים ולנבא מי ומה אפשר לתקוף.
אלגוריתם לזיהוי תמונה הוכשר לחפש אלפי תמונות לוויין ולזהות סוג מסויים של בד שמחבלי החמאס השתמשו בו כדי להסתיר חפירות למיקום משגרי רקטות. הכלים הללו ריכזו שבוע עבודה בתוך 30 דקות, טען קצין לשעבר. "הם באמת האמינו בכל החיישנים שהיו להם מסביב ומעל לעזה, אני לא אגיד שהייתה מודעות מוחלטת לכל המידע, אבל הייתה להם תמונה ברורה למדי של מה שקורה בפנים", אמר מיסטל, שעומד בראש ארגון שמתמקד בשיתוף פעולה ביטחוני בין ארה"ב וישראל.
לבנדר, תוכנית מבוססת אלגוריתמים שפותחה ב-2020, עברה על נתונים כדי לייצר רשימה של מחבלי חמאס פוטנציאליים, והעניקה לכל אחד ניקוד שהעריך את הסבירות שיהיה חבר בארגון, כך לפי שלושה אנשים המכירים את המערכת. גורמים שעלולים להעלות את הציון של אדם כללו חברות בקבוצת ווטסאפ שבה היו מחבלים מוכרים, שינוי תדיר של כתובות מגורים ומספרי טלפון או אזכור במסמכים של החמאס.
ההערכות שביצעו האלגוריתמים השנים הוזרמו למערכת אחת, הבשורה שתוחקרה על ידי אנליסטים. חלק ממפקדי היחידה הביעו חשש לגבי רמת הדיוק של האלגוריתמים האלה. כך, בודק של טכנולוגיה לעיבוד שפה חשף שהתחזית של התוכנה לא הייתה מדוייקת כמו תחזיות שקצינים היו יכולים להציע, כך לפי שני אנשים. אחרים חששו שהתחזיות של התוכנה קיבלו יותר מדי משקל. לרוב, חטיבת המחקר מייצרת דו"חות מודיעין יומיים של יעדים פוטנציאליים המיועדים לפיקוד הבכיר, אך בעוד שאנליסט פשוט יכול להקליק כדי לראות על מה מתבססת התחזית, בפיקוד לא קיבלו עדכון האם ההמלצה נובעת מהמידע של האלגוריתם או מאיסוף מודיעין מסורתי.
"כל המידע טופל באותה צורה", אמר בכיר לשעבר נוסף. "אני אפילו לא בטוח אם האדם שהכין את הדו"ח ידע את ההבדל בין חלקי המידע". לטענת שני קצינים בכירים לשעבר, ההתמקדות הזו בטכנולוגיה שחקה את "תרבות ההתרעות" של 8200, במסגרתה אנליסטים בדרג נמוך יכלו לתדרך בקלות מפקדים בכירים לגבי החששות שלהם. לדבריהם, השינוי הזה הוא אחת הסיבות לכך שישראל לא הייתה מוכנה למתקפת השבעה באוקטובר. לראיה, אנליסטית מנוסה שהשיגה את תוכניות הקרב של החמאס לפרוץ את החומה לא הצליחה להשיג פגישה בזמן עם מפקדי החיל. "השורה התחתונה היא שאי אפשר להחליף את הבחור שצועק 'תקשיבו לי, זה מסוכן' גם עם כל טכנולוגיית AI המתקדמת בעולם", הוסיף כספית. "זה ההיבריס שפגע ביחידה כולה".
ב-2023 הרמטכ"ל היוצא כוכבי התפאר בריאיון שמערכות ה-AI החדשות מעניקות לצה"ל יכולות מודיעין מתוחכמות "כמו בסרט המטריקס". לפני הגעתה של מערכת הבשורה, האנליסטים יכלו לייצר 50 מטרות חדשות בעזה בשנה להוסיף לבנק המטרות. "ברגע שהמכונה נכנסה לפעולה", הסביר כוכבי, היא ייצרה מאה מטרות כאלה ביום.
בספר שלו טען שריאל כי טכנולוגיית AI תהיה שימושית במיוחד בזמני מלחמה, אז תוכל להאיץ את קצב יצירת המטרות ולפרוץ את "צוואר הבקבוק האנושי" שהאט את התהליך.
ההיסטוריון הישראלי אדם רז שראיין חיילים ומפקדים על השימוש של 8200 ב-AI, אמר כי לפי החישובים שלו בשיא ההתקפות, הפציץ הצבא בממוצע 2 יעדים בדקה, קצב אותו הגדיר כ"מדהים"
ביוני 2021 הייתה לישראל ההזדמנות הראשונה להשתמש בבנק המטרות החדש שנוצר הודות לאלגוריתמים, במבצע שומר חומות. ב-11 ימי המבצע השתמש צה"ל בטכנולוגיה כדי לפגוע ב-450 מטרות, כולל מפקד חטיבת הטילים של החמאס.
המפקדים הבכירים ניצלו את המבצע כדי לקדם את מהפיכת ה-AI שמתרחשת בבסיס נבטים ובמטה 8200. כל המפקדים "רצו רק לדבר על מלחמת ה-AI הראשונה", אמר מיסטל.
החוק הבינלאומי מחייב את המדינות שבמלחמה לאזן בין היתרון הצבאי הצפוי של מתקפה עם הנזק ההיקפי של פגיעה באזרחים. ההסכמים האלה, שישראל אישרה רק באופן חלקי, לא מתייחסים לבינה מלאכותית. בצה"ל טענו בהצהרה שפרסמו בקיץ כי הליך עיבוד המודיעין של הצבא "עומד בהגדרת החוק הבינלאומי".
לפי הודאתה של ישראל, ל-AI יש תפקיד גדול בקביעת המטרות לתקיפה בעזה. בתוך ימים ספורים לאחר מתקפת החמאס, פצצות 2,000 פאונד מתוצרת ארה"ב הופלו על עזה. בהודעה לעיתונות שפרסם צה"ל ב-2 בנובמבר, 2023, הכריזו כי הבשורה עזרה להפציץ 12 אלף מטרות בעזה. ההודעה שכללה גם מוזיקה דרמטית וסרטון של בניין מופצץ טענה כי מדובר ב"שיתוף פעולה ראשון מסוגו" שבו מודיעין שהושג ממפעל מטרות של AI מוזן בזמן אמת לכוחות על הקרקע, באוויר ובים, ובכך אפשר מאות התקפות "לצאת לפועל במהירות".
ההיסטוריון הישראלי אדם רז שראיין חיילים ומפקדים על השימוש של 8200 ב-AI, אמר כי לפי החישובים שלו בשיא ההתקפות, הפציץ הצבא בממוצע 2 יעדים בדקה, קצב אותו הגדיר כ"מדהים".
קצין מודיעין סיפר לוושינגטון פוסט שהיה עד לשימוש ב-AI כדי לעגל פינות בקבלת החלטות על יעדים. בתחילת המלחמה מפעל קביעת בנק המטרות עבד בתפוקה מלאה והיה מאוייש בסביבות 300 חיילים שעבדו מסביב לשעון. רבים מהאנליסטים נדרשו לעבור על המלצות למטרות שהבשורה ולבנדר העבירו, הליך שיכול לארוך בין 3 דקות ועד 5 שעות.
לפי שני אנשים המעורים בנושא, הכלל שחייב שני פרטי מודיעין שהושגו על ידי אנשים כדי לאשר תחזית של לבנדר צומצם לפריט אחד לאחר פרוץ המלחמה. לטענתם, בחלק מהמקרים בעזה חיילים שלא קיבלו הכשרה מספקת על השימוש בטכנולוגיה תקפו יעדים מבלי לקבל אישור כלשהו לתחזיות של לבנדר. אדם נוסף הוסיף כי בחלק מהמקרים האישור היחיד שנדרש היה שהיעד הוא גבר. "מתחילים עם לבנדר ואז עושים את עבודת המודיעין", אמר. "בתחילת המלחמה הם קיצצו את העבודה הנדרשת בחצי כי זו מלחמה. הבעיה הייתה שאחרי זה הם לעיתים קיצצו את כל העבודה הנדרשת".
כדי לנטר במהירות את האנשים שלבנדר תייג כמחבלי חמאס, צה"ל השיג תמונות של אנשים בבתים שלהם בשיטות שלא נחשפו לפרסום. כלי לזיהוי פנים שנבנו במיוחד אפשרו להם להצליב בין התמונות בזמן אמת עם התמונות הקיימות של חברי החמאס במאגר המידע של לבנדר. ההתאמות נראו מדוייקות, אך בקרב החיילים גבר החשש שהצבא נסמך מדי על הטכנולוגיה מבלי לאשר אם אותם אנשים עדיין פעילים בחמאס.
חששות לגבי מידת התגובה גם הודחקו הצידה. לפי חייל שהתראיין, חלק מהאנשים בתמונות היו קרובי משפחה בלבד אך בצבא הסכימו שהם ייהרגו גם כן בהתקפה. לדבריו, בשלב מסויים החטיבה שלו קיבלה פקודה להשתמש בתוכנה כדי להעריך את כמות הפצועים וההרוגים בקרב אזרחים עבור הפצצות של כ-50 בניינים בצפון עזה. האנליסטים של החטיבה קיבלו נוסחה פשוטה: לחלק את מספר האנשים ברובע במספר האנשים שלפי הערכות מתגוררים בו. הנתון הזה התבסס על מספר הטלפונים הסלולריים המחוברים למגדל סמוך.
המערכת השתמשה בשיטת רמזור: ירוק אם שיעור התפוסה בבניין עמד על 25% או פחות, רף שנחשב כמספיק כדי לבצע את התקיפה. החייל טען כי נדהם מהניתוח הפשוט מדי הזה. הוא לא לקח בחשבון את האפשרויות שטלפון יהיה כבוי או שנגמרה לו הסוללה, וגם לא התחשב באפשרות שישנם ילדים שאין להם טלפונים סלולריים. בלי ההסתמכות על AI, הצבא כנראה היה מתקשר לאנשים כדי לראות אם הם בבית, הסביר. זו שיטה מדוייקת יותר אך כזו שאורכת הרבה יותר זמן.
למערכות AI יש אי דיוקיים מובניים שהופכים אותן ללא מתאימות לשימוש באירועים של חיים ומוות כמו מלחמה, טענה היידי חלאף, מבקרת קולנית של ישראל ומדענית AI ראשית במכון AI בניו יורק. לדבריה, תעשיית המכוניות האוטונומיות מנסה כבר עשור להגיע לדיוק של 100%, אך ללא הצלחה.
מימרן, עורך הדין הצבאי לשעבר, אמר כי להערכתו צבאות במערב יהיו חייבים לאמץ כלי AI כדי להילחם ביריבים כמו סין, אך הודה כי גם הוא מודאג מנושא הדיוק של קבלת החלטות המבוססות על AI בלחץ של מלחמה. "מבחינת הקצב מדובר בנקודת תפנית. אך האם זו נקודת תפנית גם מבחינת האיכות?" אמר. "אני לא חושב". בהתאם, שלושה אנשים ציינו כי ב-8200 חוזרים לגייס אנליסטים לשפה הערבית.
בינתיים בכירי צה"ל הפסיקו להתפאר בשימוש ב-AI. בריאיון שלו מ-2023 נראה היה שאפילו כוכבי מודע לבעיות. בינה מלאכותית "יכולה להכיל הרבה יותר מדע מכל אדם", אמר. "ויש בכך פוטנציאל שנסתמך על ההחלטות שלה יותר מאשר על אחרים".