מלחמת הבינה המלאכותית הקטלנית ברצועת עזה

לפני כחודשיים התפרסם באתר “שיחה מקומית” תחקיר מעורר הדים של יובל אברהם תחת הכותרת: “בתוך המנגנון האוטומטי של ההרג המוני בעזה”. במסגרת התחקיר ראיין אברהם קציני מודיעין מהמערכת הצבאית. אלה הסבירו לו כיצד עובדות שתי מערכות הבינה המלאכותית (AI) המרכזיות הנמצאות בשימוש הצבא, לבנדר והמבשר (גוספל), והמגדירות עשרות אלפי מטרות צבאיות בשבריר מהזמן שהיה נדרש מחוקר צבאי. תחקירי המשך בנושא זה פורסמו באתר “גרדיאן” הבריטי, בידי סוכנות הידיעות איי-פי ועוד.
מומחים וחוקרים ברחבי העולם מגדירים את המלחמה בעזה “מלחמת הבינה המלאכותית הראשונה”. לדבריהם, השימוש המסיבי במערכות עתירות יידע במלחמה בעזה הוא “פורץ דרך” והרסני בכל קנה מידה. כיצד קבע הצבא 30,000 מטרות יש מאין? שרירותית? המערכות קבעו, למשל, שאדם ברצועה הוא “מחבל” לפי קריטריונים כמו “קרבה” לחמאס, מגדר, גיל, מגורים בקרבה לפעיל חמאס ועוד.
לשימוש ב-AI התייחס דר’ סבסטיאן בן דניאל, הידוע כבלוגר ג’ון בראון, שהתארח בשבוע שעבר במועדון הגדה השמאלית בתל-אביב במסגרת “דיבור שמאלי” – סדרת שיחות פוליטיות חדשה בנושאים אקטואליים בוערים כמו המלחמה בעזה והשלכותיה, שהדיון הציבורי בהם דל עד לא קיים.
“אחרי 6-5 ימים לא נשאר בעזה כלום. היה קשה למצוא מטרות אונליין. אחרי שבוע לא נשאר מה להפציץ. לא היה אפשרי לחקור מטרות בזמן מלחמה. מערכת AI מאפשרת לחקור מטרה בשעה ולא בחודש. זה איפשר למלחמה להימשך בעצימות גבוהה במיוחד במשך חודש ולא במשך ארבעה ימים”, הדגיש בן דניאל. קצב ייצור מטרות כזה חסר תקדים בכל קנה מידה.
מערכת הרג אוטומטית
בן דניאל המשיך: “המערכת לוקחת שני מיליון אנשים בעזה ומצמצת את האוכלוסייה ל-30 אלף מטרות, המספר המשוערך של לוחמים בחמאס. הצבא טוען כי אין לו מערכת AI המזהה טרוריסטים, וכי למערכות שלו יש שתי שכבות שאחת מהן אנושית: בזו אדם מוודא שהמטרה הוא באמת טרוריסט. מדובר בשקר”. במילים אחרות, אנשים בשר ודם הזינו למערכת בקשה לייצור 30 אלף מטרות, ו-30 אלף העזתים שסומנו כמטרות תאמו את הקריטריונים שהוגדרו למערכת מראש לצורך זיהוי אנשי חמאס.
בן דניאל הוא חוקר בתחום מדעי המחשב באוניברסיטת בן גוריון. במהלך השיחה הוא פירט את יתרונות השימוש בבינה מלאכותית במלחמה: “דיוק (פחות טעויות) שהרי החוק הבינ”ל דורש לצמצם טעויות; עייפות פחותה; אין למערכות אלה רגשות. אלה מערכות אוטונומיות של איסוף מידע ופענוח אלפי תמונות. מערכות אלה טובות יותר מבני אדם בתחזיות”. כלומר כל “החסרונות” שיש לקצין מודיעין או לקצין בשטח, “מתבטלות” הודות למערכות הרג אוטומטיות.
כיצד קובעת המערכת מיהו מטרה? לפי בן דניאל, “המערכת בודקת כמה קשה להשיג מבוקש וכופלת את זה במספר הילדים שסביבו. עכשיו משתמשים במערכות אחרות מאלה שהשתמשו בהם באוקטובר”. כלומר קצב ייצור המטרות צומצם הודות למערכות ולכן גם נחלש קצב המלחמה. תוצאה זו עוררה את זעמם של פעילי ימין קיצוני ושל ממשלת הימין הקיצוני, אשר בתמיכת שרי הימין הקיצוני פעלו לחסום את שיירות הסיוע ההומניטרי לרצועה.
‘הצבא המוסרי ביותר’ הוא הטכנולוגי ביותר
לבן דניאל יש הרבה מה לומר בנושא מבחינה אתית-משפטית, חברתית ופוליטית. המבנה המסתורי (אניגמטי) של מערכות אלה הוא “פיצ’ר ולא באג”. כלומר, הן נבנו בצורה כזו כדי להסיר אחריות מהצבא ומאנשיו האחראים לתקיפות. ‘הצבא המוסרי ביותר’ הפך ‘הצבא הטכנולוגי המוסרי ביותר’. זה צבא טכנולוגי-אוטונומי המייצר מערכות המסירות מעליו אחריות להרג של עשרות אלפי אזרחים – הרג שהיה נמנע ללא שימוש באותן מערכות.
לשאלה האם הייתה דירקטיבה (החלטה) של ממשלת ישראל להשמיד את עזה או שזו החלטה של AI, השיב: “אני חושב שלא הייתה הנחייה של הממשלה. זו הייתה החלטה של המערכת”, והבהיר: “השר עמיחי אליהו קרא ‘להפיל פצצת אטום על עזה’. אך השפעתו קטנה עד אפסית לעומת השפעתו של הרמטכ”ל לשעבר אביב כוכבי, שקידם מאוד את תחום הבינה המלאכותית בצבא”.
מבחינה פילוסופית, ציין בן דניאל, מעניין לבחון את “החזון הדיסטופי” שמומש במלחמה זו. “הסתכלו בעיי החורבות בעזה ותבינו איך נראית מלחמת בינה מלאכותית” – סיכם בן דניאל. למערכות משוכללות מאוד אלה יש השפעות ממשיות וקטלניות על שני מיליון אזרחים החיים תחת מצור. אך הדין הבינלאומי אינו יודע להתמודד עם מלחמות בינה מלאכותית. להערכת בן דניאל, לא תיחתם “אמנת ז’נבה” בדבר שימוש בבינה מלאכותית במלחמה.