בשעות הצהריים המאוחרות עזבה שיירה של ארבע מכוניות את העיר אבּסארד שבאיראן. השיירה התמימה עשתה את דרכה חזרה לבירה טהרן. במכונית השנייה בשיירה, אחרי רכב המאבטחים, ישבו בני זוג בשנות ה-60 לחייהם. כשהשיירה התקרבה אל הכניסה לעיר, המכונית הראשונה האיצה במטרה "לפתוח את הציר" לפני שהשיירה עצמה תיכנס לכביש הדו-מסלולי. טנדר כחול שחנה בצד השני של הכביש לא עורר את חשדו של איש. לפתע נורה צרור של 15 קליעים לעבר מכונית הטויוטה שבה ישב הזוג. האישה לא נפגעה, הגבר נפצע, יצא מהרכב, נורה שוב, ואז התמוטט על המדרכה ומת.
לאיראנים לקח זמן להבין איך הצליח ארגון ביון אלמוני להרוג את מדען הגרעין החשוב ביותר במדינה, פרופ' מוחמד פחריזאדה, ראש תוכנית הגרעין הממשלתית. מחקירת זירת האירוע התברר שעל הטנדר הכחול הוצב מקלע מאג בקוטר 7.62 שנשלט מרחוק, והוא זה שירה לעבר השיירה. המקלע, שהיה ממוקם על חלקו האחורי של הטנדר, הוסתר על ידי חומרי בנייה כדי לשוות לרכב מראה תמים. הטנדר כולו רושת במצלמות היקפיות, ששידרו את התמונה בתקשורת לוויינים למרכז השליטה אי שם. רכיבי בינה מלאכותית ששולבו במערכת עזרו למפעיל לקבוע כי האיש שנוהג בטויוטה הוא אכן פחריזאדה ולא אחר. ברגע שהתקבל האישור, המפעיל לחץ על ההדק הווירטואלי, אלפי קילומטרים ממקום האירוע, והשאר היסטוריה. לא ישראל ולא ארצות הברית אישרו את הפרטים הללו, שפורסמו לימים בעיתון "ניו יורק טיימס".
אדם במעגל
"בינה מלאכותית היא העתיד… עבור האנושות כולה… יש בה הזדמנויות אדירות, אך גם איומים שקשה לחזותם. מי שיהפוך למוביל בתחום זה יהיה לשליט העולם". את הדברים האלה אמר לא אחר מאשר נשיא רוסיה ולדימיר פוטין, לפני כמה שנים, בטרם החל להתבוסס בבוץ האוקראיני, וכנראה ידע מה הוא אומר. על פי כמה דיווחים, אוקראינה עושה שימוש בתוכנות בינה מלאכותית בירי צליפה ובהפעלת מל"טים מתאבדים. באופן גרוטסקי, פוטין חזה את נשק העתיד של האויב המיידי שלו.
זכרו את המושג "אדם במעגל", הוא יהדהד מאוד בשנים הקרובות כחלק מהוויכוח על שימושים צבאיים בבינה מלאכותית. זו מחליפה כבר היום, במקרים רבים, את האדם, לא כל שכן בשימושים צבאיים. שום גורם צבאי, ביטחוני או תעשייתי שמעורב במערכות נשק מתקדמות לא יגיד את הדברים במפורש, אבל הטכנולוגיה כבר כאן. מטוס ללא טייס יכול לירות טיל לעבר רכב בלי שמישהו יתערב בתהליך מרגע ההמראה ועד החזרה. ניתן לטעון אל המטוס את תמונת הרכב או האדם, הוא יזהה אותו, יוודא שזה אכן היעד, ואז ישגר לעברו טיל. המושג "אדם במעגל" מתייחס בדיוק למצבים האלה. בכל מקום שבו יש פעולה המסכנת חיי אדם חייבת להתקבל החלטה אנושית, ולא של אלגוריתם, מתקדם ככל שיהיה. זה הפירוש של "אדם במעגל".
בכפוף לחוק הבינלאומי
בסוף חודש פברואר האחרון התכנסה באמסטרדם ועידה בינלאומית של שישים מדינות, במטרה לגבש אמנה ונהלים ברורים ומוסריים לשימוש צבאי בבינה מלאכותית. אחד הזרזים לכינוס הזה היה, ככל הנראה, אפליקציית הבינה המלאכותית הנפוצה ChatGPT. בינה מלאכותית ברמה גבוהה, זמינה לכל, היא סכנה ברורה ומיידית. בוועידה הוסכם שכל פעילות צבאית של בינה מלאכותית תוכפף לחוק הבינלאומי, לא ייעשה בבינה שימוש בנשק גרעיני והיא תכלול הגבלות על עצמה. כלומר, גם אם תהיה לה רמת ודאות גבוהה ביותר לגבי הפעולה שהיא צריכה לבצע, עדיין לא תוכל לקבל את ההחלטה לבדה. ההסבר לתנאי הזה היה, כי המערכות יכולות יום אחד להסלים מצבי לחימה, בגלל ניתוח לא נכון של מצב שבו נדרשת והכרחית מעורבות אנושית. במילים אחרות: סכנה שרובוטים יחליטו על תחילתה או המשכה של לחימה. פשוטו כמשמעו.
על הנוסח שגובש חתמו, בין השאר, ארצות הברית, סין ו…הרשות הפלסטינית. אחת המדינות שלא חתמו היתה… ישראל. כנראה שההיגיון שמאחורי הדברים הוא בדיוק כמו זה שעמד מאחורי הסירוב ההיסטורי של ישראל לחתום על האמנה לאי הפצת נשק גרעיני, אמנה שתִפתח את כל מתקני הגרעין של ישראל לפיקוח בינלאומי. על העניין הזה אמר ראש הסוכנות לאנרגיה אטומית של האו"ם, רפאל גרוסי, בחודש שעבר בטהרן: "עִם ישראל יש לנו סידורים אחרים".
איתור "אנשים מסוכנים"
חזרה לבינה המלאכותית. על עד כמה עמוק נמצא צה"ל בתהליך הזה העיד אלוף משנה יואב, ראש מרכז הבינה המלאכותית ב-8200. בכנס הבינה המלאכותית של אוניברסיטת תל-אביב, בתחילת השנה, חשף יואב כי צה"ל משתמש כיום בבינה מלאכותית כדי להפליל פעילי טרור. איך זה נעשה הוא לא פירט, אבל הנה תרחיש דמיוני, שממחיש עד כמה רחוק אפשר להגיע עם היכולת הזאת: האמצעי הראשון הוא זיהוי פיזי – פרצוף, ממדי גוף, סגנון הליכה, מוטת ידיים, גודל רגל, וכל פרמטר אחר שניתן להפיק מתמונה. מרכיב נוסף יכול להיות מסלול תנועה – התוכנה לומדת את אורח חייו של האובייקט, ועורכת כל העת השוואות. אם הפרופיל של הדמות מתאים לנתונים שהמערכת מאחסנת ומנתחת, התשובה – חיובית או שלילית – תקפוץ מיד. מעבר לכך, יש את עניין הקול. נניח לרגע שמאזינים במשך זמן לאובייקט מסוים. הבינה המלאכותית תדע לזהות אינטונציה ושימוש חוזר במושגים, ואולי גם לפצח מילות קוד. או, במילותיו של אל"מ יואב, "אחד הכלים המשמעותיים שבנינו, ומפעילים כיום, היא מערכת שיודעת למצוא 'אנשים מסוכנים' על בסיס אינפוט של רשימת אנשים שהופללה והוזנה למערכת. את התהליך הזה עושה המערכת בשניות, מה שבעבר היה לוקח למאות חוקרים כמה שבועות".
ועוד דבר: היזהרו כשאתם מחפשים ברשת מושגים כמו "פצצת גרעין", "איך מרכיבים פצצה", "חומר נפץ מאולתר", ועוד ועוד ועוד…