منوی دسته بندی

هوش مصنوعی لوندر؛ قاتل شبکه‌ای اسرائیل چگونه کار می‌کند؟

لوندر هوش مصنوعی اسرائیل جنگ

به گزارش طبقه۶۰، در سال ۲۰۲۱، کتابی با عنوان «تیم انسان-ماشین: چگونه بین انسان و هوش مصنوعی هم‌افزایی ایجاد کنیم که جهان ما را متحول خواهد کرد» تحت نام مستعار «سرتیپ Y.S.» به زبان انگلیسی منتشر شد. در این کتاب، نویسنده — مردی که تأیید کردیم فرمانده فعلی یگان اطلاعاتی زبده اسرائیل، یگان ۸۲۰۰، است — از طراحی یک ماشین ویژه دفاع می‌کند که بتواند به سرعت حجم عظیمی از داده‌ها را برای تولید هزاران «هدف» بالقوه برای حملات نظامی در بحبوحه جنگ پردازش کند. او می‌نویسد که چنین فناوری‌ای چیزی را که او «گلوگاه انسانی برای یافتن اهداف جدید و تصمیم‌گیری برای تأیید اهداف» توصیف می‌کند، برطرف خواهد کرد.

معلوم شد که چنین ماشینی واقعاً وجود دارد. تحقیقات جدید نشان می‌دهد که ارتش اسرائیل یک برنامه مبتنی بر هوش مصنوعی به نام «لوندر» (لوندر) (Lavender) را توسعه داده است که برای اولین بار در اینجا فاش می‌شود.

به گفته شش افسر اطلاعاتی اسرائیل، که همگی در طول جنگ کنونی در نوار غزه در ارتش خدمت کرده و به طور مستقیم در استفاده از هوش مصنوعی برای تولید اهداف برای ترور نقش داشته‌اند، «لوندر» نقش محوری در بمباران بی‌سابقه فلسطینیان، به ویژه در مراحل اولیه جنگ، ایفا کرده است. در واقع، به گفته این منابع، تأثیر آن بر عملیات‌های نظامی به حدی بود که آنها اساساً با خروجی‌های ماشین هوش مصنوعی «طوری رفتار می‌کردند که گویی یک تصمیم انسانی است.»

به طور رسمی، سیستم «لوندر» برای علامت‌گذاری تمام نیروهای مشکوک در شاخه‌های نظامی حماس و جهاد اسلامی فلسطین (PIJ)، از جمله نیروهای رده‌پایین، به عنوان اهداف بالقوه بمباران طراحی شده است. منابع  گفتند که در هفته‌های اول جنگ، ارتش تقریباً به طور کامل به «لوندر» متکی بود که حدود ۳۷٬۰۰۰ فلسطینی را به عنوان شبه‌نظامیان مشکوک — و خانه‌هایشان را — برای حملات هوایی احتمالی شناسایی کرده بود.

در مراحل اولیه جنگ، ارتش به افسران اجازه گسترده‌ای برای استفاده از لیست‌های کشتار «لوندر» داد، بدون اینکه نیازی به بررسی دقیق چرایی انتخاب‌های ماشین یا بررسی داده‌های اطلاعاتی خامی که این انتخاب‌ها بر اساس آن‌ها انجام شده بود، وجود داشته باشد. یک منبع اظهار داشت که پرسنل انسانی اغلب تنها به عنوان یک «مهر تأیید» برای تصمیمات ماشین عمل می‌کردند و افزود که معمولاً، آنها شخصاً فقط حدود «۲۰ ثانیه» برای هر هدف وقت می‌گذاشتند تا مجوز بمباران را صادر کنند — فقط برای اینکه مطمئن شوند هدف علامت‌گذاری شده توسط «لوندر» مَرد است. این در حالی بود که می‌دانستند این سیستم در تقریباً ۱۰ درصد موارد دچار «خطا» می‌شود و مشخص بود که گاهی افرادی را که صرفاً ارتباطی ضعیف با گروه‌های شبه‌نظامی دارند یا هیچ ارتباطی ندارند، علامت‌گذاری می‌کند.

علاوه بر این، ارتش اسرائیل به طور سیستماتیک به افراد هدف‌گیری شده در حالی که در خانه‌هایشان بودند — معمولاً در شب و زمانی که تمام خانواده‌هایشان حضور داشتند — حمله می‌کرد، نه در حین فعالیت نظامی. به گفته منابع، این به این دلیل بود که از دیدگاه اطلاعاتی، یافتن افراد در خانه‌های شخصی‌شان آسان‌تر بود. سیستم‌های خودکار دیگری، از جمله سیستمی به نام «بابا کجاست؟» (!Where’s Daddy) که آن هم برای اولین بار در اینجا فاش می‌شود، به طور خاص برای ردیابی افراد هدف‌گیری شده و انجام بمباران‌ها هنگام ورود آنها به محل سکونت خانواده‌شان استفاده می‌شد.

نتیجه این بود که، همانطور که منابع شهادت دادند، هزاران فلسطینی — که بیشترشان زنان و کودکان یا افرادی بودند که در درگیری‌ها دخالتی نداشتند — به دلیل تصمیمات برنامه هوش مصنوعی، به ویژه در هفته‌های اول جنگ، در حملات هوایی اسرائیل کشته شدند. یک افسر اطلاعاتی با نام «A» گفت: «ما علاقه‌ای به کشتن نیروهای [حماس] تنها زمانی که در یک ساختمان نظامی بودند یا درگیر فعالیت نظامی بودند، نداشتیم.» «برعکس، ارتش اسرائیل آنها را بدون تردید در خانه‌هایشان به عنوان گزینه اول بمباران می‌کرد. بمباران خانه یک خانواده بسیار آسان‌تر است. سیستم برای جستجوی آنها در این شرایط ساخته شده است.»

ماشین «لوندر» به سیستم هوش مصنوعی دیگری به نام «انجیل» (The Gospel) می‌پیوندد که در نشریات خود ارتش اسرائیل فاش شده بود. تفاوت اساسی بین این دو سیستم در تعریف هدف است: در حالی که «انجیل» ساختمان‌ها و سازه‌هایی را که ارتش ادعا می‌کند شبه‌نظامیان از آنجا فعالیت می‌کنند علامت‌گذاری می‌کند، «لوندر» افراد را علامت‌گذاری کرده و آنها را در لیست کشتار قرار می‌دهد.

علاوه بر این، به گفته منابع، هنگامی که نوبت به هدف قرار دادن شبه‌نظامیان رده‌پایین می‌رسید که توسط «لوندر» علامت‌گذاری شده بودند، ارتش ترجیح می‌داد فقط از موشک‌های غیرهدایت‌شونده، که معمولاً به «بمب‌های احمقانه» (dumb bombs) معروف هستند (در مقابل بمب‌های دقیق «هوشمند»)، استفاده کند. این بمب‌ها می‌توانند کل ساختمان‌ها را بر سر ساکنانشان خراب کرده و تلفات قابل توجهی به بار آورند.

«سی»، یکی از افسران اطلاعاتی، گفت: «شما نمی‌خواهید بمب‌های گران‌قیمت را برای افراد غیرمهم هدر دهید — این برای کشور بسیار پرهزینه است و کمبود [این بمب‌ها] وجود دارد.»

منبع دیگری گفت که شخصاً مجوز بمباران «صدها» خانه شخصی نیروهای رده‌پایین را که توسط «لوندر» علامت‌گذاری شده بودند، صادر کرده است که بسیاری از این حملات منجر به کشته شدن غیرنظامیان و کل خانواده‌ها به عنوان «تلفات جانبی» شده است.

در اقدامی بی‌سابقه، به گفته دو منبع، ارتش در هفته‌های اول جنگ تصمیم گرفت که برای هر نیروی رده‌پایین حماس که «لوندر» علامت‌گذاری می‌کند، کشتن حداکثر ۱۵ تا ۲۰ غیرنظامی مجاز است؛ در گذشته، ارتش هیچ «تلفات جانبی» را در جریان ترور شبه‌نظامیان رده‌پایین مجاز نمی‌دانست. منابع افزودند که در صورتی که هدف یک مقام ارشد حماس با درجه فرمانده گردان یا تیپ بود، ارتش در چندین مورد مجوز کشتن بیش از ۱۰۰ غیرنظامی را در ترور یک فرمانده صادر کرد.

تحقیقات زیر بر اساس شش مرحله زمانی تولید اهداف بسیار خودکار ارتش اسرائیل در هفته‌های اولیه جنگ غزه سازماندهی شده است.

نخست، ما خود ماشین «لوندر» را توضیح می‌دهیم که ده‌ها هزار فلسطینی را با استفاده از هوش مصنوعی علامت‌گذاری کرده است.

دوم، ما سیستم «بابا کجاست؟» را فاش می‌کنیم که این اهداف را ردیابی کرده و به ارتش هنگام ورود آنها به خانه‌های خانوادگی‌شان سیگنال می‌داد.

سوم، ما توضیح می‌دهیم که چگونه بمب‌های «احمقانه» برای حمله به این خانه‌ها انتخاب می‌شدند.

چهارم، ما توضیح می‌دهیم که چگونه ارتش تعداد مجاز غیرنظامیانی را که می‌توانستند در جریان بمباران یک هدف کشته شوند، افزایش داد.

پنجم، ما اشاره می‌کنیم که چگونه نرم‌افزار خودکار به طور نادرست میزان غیرنظامیان در هر خانوار را محاسبه می‌کرد.

و ششم، ما نشان می‌دهیم که در چندین مورد، هنگامی که خانه‌ای مورد حمله قرار می‌گرفت، معمولاً در شب، هدف فردی گاهی اصلاً در داخل خانه نبود، زیرا افسران نظامی اطلاعات را به صورت آنی تأیید نمی‌کردند.

مرحله ۱: تولید اهداف: ‘وقتی خودکار می‌شوید، تولید اهداف دیوانه‌وار می‌شود’

در ارتش اسرائیل، اصطلاح «هدف انسانی» در گذشته به یک نیروی نظامی ارشد اشاره داشت که طبق قوانین دپارتمان حقوق بین‌الملل ارتش، می‌توان او را در خانه شخصی‌اش حتی اگر غیرنظامیان در اطراف باشند، کشت. منابع اطلاعاتی گفتند که در جنگ‌های قبلی اسرائیل، از آنجا که این روشی «به‌ویژه وحشیانه» برای کشتن کسی بود — اغلب با کشتن یک خانواده کامل در کنار هدف — چنین اهداف انسانی با دقت بسیار زیادی مشخص می‌شدند و تنها فرماندهان ارشد نظامی در خانه‌هایشان بمباران می‌شدند تا اصل تناسب تحت قوانین بین‌المللی حفظ شود.

اما پس از ۷ اکتبر — زمانی که شبه‌نظامیان تحت رهبری حماس حمله‌ای مرگبار به جوامع جنوب اسرائیل انجام دادند، حدود ۱۲۰۰ نفر را کشتند و ۲۴۰ نفر را ربودند — ارتش، به گفته منابع، رویکردی کاملاً متفاوت اتخاذ کرد. تحت عملیات «شمشیرهای آهنین»، ارتش تصمیم گرفت تمام نیروهای شاخه نظامی حماس را به عنوان اهداف انسانی تعیین کند، صرف نظر از رتبه یا اهمیت نظامی آنها. و این همه چیز را تغییر داد.

این سیاست جدید همچنین یک مشکل فنی برای اطلاعات اسرائیل ایجاد کرد. در جنگ‌های گذشته، برای صدور مجوز ترور یک هدف انسانی، یک افسر باید فرآیند پیچیده و طولانی «مجرم‌سازی» را طی می‌کرد: شواهد را برای اطمینان از اینکه فرد واقعاً عضو ارشد شاخه نظامی حماس است، بررسی متقابل می‌کرد، محل زندگی، اطلاعات تماس او را پیدا می‌کرد و در نهایت می‌دانست چه زمانی در خانه است. هنگامی که لیست اهداف تنها چند ده نیروی ارشد را شامل می‌شد، پرسنل اطلاعاتی می‌توانستند به صورت فردی کارهای مربوط به مجرم‌سازی و مکان‌یابی آنها را انجام دهند.

با این حال، هنگامی که لیست به ده‌ها هزار نیروی رده‌پایین گسترش یافت، ارتش اسرائیل به این نتیجه رسید که باید به نرم‌افزارهای خودکار و هوش مصنوعی تکیه کند. نتیجه، به شهادت منابع، این بود که نقش پرسنل انسانی در مجرم‌سازی فلسطینیان به عنوان نیروهای نظامی کنار گذاشته شد و هوش مصنوعی بیشتر کار را انجام می‌داد. به گفته چهار منبعی که با «۹۷۲+» و «لوکال کال» صحبت کردند، «لوندر» — که برای ایجاد اهداف انسانی در جنگ کنونی توسعه یافته است — حدود ۳۷٬۰۰۰ فلسطینی را به عنوان «شبه‌نظامیان حماس» مشکوک، که بیشترشان رده‌پایین بودند، برای ترور علامت‌گذاری کرده است (سخنگوی ارتش اسرائیل وجود چنین لیست کشتاری را در بیانیه‌ای رد کرد).

افسر ارشد «B» توضیح داد: «ما نمی‌دانستیم نیروهای رده‌پایین چه کسانی هستند، زیرا اسرائیل به طور معمول آنها را [قبل از جنگ] ردیابی نمی‌کرد.» این موضوع دلیل توسعه این ماشین هدف‌گیری خاص برای جنگ کنونی را روشن می‌کند. «آنها می‌خواستند به ما اجازه دهند تا به طور خودکار به [نیروهای رده‌پایین] حمله کنیم. این جام مقدس است. وقتی خودکار می‌شوید، تولید اهداف دیوانه‌وار می‌شود.»

منابع گفتند که مجوز استفاده خودکار از لیست‌های کشتار «لوندر»، که قبلاً فقط به عنوان یک ابزار کمکی استفاده می‌شد، حدود دو هفته پس از شروع جنگ، پس از اینکه پرسنل اطلاعاتی «به صورت دستی» صحت یک نمونه تصادفی از چند صد هدف انتخاب شده توسط سیستم هوش مصنوعی را بررسی کردند، اعطا شد. هنگامی که آن نمونه نشان داد که نتایج «لوندر» به دقت ۹۰ درصد در شناسایی وابستگی یک فرد به حماس رسیده است، ارتش استفاده گسترده از این سیستم را مجاز دانست. از آن لحظه، منابع گفتند که اگر «لوندر» تصمیم می‌گرفت که فردی یک شبه‌نظامی در حماس است، اساساً از آنها خواسته می‌شد که با آن به عنوان یک دستور رفتار کنند، بدون اینکه نیازی به بررسی مستقل چرایی انتخاب ماشین یا بررسی داده‌های اطلاعاتی خامی که بر اساس آن استوار بود، داشته باشند.

«B» گفت: «ساعت ۵ صبح، [نیروی هوایی] می‌آمد و تمام خانه‌هایی را که ما علامت‌گذاری کرده بودیم، بمباران می‌کرد.» «ما هزاران نفر را از بین بردیم. ما آنها را یک به یک بررسی نکردیم — همه چیز را در سیستم‌های خودکار قرار دادیم، و به محض اینکه یکی از [افراد علامت‌گذاری شده] در خانه بود، بلافاصله به یک هدف تبدیل می‌شد. ما او و خانه‌اش را بمباران می‌کردیم.»

یکی از منابع در مورد استفاده از هوش مصنوعی برای علامت‌گذاری شبه‌نظامیان رده‌پایین گفت: «برای من بسیار تعجب‌آور بود که از ما خواسته شد خانه‌ای را برای کشتن یک سرباز پیاده بمباران کنیم که اهمیت او در جنگ بسیار پایین بود.» «من به این اهداف لقب “اهداف زباله” داده بودم. با این حال، آنها را اخلاقی‌تر از اهدافی می‌دانستم که فقط برای “بازدارندگی” بمباران می‌کردیم — برج‌های بلندی که تخلیه و فقط برای ایجاد تخریب سرنگون می‌شدند.»

نتایج مرگبار این کاهش محدودیت‌ها در مرحله اولیه جنگ حیرت‌آور بود. بر اساس داده‌های وزارت بهداشت فلسطین در غزه، که ارتش اسرائیل تقریباً به طور انحصاری از ابتدای جنگ به آن تکیه کرده است، اسرائیل در شش هفته اول جنگ، تا زمان آتش‌بس یک هفته‌ای که در ۲۴ نوامبر توافق شد، حدود ۱۵٬۰۰۰ فلسطینی — تقریباً نیمی از کل تلفات تاکنون — را کشت.

هرچه اطلاعات بیشتر و متنوع‌تر باشد، بهتر است

نرم‌افزار «لوندر» اطلاعات جمع‌آوری شده از اکثر ۲.۳ میلیون ساکن نوار غزه را از طریق یک سیستم نظارت گسترده تحلیل می‌کند، سپس احتمال اینکه هر فرد خاص در شاخه نظامی حماس یا جهاد اسلامی فعال باشد را ارزیابی و رتبه‌بندی می‌کند. به گفته منابع، این ماشین تقریباً به هر فردی در غزه یک امتیاز از ۱ تا ۱۰۰ می‌دهد که نشان‌دهنده احتمال شبه‌نظامی بودن اوست.

منابع توضیح دادند که «لوندر» یاد می‌گیرد ویژگی‌های نیروهای شناخته‌شده حماس و جهاد اسلامی را که اطلاعاتشان به عنوان داده‌های آموزشی به ماشین داده شده است، شناسایی کند و سپس همین ویژگی‌ها — که «فیچر» نیز نامیده می‌شوند — را در میان جمعیت عمومی پیدا کند. فردی که مشخص شود دارای چندین ویژگی مجرمانه مختلف است، به امتیاز بالایی دست می‌یابد و بنابراین به طور خودکار به یک هدف بالقوه برای ترور تبدیل می‌شود.

در کتاب «تیم انسان-ماشین»، که در ابتدای این مقاله به آن اشاره شد، فرمانده فعلی یگان ۸۲۰۰ بدون ذکر نام «لوندر» از چنین سیستمی حمایت می‌کند. (خود فرمانده نیز نام برده نشده است، اما پنج منبع در یگان ۸۲۰۰ تأیید کردند که این فرمانده نویسنده کتاب است، همانطور که توسط هاآرتص نیز گزارش شده است.) فرمانده با توصیف پرسنل انسانی به عنوان یک «گلوگاه» که ظرفیت ارتش را در طول یک عملیات نظامی محدود می‌کند، ابراز تأسف می‌کند: «ما [انسان‌ها] نمی‌توانیم این همه اطلاعات را پردازش کنیم. مهم نیست چند نفر را برای تولید اهداف در طول جنگ مأمور کرده باشید — شما هنوز نمی‌توانید به اندازه کافی هدف در روز تولید کنید.»

او می‌گوید راه‌حل این مشکل، هوش مصنوعی است. این کتاب راهنمای کوتاهی برای ساخت یک «ماشین هدف» ارائه می‌دهد که در توصیف شبیه به «لوندر» است و بر اساس هوش مصنوعی و الگوریتم‌های یادگیری ماشین کار می‌کند. در این راهنما چندین مثال از «صدها و هزاران» ویژگی که می‌توانند امتیاز یک فرد را افزایش دهند، آورده شده است، مانند عضویت در یک گروه واتس‌اپ با یک شبه‌نظامی شناخته‌شده، تعویض تلفن همراه هر چند ماه یکبار، و تغییر مکرر آدرس.

فرمانده می‌نویسد: «هرچه اطلاعات بیشتر و متنوع‌تر باشد، بهتر است.» «اطلاعات بصری، اطلاعات تلفن همراه، ارتباطات رسانه‌های اجتماعی، اطلاعات میدان نبرد، تماس‌های تلفنی، عکس‌ها.»

فرمانده ادامه می‌دهد که در حالی که در ابتدا انسان‌ها این ویژگی‌ها را انتخاب می‌کنند، با گذشت زمان ماشین خود به خود ویژگی‌ها را شناسایی خواهد کرد. او می‌گوید این امر می‌تواند به ارتش‌ها امکان دهد «ده‌ها هزار هدف» ایجاد کنند، در حالی که تصمیم واقعی در مورد حمله یا عدم حمله به آنها همچنان یک تصمیم انسانی باقی خواهد ماند.

سیاست “خطای صفر” وجود نداشت

«B»، یک افسر ارشد که از «لوندر» استفاده کرده است، تأیید کرد که در جنگ کنونی، از افسران خواسته نشده بود که به طور مستقل ارزیابی‌های سیستم هوش مصنوعی را بازبینی کنند تا در وقت صرفه‌جویی شود و تولید انبوه اهداف انسانی بدون مانع ممکن گردد. «B» گفت: «همه چیز آماری بود، همه چیز مرتب بود — بسیار خشک بود.» او اشاره کرد که این عدم نظارت با وجود بررسی‌های داخلی که نشان می‌داد محاسبات «لوندر» تنها در ۹۰ درصد مواقع دقیق در نظر گرفته می‌شود، مجاز بود؛ به عبارت دیگر، از قبل مشخص بود که ۱۰ درصد از اهداف انسانی که برای ترور برنامه‌ریزی شده بودند، اصلاً عضو شاخه نظامی حماس نبودند.

برای مثال، منابع توضیح دادند که ماشین «لوندر» گاهی به اشتباه افرادی را که الگوهای ارتباطی مشابه با نیروهای شناخته‌شده حماس یا جهاد اسلامی داشتند، علامت‌گذاری می‌کرد — از جمله پلیس و کارکنان دفاع مدنی، بستگان شبه‌نظامیان، ساکنانی که اتفاقاً نام و نام مستعاری مشابه با یک نیرو داشتند، و اهالی غزه‌ای که از دستگاهی استفاده می‌کردند که زمانی متعلق به یک نیروی حماس بوده است.

یک منبع منتقد به عدم دقت «لوندر» گفت: «یک فرد چقدر باید به حماس نزدیک باشد تا [توسط یک ماشین هوش مصنوعی] وابسته به این سازمان در نظر گرفته شود؟» «این یک مرز مبهم است. آیا فردی که از حماس حقوق دریافت نمی‌کند، اما در همه نوع کاری به آنها کمک می‌کند، یک نیروی حماس است؟ آیا کسی که در گذشته در حماس بوده، اما امروز دیگر آنجا نیست، یک نیروی حماس است؟ هر یک از این ویژگی‌ها — مشخصاتی که یک ماشین به عنوان مشکوک علامت‌گذاری می‌کند — نادرست است.»

مشکلات مشابهی در توانایی ماشین‌های هدف‌گیری برای ارزیابی تلفن مورد استفاده توسط فردی که برای ترور علامت‌گذاری شده، وجود دارد. این منبع گفت: «در جنگ، فلسطینیان مدام تلفن‌های خود را عوض می‌کنند.» «مردم تماس خود را با خانواده‌هایشان از دست می‌دهند، تلفن خود را به یک دوست یا همسر می‌دهند، شاید آن را گم کنند. هیچ راهی برای اتکای ۱۰۰ درصدی به مکانیزم خودکاری که تعیین می‌کند کدام شماره [تلفن] به چه کسی تعلق دارد، وجود ندارد.»

به گفته منابع، ارتش می‌دانست که نظارت حداقلی انسانی موجود، این خطاها را کشف نخواهد کرد. یک منبع که از «لوندر» استفاده کرده بود، گفت: «سیاست “خطای صفر” وجود نداشت. با اشتباهات به صورت آماری برخورد می‌شد.» «به دلیل گستردگی و مقیاس، پروتکل این بود که حتی اگر مطمئن نیستید که ماشین درست می‌گوید، می‌دانید که از نظر آماری مشکلی ندارد. پس آن را انجام می‌دهید.»

ما فقط بررسی می‌کردیم که هدف یک مرد باشد

ارتش اسرائیل قاطعانه این ادعاها را رد می‌کند. سخنگوی ارتش اسرائیل در بیانیه‌ای استفاده از هوش مصنوعی برای مجرم‌سازی اهداف را رد کرد و گفت این‌ها صرفاً «ابزارهای کمکی هستند که به افسران در فرآیند مجرم‌سازی کمک می‌کنند.» این بیانیه ادامه داد: «در هر صورت، یک بررسی مستقل توسط یک تحلیلگر [اطلاعاتی] لازم است که تأیید کند اهداف شناسایی شده، اهداف مشروعی برای حمله هستند، مطابق با شرایط مندرج در دستورالعمل‌های ارتش اسرائیل و قوانین بین‌المللی.»

با این حال، منابع گفتند که تنها پروتکل نظارت انسانی قبل از بمباران خانه‌های شبه‌نظامیان «رده‌پایین» مشکوک که توسط «لوندر» علامت‌گذاری شده بودند، انجام یک بررسی واحد بود: اطمینان از اینکه هدف انتخاب شده توسط هوش مصنوعی مرد است و نه زن. فرض در ارتش این بود که اگر هدف یک زن باشد، ماشین احتمالاً اشتباه کرده است، زیرا هیچ زنی در صفوف شاخه‌های نظامی حماس و جهاد اسلامی وجود ندارد.

«B» گفت: «یک انسان باید [هدف را] فقط برای چند ثانیه تأیید می‌کرد.» او توضیح داد که این پروتکل پس از آنکه متوجه شدند سیستم «لوندر» در بیشتر مواقع «درست عمل می‌کند» به اجرا درآمد. «در این مرحله برای هر هدف ۲۰ ثانیه وقت می‌گذاشتم و هر روز ده‌ها مورد از آنها را انجام می‌دادم. من به عنوان یک انسان هیچ ارزش افزوده‌ای نداشتم، جز اینکه مهر تأیید باشم. این کار زمان زیادی را صرفه‌جویی می‌کرد. اگر [نیرو] در مکانیزم خودکار ظاهر می‌شد و من بررسی می‌کردم که او مرد است، اجازه بمباران او، مشروط به بررسی تلفات جانبی، وجود داشت.»

در عمل، منابع گفتند این به این معنا بود که برای مردان غیرنظامی که به اشتباه توسط «لوندر» علامت‌گذاری شده بودند، هیچ مکانیزم نظارتی برای کشف اشتباه وجود نداشت.

مرحله ۲: پیوند دادن اهداف به خانه‌های خانوادگی: بیشتر افرادی که کشتید زنان و کودکان بودند

مرحله بعدی در رویه ترور ارتش اسرائیل، شناسایی محلی برای حمله به اهدافی است که «لوندر» تولید می‌کند. سخنگوی ارتش اسرائیل در بیانیه‌ای در پاسخ به این مقاله ادعا کرد که «حماس نیروها و دارایی‌های نظامی خود را در قلب جمعیت غیرنظامی قرار می‌دهد، به طور سیستماتیک از جمعیت غیرنظامی به عنوان سپر انسانی استفاده می‌کند و از داخل سازه‌های غیرنظامی، از جمله مکان‌های حساسی مانند بیمارستان‌ها، مساجد، مدارس و تأسیسات سازمان ملل، می‌جنگد. ارتش اسرائیل به قوانین بین‌المللی متعهد است و بر اساس آن عمل می‌کند و حملات خود را فقط به اهداف نظامی و نیروهای نظامی هدایت می‌کند.»

شش منبعی که با آنها صحبت کردیم تا حدی این موضوع را تأیید کردند و گفتند که شبکه تونل گسترده حماس به طور عمدی از زیر بیمارستان‌ها و مدارس عبور می‌کند؛ شبه‌نظامیان حماس از آمبولانس‌ها برای تردد استفاده می‌کنند؛ و دارایی‌های نظامی بی‌شماری در نزدیکی ساختمان‌های غیرنظامی قرار گرفته‌اند. با این حال، برخلاف بیانیه‌های رسمی ارتش اسرائیل، منابع توضیح دادند که یکی از دلایل اصلی آمار بی‌سابقه تلفات ناشی از بمباران کنونی اسرائیل این واقعیت است که ارتش به طور سیستماتیک به اهداف در خانه‌های شخصی‌شان، در کنار خانواده‌هایشان، حمله کرده است — بخشی به این دلیل که از نظر اطلاعاتی علامت‌گذاری خانه‌های خانوادگی با استفاده از سیستم‌های خودکار آسان‌تر بود.

در واقع، چندین منبع تأکید کردند که برخلاف موارد متعدد درگیری نیروهای حماس از مناطق غیرنظامی، در مورد حملات ترور سیستماتیک، ارتش به طور معمول انتخاب فعالانه‌ای برای بمباران شبه‌نظامیان مشکوک در داخل خانوارهای غیرنظامی که هیچ فعالیت نظامی از آنجا صورت نمی‌گرفت، انجام می‌داد. این انتخاب، به گفته آنها، بازتابی از نحوه طراحی سیستم نظارت گسترده اسرائیل در غزه بود.

منابع گفتند که از آنجا که هر کسی در غزه یک خانه شخصی داشت که می‌توانست با آن مرتبط شود، سیستم‌های نظارتی ارتش می‌توانستند به راحتی و به طور خودکار افراد را به خانه‌های خانوادگی «پیوند» دهند. به منظور شناسایی لحظه ورود نیروها به خانه‌هایشان به صورت آنی، نرم‌افزارهای خودکار مختلف دیگری توسعه یافته‌اند. این برنامه‌ها هزاران فرد را به طور همزمان ردیابی می‌کنند، زمان حضور آنها در خانه را شناسایی می‌کنند و یک هشدار خودکار به افسر هدف‌گیری ارسال می‌کنند که سپس خانه را برای بمباران علامت‌گذاری می‌کند. یکی از چندین نرم‌افزار ردیابی، که برای اولین بار در اینجا فاش می‌شود، «بابا کجاست؟» نام دارد.

یک منبع آگاه از این سیستم گفت: «شما صدها [هدف] را در سیستم قرار می‌دهید و منتظر می‌مانید تا ببینید چه کسی را می‌توانید بکشید.» «این را شکار گسترده می‌نامند: شما از لیست‌هایی که سیستم هدف تولید می‌کند، کپی-پیست می‌کنید.»

«A» توضیح داد که با افزودن یک نام از لیست‌های تولید شده توسط «لوندر» به سیستم ردیابی خانگی «بابا کجاست؟»، فرد علامت‌گذاری شده تحت نظارت مداوم قرار می‌گرفت و به محض ورود به خانه‌اش، می‌توانست مورد حمله قرار گیرد و خانه بر سر همه افراد داخل آن خراب شود. «A» گفت: «فرض کنید شما محاسبه می‌کنید که [یک] نیروی حماس به علاوه ۱۰ [غیرنظامی در خانه] وجود دارد.» «معمولاً این ۱۰ نفر زنان و کودکان خواهند بود. بنابراین به طرز مضحکی، معلوم می‌شود که بیشتر افرادی که شما کشتید، زنان و کودکان بودند.»

مرحله ۳: انتخاب سلاح: ما معمولاً حملات را با “بمب‌های احمقانه” انجام می‌دادیم

هنگامی که «لوندر» یک هدف را برای ترور علامت‌گذاری کرد، پرسنل ارتش تأیید کردند که او مرد است، و نرم‌افزار ردیابی هدف را در خانه‌اش مکان‌یابی کرد، مرحله بعدی انتخاب مهماتی است که با آن او را بمباران کنند.

سه منبع اطلاعاتی گفتند که نیروهای رده‌پایین علامت‌گذاری شده توسط «لوندر» تنها با بمب‌های احمقانه (غیرهدایت‌شونده) ترور می‌شدند تا تسلیحات گران‌تر ذخیره شود. یک منبع توضیح داد که پیامد این کار این بود که ارتش به یک هدف رده‌پایین حمله نمی‌کرد اگر او در یک ساختمان بلندمرتبه زندگی می‌کرد، زیرا ارتش نمی‌خواست یک «بمب طبقه‌ای» دقیق‌تر و گران‌تر (با اثرات جانبی محدودتر) را برای کشتن او هزینه کند. اما اگر یک هدف رده‌پایین در ساختمانی با تنها چند طبقه زندگی می‌کرد، ارتش مجاز بود او و همه افراد داخل ساختمان را با یک بمب احمقانه بکشد.

«C» که در جنگ کنونی از برنامه‌های خودکار مختلفی استفاده کرده بود، شهادت داد: «در مورد تمام اهداف رده‌پایین اینطور بود.» «تنها سؤال این بود که آیا از نظر تلفات جانبی امکان حمله به ساختمان وجود دارد؟ زیرا ما معمولاً حملات را با بمب‌های احمقانه انجام می‌دادیم، و این به معنای تخریب کامل خانه بر سر ساکنانش بود. اما حتی اگر حمله‌ای لغو شود، شما اهمیتی نمی‌دهید — بلافاصله به سراغ هدف بعدی می‌روید. به لطف سیستم، اهداف هرگز تمام نمی‌شوند. شما ۳۶٬۰۰۰ هدف دیگر در انتظار دارید.»

مرحله ۴: صدور مجوز برای تلفات غیرنظامی: ما تقریباً بدون در نظر گرفتن تلفات جانبی حمله می‌کردیم

یک منبع گفت که هنگام حمله به نیروهای رده‌پایین، از جمله آنهایی که توسط سیستم‌های هوش مصنوعی مانند «لوندر» علامت‌گذاری شده بودند، تعداد غیرنظامیانی که مجاز به کشتن آنها در کنار هر هدف بودند، در هفته‌های اولیه جنگ تا ۲۰ نفر تعیین شده بود. منبع دیگری ادعا کرد که این عدد ثابت تا ۱۵ نفر بود. این «درجه‌های تلفات جانبی»، همانطور که ارتش آنها را می‌نامد، به طور گسترده برای تمام شبه‌نظامیان رده‌پایین مشکوک اعمال می‌شد، صرف نظر از رتبه، اهمیت نظامی و سن آنها، و بدون هیچ بررسی مورد به موردی برای سنجش مزیت نظامی ترور آنها در برابر آسیب مورد انتظار به غیرنظامیان.

به گفته «A»، که در جنگ کنونی افسر اتاق عملیات هدف بود، دپارتمان حقوق بین‌الملل ارتش هرگز قبلاً چنین «مجوز گسترده‌ای» برای چنین درجه بالایی از تلفات جانبی نداده بود. «A» ادامه داد: «هر کسی که در یکی دو سال گذشته یونیفرم حماس را پوشیده بود، می‌توانست با ۲۰ [غیرنظامی کشته شده به عنوان] تلفات جانبی بمباران شود، حتی بدون مجوز خاص. در عمل، اصل تناسب وجود نداشت.»

این درجه تلفات جانبی از پیش تعیین شده و ثابت، به گفته منابع، به تسریع تولید انبوه اهداف با استفاده از ماشین «لوندر» کمک کرد، زیرا در وقت صرفه‌جویی می‌کرد.

منابع گفتند که اکنون، تا حدی به دلیل فشار آمریکا، ارتش اسرائیل دیگر به طور انبوه اهداف انسانی رده‌پایین را برای بمباران در خانه‌های غیرنظامی تولید نمی‌کند. این واقعیت که بیشتر خانه‌ها در نوار غزه قبلاً تخریب یا آسیب دیده‌اند و تقریباً کل جمعیت آواره شده‌اند نیز توانایی ارتش برای تکیه بر پایگاه‌های داده اطلاعاتی و برنامه‌های خودکار مکان‌یابی خانه را مختل کرده است. با این حال، حملات هوایی علیه فرماندهان ارشد حماس همچنان ادامه دارد، و منابع گفتند که برای این حملات، ارتش مجوز کشتن «صدها» غیرنظامی را برای هر هدف صادر می‌کند — یک سیاست رسمی که هیچ سابقه تاریخی در اسرائیل یا حتی در عملیات‌های نظامی اخیر ایالات متحده ندارد.

یک منبع گفت: «در بمباران فرمانده گردان شجاعیه، ما می‌دانستیم که بیش از ۱۰۰ غیرنظامی را خواهیم کشت.» «B» در مورد بمباران ۲ دسامبر که سخنگوی ارتش اسرائیل گفت هدف آن ترور وسام فرحت بوده است، به یاد آورد. «برای من، از نظر روانی، این غیرعادی بود. بیش از ۱۰۰ غیرنظامی — این از یک خط قرمز عبور می‌کند.»

منابع اطلاعاتی گفتند که در حملات مرگبارتری نیز شرکت داشته‌اند. برای ترور ایمن نوفل، فرمانده تیپ مرکزی غزه حماس، یک منبع گفت که ارتش مجوز کشتن تقریباً ۳۰۰ غیرنظامی را صادر کرد و چندین ساختمان را در حملات هوایی به اردوگاه آوارگان البریج در ۱۷ اکتبر، بر اساس مکان‌یابی غیردقیق نوفل، تخریب کرد.

یک منبع اطلاعاتی دیگر با نام «D» ادعا کرد: «یک سیاست کاملاً سهل‌انگارانه در مورد تلفات عملیات [بمباران] وجود داشت — آنقدر سهل‌انگارانه که به نظر من عنصری از انتقام در آن بود.» «هسته اصلی این سیاست، ترور فرماندهان ارشد [حماس و جهاد اسلامی] بود که برای آنها حاضر بودند صدها غیرنظامی را بکشند. ما یک محاسبه داشتیم: چند نفر برای یک فرمانده تیپ، چند نفر برای یک فرمانده گردان، و غیره.»

«B»، منبع ارشد اطلاعاتی، گفت که با نگاهی به گذشته، معتقد است این سیاست «نامتناسب» کشتار فلسطینیان در غزه، اسرائیلی‌ها را نیز به خطر می‌اندازد و این یکی از دلایلی بود که تصمیم گرفت برای این تحقیق مصاحبه کند. «در کوتاه‌مدت، ما امن‌تر هستیم، زیرا به حماس آسیب رسانده‌ایم. اما من فکر می‌کنم در درازمدت امنیت کمتری داریم. من می‌بینم که چگونه تمام خانواده‌های داغدار در غزه — که تقریباً همه هستند — انگیزه [مردم برای پیوستن] به حماس را ۱۰ سال دیگر افزایش خواهند داد. و برای [حماس] استخدام آنها بسیار آسان‌تر خواهد بود.»

مرحله ۵: محاسبه تلفات جانبی: این مدل به واقعیت متصل نبود

به گفته منابع اطلاعاتی، محاسبه ارتش اسرائیل از تعداد غیرنظامیانی که انتظار می‌رفت در هر خانه در کنار یک هدف کشته شوند — رویه‌ای که در تحقیقات قبلی «۹۷۲+» و «لوکال کال» بررسی شد — با کمک ابزارهای خودکار و نادرست انجام می‌شد. در جنگ‌های گذشته، پرسنل اطلاعاتی زمان زیادی را صرف تأیید تعداد افراد حاضر در خانه‌ای که قرار بود بمباران شود، می‌کردند. اما پس از ۷ اکتبر، این تأیید دقیق عمدتاً به نفع اتوماسیون کنار گذاشته شد.

منابع گفتند، سیستمی مشابه برای محاسبه تلفات جانبی را توصیف کردند که برای تصمیم‌گیری در مورد بمباران یک ساختمان در غزه استفاده می‌شد. آنها گفتند که این نرم‌افزار تعداد غیرنظامیان ساکن در هر خانه را قبل از جنگ محاسبه می‌کرد — با ارزیابی اندازه ساختمان و بررسی لیست ساکنان آن — و سپس این اعداد را به نسبت ساکنانی که ظاهراً محله را تخلیه کرده بودند، کاهش می‌داد. برای مثال، اگر ارتش تخمین می‌زد که نیمی از ساکنان یک محله آنجا را ترک کرده‌اند، برنامه خانه‌ای را که معمولاً ۱۰ ساکن داشت، به عنوان خانه‌ای با پنج نفر محاسبه می‌کرد.

منابع گفتند برای صرفه‌جویی در وقت، ارتش خانه‌ها را برای بررسی تعداد واقعی ساکنان نظارت نمی‌کرد، کاری که در عملیات‌های قبلی انجام می‌داد تا بفهمد آیا تخمین برنامه دقیق است یا خیر. یک منبع ادعا کرد: «این مدل به واقعیت متصل نبود.» «هیچ ارتباطی بین کسانی که اکنون، در طول جنگ، در خانه بودند و کسانی که قبل از جنگ به عنوان ساکن آنجا ثبت شده بودند، وجود نداشت. [در یک مورد] ما خانه‌ای را بمباران کردیم بدون اینکه بدانیم چندین خانواده در آنجا با هم پنهان شده بودند.» این منبع گفت که اگرچه ارتش می‌دانست که چنین خطاهایی ممکن است رخ دهد، اما این مدل نادرست به هر حال به کار گرفته شد، زیرا سریع‌تر بود.

مرحله ۶: بمباران خانه یک خانواده: شما یک خانواده را بی‌دلیل کشتید

منابع، توضیح دادند که گاهی اوقات فاصله قابل توجهی بین لحظه‌ای که سیستم‌های ردیابی مانند «بابا کجاست؟» به یک افسر هشدار می‌داد که یک هدف وارد خانه‌اش شده است، و خود بمباران وجود داشت — که منجر به کشته شدن کل خانواده‌ها حتی بدون ضربه زدن به هدف ارتش می‌شد. یک منبع گفت: «برای من بارها اتفاق افتاد که ما به خانه‌ای حمله کردیم، اما آن شخص حتی در خانه نبود.» «نتیجه این است که شما یک خانواده را بی‌دلیل کشتید.»

سه منبع اطلاعاتی گفتند که شاهد حادثه‌ای بوده‌اند که در آن ارتش اسرائیل خانه شخصی یک خانواده را بمباران کرده و بعداً مشخص شده است که هدف مورد نظر ترور حتی در داخل خانه نبوده است، زیرا هیچ تأیید بیشتری به صورت آنی انجام نشده بود.

در جنگ‌های کنونی، حداقل در رابطه با شبه‌نظامیان رده‌پایین که با استفاده از هوش مصنوعی علامت‌گذاری شده‌اند، منابع می‌گویند رویه ارزیابی خسارت بمب (BDA) برای صرفه‌جویی در وقت لغو شده است. منابع گفتند که نمی‌دانستند در هر حمله واقعاً چند غیرنظامی کشته شده‌اند، و در مورد نیروهای رده‌پایین مشکوک حماس و جهاد اسلامی که توسط هوش مصنوعی علامت‌گذاری شده بودند، حتی نمی‌دانستند که آیا خود هدف کشته شده است یا خیر.

یک منبع اطلاعاتی در تحقیقات قبلی که در ژانویه منتشر شد، به «لوکال کال» گفت: «شما دقیقاً نمی‌دانید چند نفر را و چه کسانی را کشته‌اید.» «فقط وقتی نوبت به نیروهای ارشد حماس می‌رسد، شما رویه BDA را دنبال می‌کنید. در بقیه موارد، اهمیتی نمی‌دهید. شما گزارشی از نیروی هوایی در مورد اینکه آیا ساختمان منفجر شده است یا نه دریافت می‌کنید، و تمام. شما هیچ ایده‌ای ندارید که چقدر تلفات جانبی وجود داشته است؛ بلافاصله به سراغ هدف بعدی می‌روید. تأکید بر ایجاد هرچه بیشتر اهداف، در سریع‌ترین زمان ممکن بود.»

اما در حالی که ارتش اسرائیل ممکن است از هر حمله بدون تأمل در تعداد تلفات عبور کند، امجد الشیخ، ساکن شجاعیه که ۱۱ نفر از اعضای خانواده خود را در بمباران ۲ دسامبر از دست داد، گفت که او و همسایگانش هنوز در حال جستجوی اجساد هستند. او گفت: «تا همین الان، اجسادی زیر آوار هستند.» «چهارده ساختمان مسکونی با ساکنانشان در داخل بمباران شدند. برخی از بستگان و همسایگان من هنوز زیر آوار مدفون هستند.»

ترجمه: طبقه‌۶۰

صادق منفرد

منبع: مجله «۹۷۲+» و «لوکال کال»