هوش مصنوعی لوندر؛ قاتل شبکهای اسرائیل چگونه کار میکند؟

به گزارش طبقه۶۰، در سال ۲۰۲۱، کتابی با عنوان «تیم انسان-ماشین: چگونه بین انسان و هوش مصنوعی همافزایی ایجاد کنیم که جهان ما را متحول خواهد کرد» تحت نام مستعار «سرتیپ Y.S.» به زبان انگلیسی منتشر شد. در این کتاب، نویسنده — مردی که تأیید کردیم فرمانده فعلی یگان اطلاعاتی زبده اسرائیل، یگان ۸۲۰۰، است — از طراحی یک ماشین ویژه دفاع میکند که بتواند به سرعت حجم عظیمی از دادهها را برای تولید هزاران «هدف» بالقوه برای حملات نظامی در بحبوحه جنگ پردازش کند. او مینویسد که چنین فناوریای چیزی را که او «گلوگاه انسانی برای یافتن اهداف جدید و تصمیمگیری برای تأیید اهداف» توصیف میکند، برطرف خواهد کرد.
معلوم شد که چنین ماشینی واقعاً وجود دارد. تحقیقات جدید نشان میدهد که ارتش اسرائیل یک برنامه مبتنی بر هوش مصنوعی به نام «لوندر» (لوندر) (Lavender) را توسعه داده است که برای اولین بار در اینجا فاش میشود.
به گفته شش افسر اطلاعاتی اسرائیل، که همگی در طول جنگ کنونی در نوار غزه در ارتش خدمت کرده و به طور مستقیم در استفاده از هوش مصنوعی برای تولید اهداف برای ترور نقش داشتهاند، «لوندر» نقش محوری در بمباران بیسابقه فلسطینیان، به ویژه در مراحل اولیه جنگ، ایفا کرده است. در واقع، به گفته این منابع، تأثیر آن بر عملیاتهای نظامی به حدی بود که آنها اساساً با خروجیهای ماشین هوش مصنوعی «طوری رفتار میکردند که گویی یک تصمیم انسانی است.»
به طور رسمی، سیستم «لوندر» برای علامتگذاری تمام نیروهای مشکوک در شاخههای نظامی حماس و جهاد اسلامی فلسطین (PIJ)، از جمله نیروهای ردهپایین، به عنوان اهداف بالقوه بمباران طراحی شده است. منابع گفتند که در هفتههای اول جنگ، ارتش تقریباً به طور کامل به «لوندر» متکی بود که حدود ۳۷٬۰۰۰ فلسطینی را به عنوان شبهنظامیان مشکوک — و خانههایشان را — برای حملات هوایی احتمالی شناسایی کرده بود.
در مراحل اولیه جنگ، ارتش به افسران اجازه گستردهای برای استفاده از لیستهای کشتار «لوندر» داد، بدون اینکه نیازی به بررسی دقیق چرایی انتخابهای ماشین یا بررسی دادههای اطلاعاتی خامی که این انتخابها بر اساس آنها انجام شده بود، وجود داشته باشد. یک منبع اظهار داشت که پرسنل انسانی اغلب تنها به عنوان یک «مهر تأیید» برای تصمیمات ماشین عمل میکردند و افزود که معمولاً، آنها شخصاً فقط حدود «۲۰ ثانیه» برای هر هدف وقت میگذاشتند تا مجوز بمباران را صادر کنند — فقط برای اینکه مطمئن شوند هدف علامتگذاری شده توسط «لوندر» مَرد است. این در حالی بود که میدانستند این سیستم در تقریباً ۱۰ درصد موارد دچار «خطا» میشود و مشخص بود که گاهی افرادی را که صرفاً ارتباطی ضعیف با گروههای شبهنظامی دارند یا هیچ ارتباطی ندارند، علامتگذاری میکند.
علاوه بر این، ارتش اسرائیل به طور سیستماتیک به افراد هدفگیری شده در حالی که در خانههایشان بودند — معمولاً در شب و زمانی که تمام خانوادههایشان حضور داشتند — حمله میکرد، نه در حین فعالیت نظامی. به گفته منابع، این به این دلیل بود که از دیدگاه اطلاعاتی، یافتن افراد در خانههای شخصیشان آسانتر بود. سیستمهای خودکار دیگری، از جمله سیستمی به نام «بابا کجاست؟» (!Where’s Daddy) که آن هم برای اولین بار در اینجا فاش میشود، به طور خاص برای ردیابی افراد هدفگیری شده و انجام بمبارانها هنگام ورود آنها به محل سکونت خانوادهشان استفاده میشد.
نتیجه این بود که، همانطور که منابع شهادت دادند، هزاران فلسطینی — که بیشترشان زنان و کودکان یا افرادی بودند که در درگیریها دخالتی نداشتند — به دلیل تصمیمات برنامه هوش مصنوعی، به ویژه در هفتههای اول جنگ، در حملات هوایی اسرائیل کشته شدند. یک افسر اطلاعاتی با نام «A» گفت: «ما علاقهای به کشتن نیروهای [حماس] تنها زمانی که در یک ساختمان نظامی بودند یا درگیر فعالیت نظامی بودند، نداشتیم.» «برعکس، ارتش اسرائیل آنها را بدون تردید در خانههایشان به عنوان گزینه اول بمباران میکرد. بمباران خانه یک خانواده بسیار آسانتر است. سیستم برای جستجوی آنها در این شرایط ساخته شده است.»
ماشین «لوندر» به سیستم هوش مصنوعی دیگری به نام «انجیل» (The Gospel) میپیوندد که در نشریات خود ارتش اسرائیل فاش شده بود. تفاوت اساسی بین این دو سیستم در تعریف هدف است: در حالی که «انجیل» ساختمانها و سازههایی را که ارتش ادعا میکند شبهنظامیان از آنجا فعالیت میکنند علامتگذاری میکند، «لوندر» افراد را علامتگذاری کرده و آنها را در لیست کشتار قرار میدهد.
علاوه بر این، به گفته منابع، هنگامی که نوبت به هدف قرار دادن شبهنظامیان ردهپایین میرسید که توسط «لوندر» علامتگذاری شده بودند، ارتش ترجیح میداد فقط از موشکهای غیرهدایتشونده، که معمولاً به «بمبهای احمقانه» (dumb bombs) معروف هستند (در مقابل بمبهای دقیق «هوشمند»)، استفاده کند. این بمبها میتوانند کل ساختمانها را بر سر ساکنانشان خراب کرده و تلفات قابل توجهی به بار آورند.
«سی»، یکی از افسران اطلاعاتی، گفت: «شما نمیخواهید بمبهای گرانقیمت را برای افراد غیرمهم هدر دهید — این برای کشور بسیار پرهزینه است و کمبود [این بمبها] وجود دارد.»
منبع دیگری گفت که شخصاً مجوز بمباران «صدها» خانه شخصی نیروهای ردهپایین را که توسط «لوندر» علامتگذاری شده بودند، صادر کرده است که بسیاری از این حملات منجر به کشته شدن غیرنظامیان و کل خانوادهها به عنوان «تلفات جانبی» شده است.
در اقدامی بیسابقه، به گفته دو منبع، ارتش در هفتههای اول جنگ تصمیم گرفت که برای هر نیروی ردهپایین حماس که «لوندر» علامتگذاری میکند، کشتن حداکثر ۱۵ تا ۲۰ غیرنظامی مجاز است؛ در گذشته، ارتش هیچ «تلفات جانبی» را در جریان ترور شبهنظامیان ردهپایین مجاز نمیدانست. منابع افزودند که در صورتی که هدف یک مقام ارشد حماس با درجه فرمانده گردان یا تیپ بود، ارتش در چندین مورد مجوز کشتن بیش از ۱۰۰ غیرنظامی را در ترور یک فرمانده صادر کرد.
تحقیقات زیر بر اساس شش مرحله زمانی تولید اهداف بسیار خودکار ارتش اسرائیل در هفتههای اولیه جنگ غزه سازماندهی شده است.
نخست، ما خود ماشین «لوندر» را توضیح میدهیم که دهها هزار فلسطینی را با استفاده از هوش مصنوعی علامتگذاری کرده است.
دوم، ما سیستم «بابا کجاست؟» را فاش میکنیم که این اهداف را ردیابی کرده و به ارتش هنگام ورود آنها به خانههای خانوادگیشان سیگنال میداد.
سوم، ما توضیح میدهیم که چگونه بمبهای «احمقانه» برای حمله به این خانهها انتخاب میشدند.
چهارم، ما توضیح میدهیم که چگونه ارتش تعداد مجاز غیرنظامیانی را که میتوانستند در جریان بمباران یک هدف کشته شوند، افزایش داد.
پنجم، ما اشاره میکنیم که چگونه نرمافزار خودکار به طور نادرست میزان غیرنظامیان در هر خانوار را محاسبه میکرد.
و ششم، ما نشان میدهیم که در چندین مورد، هنگامی که خانهای مورد حمله قرار میگرفت، معمولاً در شب، هدف فردی گاهی اصلاً در داخل خانه نبود، زیرا افسران نظامی اطلاعات را به صورت آنی تأیید نمیکردند.
مرحله ۱: تولید اهداف: ‘وقتی خودکار میشوید، تولید اهداف دیوانهوار میشود’
در ارتش اسرائیل، اصطلاح «هدف انسانی» در گذشته به یک نیروی نظامی ارشد اشاره داشت که طبق قوانین دپارتمان حقوق بینالملل ارتش، میتوان او را در خانه شخصیاش حتی اگر غیرنظامیان در اطراف باشند، کشت. منابع اطلاعاتی گفتند که در جنگهای قبلی اسرائیل، از آنجا که این روشی «بهویژه وحشیانه» برای کشتن کسی بود — اغلب با کشتن یک خانواده کامل در کنار هدف — چنین اهداف انسانی با دقت بسیار زیادی مشخص میشدند و تنها فرماندهان ارشد نظامی در خانههایشان بمباران میشدند تا اصل تناسب تحت قوانین بینالمللی حفظ شود.
اما پس از ۷ اکتبر — زمانی که شبهنظامیان تحت رهبری حماس حملهای مرگبار به جوامع جنوب اسرائیل انجام دادند، حدود ۱۲۰۰ نفر را کشتند و ۲۴۰ نفر را ربودند — ارتش، به گفته منابع، رویکردی کاملاً متفاوت اتخاذ کرد. تحت عملیات «شمشیرهای آهنین»، ارتش تصمیم گرفت تمام نیروهای شاخه نظامی حماس را به عنوان اهداف انسانی تعیین کند، صرف نظر از رتبه یا اهمیت نظامی آنها. و این همه چیز را تغییر داد.
این سیاست جدید همچنین یک مشکل فنی برای اطلاعات اسرائیل ایجاد کرد. در جنگهای گذشته، برای صدور مجوز ترور یک هدف انسانی، یک افسر باید فرآیند پیچیده و طولانی «مجرمسازی» را طی میکرد: شواهد را برای اطمینان از اینکه فرد واقعاً عضو ارشد شاخه نظامی حماس است، بررسی متقابل میکرد، محل زندگی، اطلاعات تماس او را پیدا میکرد و در نهایت میدانست چه زمانی در خانه است. هنگامی که لیست اهداف تنها چند ده نیروی ارشد را شامل میشد، پرسنل اطلاعاتی میتوانستند به صورت فردی کارهای مربوط به مجرمسازی و مکانیابی آنها را انجام دهند.
با این حال، هنگامی که لیست به دهها هزار نیروی ردهپایین گسترش یافت، ارتش اسرائیل به این نتیجه رسید که باید به نرمافزارهای خودکار و هوش مصنوعی تکیه کند. نتیجه، به شهادت منابع، این بود که نقش پرسنل انسانی در مجرمسازی فلسطینیان به عنوان نیروهای نظامی کنار گذاشته شد و هوش مصنوعی بیشتر کار را انجام میداد. به گفته چهار منبعی که با «۹۷۲+» و «لوکال کال» صحبت کردند، «لوندر» — که برای ایجاد اهداف انسانی در جنگ کنونی توسعه یافته است — حدود ۳۷٬۰۰۰ فلسطینی را به عنوان «شبهنظامیان حماس» مشکوک، که بیشترشان ردهپایین بودند، برای ترور علامتگذاری کرده است (سخنگوی ارتش اسرائیل وجود چنین لیست کشتاری را در بیانیهای رد کرد).
افسر ارشد «B» توضیح داد: «ما نمیدانستیم نیروهای ردهپایین چه کسانی هستند، زیرا اسرائیل به طور معمول آنها را [قبل از جنگ] ردیابی نمیکرد.» این موضوع دلیل توسعه این ماشین هدفگیری خاص برای جنگ کنونی را روشن میکند. «آنها میخواستند به ما اجازه دهند تا به طور خودکار به [نیروهای ردهپایین] حمله کنیم. این جام مقدس است. وقتی خودکار میشوید، تولید اهداف دیوانهوار میشود.»
منابع گفتند که مجوز استفاده خودکار از لیستهای کشتار «لوندر»، که قبلاً فقط به عنوان یک ابزار کمکی استفاده میشد، حدود دو هفته پس از شروع جنگ، پس از اینکه پرسنل اطلاعاتی «به صورت دستی» صحت یک نمونه تصادفی از چند صد هدف انتخاب شده توسط سیستم هوش مصنوعی را بررسی کردند، اعطا شد. هنگامی که آن نمونه نشان داد که نتایج «لوندر» به دقت ۹۰ درصد در شناسایی وابستگی یک فرد به حماس رسیده است، ارتش استفاده گسترده از این سیستم را مجاز دانست. از آن لحظه، منابع گفتند که اگر «لوندر» تصمیم میگرفت که فردی یک شبهنظامی در حماس است، اساساً از آنها خواسته میشد که با آن به عنوان یک دستور رفتار کنند، بدون اینکه نیازی به بررسی مستقل چرایی انتخاب ماشین یا بررسی دادههای اطلاعاتی خامی که بر اساس آن استوار بود، داشته باشند.
«B» گفت: «ساعت ۵ صبح، [نیروی هوایی] میآمد و تمام خانههایی را که ما علامتگذاری کرده بودیم، بمباران میکرد.» «ما هزاران نفر را از بین بردیم. ما آنها را یک به یک بررسی نکردیم — همه چیز را در سیستمهای خودکار قرار دادیم، و به محض اینکه یکی از [افراد علامتگذاری شده] در خانه بود، بلافاصله به یک هدف تبدیل میشد. ما او و خانهاش را بمباران میکردیم.»
یکی از منابع در مورد استفاده از هوش مصنوعی برای علامتگذاری شبهنظامیان ردهپایین گفت: «برای من بسیار تعجبآور بود که از ما خواسته شد خانهای را برای کشتن یک سرباز پیاده بمباران کنیم که اهمیت او در جنگ بسیار پایین بود.» «من به این اهداف لقب “اهداف زباله” داده بودم. با این حال، آنها را اخلاقیتر از اهدافی میدانستم که فقط برای “بازدارندگی” بمباران میکردیم — برجهای بلندی که تخلیه و فقط برای ایجاد تخریب سرنگون میشدند.»
نتایج مرگبار این کاهش محدودیتها در مرحله اولیه جنگ حیرتآور بود. بر اساس دادههای وزارت بهداشت فلسطین در غزه، که ارتش اسرائیل تقریباً به طور انحصاری از ابتدای جنگ به آن تکیه کرده است، اسرائیل در شش هفته اول جنگ، تا زمان آتشبس یک هفتهای که در ۲۴ نوامبر توافق شد، حدود ۱۵٬۰۰۰ فلسطینی — تقریباً نیمی از کل تلفات تاکنون — را کشت.
هرچه اطلاعات بیشتر و متنوعتر باشد، بهتر است
نرمافزار «لوندر» اطلاعات جمعآوری شده از اکثر ۲.۳ میلیون ساکن نوار غزه را از طریق یک سیستم نظارت گسترده تحلیل میکند، سپس احتمال اینکه هر فرد خاص در شاخه نظامی حماس یا جهاد اسلامی فعال باشد را ارزیابی و رتبهبندی میکند. به گفته منابع، این ماشین تقریباً به هر فردی در غزه یک امتیاز از ۱ تا ۱۰۰ میدهد که نشاندهنده احتمال شبهنظامی بودن اوست.
منابع توضیح دادند که «لوندر» یاد میگیرد ویژگیهای نیروهای شناختهشده حماس و جهاد اسلامی را که اطلاعاتشان به عنوان دادههای آموزشی به ماشین داده شده است، شناسایی کند و سپس همین ویژگیها — که «فیچر» نیز نامیده میشوند — را در میان جمعیت عمومی پیدا کند. فردی که مشخص شود دارای چندین ویژگی مجرمانه مختلف است، به امتیاز بالایی دست مییابد و بنابراین به طور خودکار به یک هدف بالقوه برای ترور تبدیل میشود.
در کتاب «تیم انسان-ماشین»، که در ابتدای این مقاله به آن اشاره شد، فرمانده فعلی یگان ۸۲۰۰ بدون ذکر نام «لوندر» از چنین سیستمی حمایت میکند. (خود فرمانده نیز نام برده نشده است، اما پنج منبع در یگان ۸۲۰۰ تأیید کردند که این فرمانده نویسنده کتاب است، همانطور که توسط هاآرتص نیز گزارش شده است.) فرمانده با توصیف پرسنل انسانی به عنوان یک «گلوگاه» که ظرفیت ارتش را در طول یک عملیات نظامی محدود میکند، ابراز تأسف میکند: «ما [انسانها] نمیتوانیم این همه اطلاعات را پردازش کنیم. مهم نیست چند نفر را برای تولید اهداف در طول جنگ مأمور کرده باشید — شما هنوز نمیتوانید به اندازه کافی هدف در روز تولید کنید.»
او میگوید راهحل این مشکل، هوش مصنوعی است. این کتاب راهنمای کوتاهی برای ساخت یک «ماشین هدف» ارائه میدهد که در توصیف شبیه به «لوندر» است و بر اساس هوش مصنوعی و الگوریتمهای یادگیری ماشین کار میکند. در این راهنما چندین مثال از «صدها و هزاران» ویژگی که میتوانند امتیاز یک فرد را افزایش دهند، آورده شده است، مانند عضویت در یک گروه واتساپ با یک شبهنظامی شناختهشده، تعویض تلفن همراه هر چند ماه یکبار، و تغییر مکرر آدرس.
فرمانده مینویسد: «هرچه اطلاعات بیشتر و متنوعتر باشد، بهتر است.» «اطلاعات بصری، اطلاعات تلفن همراه، ارتباطات رسانههای اجتماعی، اطلاعات میدان نبرد، تماسهای تلفنی، عکسها.»
فرمانده ادامه میدهد که در حالی که در ابتدا انسانها این ویژگیها را انتخاب میکنند، با گذشت زمان ماشین خود به خود ویژگیها را شناسایی خواهد کرد. او میگوید این امر میتواند به ارتشها امکان دهد «دهها هزار هدف» ایجاد کنند، در حالی که تصمیم واقعی در مورد حمله یا عدم حمله به آنها همچنان یک تصمیم انسانی باقی خواهد ماند.
سیاست “خطای صفر” وجود نداشت
«B»، یک افسر ارشد که از «لوندر» استفاده کرده است، تأیید کرد که در جنگ کنونی، از افسران خواسته نشده بود که به طور مستقل ارزیابیهای سیستم هوش مصنوعی را بازبینی کنند تا در وقت صرفهجویی شود و تولید انبوه اهداف انسانی بدون مانع ممکن گردد. «B» گفت: «همه چیز آماری بود، همه چیز مرتب بود — بسیار خشک بود.» او اشاره کرد که این عدم نظارت با وجود بررسیهای داخلی که نشان میداد محاسبات «لوندر» تنها در ۹۰ درصد مواقع دقیق در نظر گرفته میشود، مجاز بود؛ به عبارت دیگر، از قبل مشخص بود که ۱۰ درصد از اهداف انسانی که برای ترور برنامهریزی شده بودند، اصلاً عضو شاخه نظامی حماس نبودند.
برای مثال، منابع توضیح دادند که ماشین «لوندر» گاهی به اشتباه افرادی را که الگوهای ارتباطی مشابه با نیروهای شناختهشده حماس یا جهاد اسلامی داشتند، علامتگذاری میکرد — از جمله پلیس و کارکنان دفاع مدنی، بستگان شبهنظامیان، ساکنانی که اتفاقاً نام و نام مستعاری مشابه با یک نیرو داشتند، و اهالی غزهای که از دستگاهی استفاده میکردند که زمانی متعلق به یک نیروی حماس بوده است.
یک منبع منتقد به عدم دقت «لوندر» گفت: «یک فرد چقدر باید به حماس نزدیک باشد تا [توسط یک ماشین هوش مصنوعی] وابسته به این سازمان در نظر گرفته شود؟» «این یک مرز مبهم است. آیا فردی که از حماس حقوق دریافت نمیکند، اما در همه نوع کاری به آنها کمک میکند، یک نیروی حماس است؟ آیا کسی که در گذشته در حماس بوده، اما امروز دیگر آنجا نیست، یک نیروی حماس است؟ هر یک از این ویژگیها — مشخصاتی که یک ماشین به عنوان مشکوک علامتگذاری میکند — نادرست است.»
مشکلات مشابهی در توانایی ماشینهای هدفگیری برای ارزیابی تلفن مورد استفاده توسط فردی که برای ترور علامتگذاری شده، وجود دارد. این منبع گفت: «در جنگ، فلسطینیان مدام تلفنهای خود را عوض میکنند.» «مردم تماس خود را با خانوادههایشان از دست میدهند، تلفن خود را به یک دوست یا همسر میدهند، شاید آن را گم کنند. هیچ راهی برای اتکای ۱۰۰ درصدی به مکانیزم خودکاری که تعیین میکند کدام شماره [تلفن] به چه کسی تعلق دارد، وجود ندارد.»
به گفته منابع، ارتش میدانست که نظارت حداقلی انسانی موجود، این خطاها را کشف نخواهد کرد. یک منبع که از «لوندر» استفاده کرده بود، گفت: «سیاست “خطای صفر” وجود نداشت. با اشتباهات به صورت آماری برخورد میشد.» «به دلیل گستردگی و مقیاس، پروتکل این بود که حتی اگر مطمئن نیستید که ماشین درست میگوید، میدانید که از نظر آماری مشکلی ندارد. پس آن را انجام میدهید.»
ما فقط بررسی میکردیم که هدف یک مرد باشد
ارتش اسرائیل قاطعانه این ادعاها را رد میکند. سخنگوی ارتش اسرائیل در بیانیهای استفاده از هوش مصنوعی برای مجرمسازی اهداف را رد کرد و گفت اینها صرفاً «ابزارهای کمکی هستند که به افسران در فرآیند مجرمسازی کمک میکنند.» این بیانیه ادامه داد: «در هر صورت، یک بررسی مستقل توسط یک تحلیلگر [اطلاعاتی] لازم است که تأیید کند اهداف شناسایی شده، اهداف مشروعی برای حمله هستند، مطابق با شرایط مندرج در دستورالعملهای ارتش اسرائیل و قوانین بینالمللی.»
با این حال، منابع گفتند که تنها پروتکل نظارت انسانی قبل از بمباران خانههای شبهنظامیان «ردهپایین» مشکوک که توسط «لوندر» علامتگذاری شده بودند، انجام یک بررسی واحد بود: اطمینان از اینکه هدف انتخاب شده توسط هوش مصنوعی مرد است و نه زن. فرض در ارتش این بود که اگر هدف یک زن باشد، ماشین احتمالاً اشتباه کرده است، زیرا هیچ زنی در صفوف شاخههای نظامی حماس و جهاد اسلامی وجود ندارد.
«B» گفت: «یک انسان باید [هدف را] فقط برای چند ثانیه تأیید میکرد.» او توضیح داد که این پروتکل پس از آنکه متوجه شدند سیستم «لوندر» در بیشتر مواقع «درست عمل میکند» به اجرا درآمد. «در این مرحله برای هر هدف ۲۰ ثانیه وقت میگذاشتم و هر روز دهها مورد از آنها را انجام میدادم. من به عنوان یک انسان هیچ ارزش افزودهای نداشتم، جز اینکه مهر تأیید باشم. این کار زمان زیادی را صرفهجویی میکرد. اگر [نیرو] در مکانیزم خودکار ظاهر میشد و من بررسی میکردم که او مرد است، اجازه بمباران او، مشروط به بررسی تلفات جانبی، وجود داشت.»
در عمل، منابع گفتند این به این معنا بود که برای مردان غیرنظامی که به اشتباه توسط «لوندر» علامتگذاری شده بودند، هیچ مکانیزم نظارتی برای کشف اشتباه وجود نداشت.
مرحله ۲: پیوند دادن اهداف به خانههای خانوادگی: بیشتر افرادی که کشتید زنان و کودکان بودند
مرحله بعدی در رویه ترور ارتش اسرائیل، شناسایی محلی برای حمله به اهدافی است که «لوندر» تولید میکند. سخنگوی ارتش اسرائیل در بیانیهای در پاسخ به این مقاله ادعا کرد که «حماس نیروها و داراییهای نظامی خود را در قلب جمعیت غیرنظامی قرار میدهد، به طور سیستماتیک از جمعیت غیرنظامی به عنوان سپر انسانی استفاده میکند و از داخل سازههای غیرنظامی، از جمله مکانهای حساسی مانند بیمارستانها، مساجد، مدارس و تأسیسات سازمان ملل، میجنگد. ارتش اسرائیل به قوانین بینالمللی متعهد است و بر اساس آن عمل میکند و حملات خود را فقط به اهداف نظامی و نیروهای نظامی هدایت میکند.»
شش منبعی که با آنها صحبت کردیم تا حدی این موضوع را تأیید کردند و گفتند که شبکه تونل گسترده حماس به طور عمدی از زیر بیمارستانها و مدارس عبور میکند؛ شبهنظامیان حماس از آمبولانسها برای تردد استفاده میکنند؛ و داراییهای نظامی بیشماری در نزدیکی ساختمانهای غیرنظامی قرار گرفتهاند. با این حال، برخلاف بیانیههای رسمی ارتش اسرائیل، منابع توضیح دادند که یکی از دلایل اصلی آمار بیسابقه تلفات ناشی از بمباران کنونی اسرائیل این واقعیت است که ارتش به طور سیستماتیک به اهداف در خانههای شخصیشان، در کنار خانوادههایشان، حمله کرده است — بخشی به این دلیل که از نظر اطلاعاتی علامتگذاری خانههای خانوادگی با استفاده از سیستمهای خودکار آسانتر بود.
در واقع، چندین منبع تأکید کردند که برخلاف موارد متعدد درگیری نیروهای حماس از مناطق غیرنظامی، در مورد حملات ترور سیستماتیک، ارتش به طور معمول انتخاب فعالانهای برای بمباران شبهنظامیان مشکوک در داخل خانوارهای غیرنظامی که هیچ فعالیت نظامی از آنجا صورت نمیگرفت، انجام میداد. این انتخاب، به گفته آنها، بازتابی از نحوه طراحی سیستم نظارت گسترده اسرائیل در غزه بود.
منابع گفتند که از آنجا که هر کسی در غزه یک خانه شخصی داشت که میتوانست با آن مرتبط شود، سیستمهای نظارتی ارتش میتوانستند به راحتی و به طور خودکار افراد را به خانههای خانوادگی «پیوند» دهند. به منظور شناسایی لحظه ورود نیروها به خانههایشان به صورت آنی، نرمافزارهای خودکار مختلف دیگری توسعه یافتهاند. این برنامهها هزاران فرد را به طور همزمان ردیابی میکنند، زمان حضور آنها در خانه را شناسایی میکنند و یک هشدار خودکار به افسر هدفگیری ارسال میکنند که سپس خانه را برای بمباران علامتگذاری میکند. یکی از چندین نرمافزار ردیابی، که برای اولین بار در اینجا فاش میشود، «بابا کجاست؟» نام دارد.
یک منبع آگاه از این سیستم گفت: «شما صدها [هدف] را در سیستم قرار میدهید و منتظر میمانید تا ببینید چه کسی را میتوانید بکشید.» «این را شکار گسترده مینامند: شما از لیستهایی که سیستم هدف تولید میکند، کپی-پیست میکنید.»
«A» توضیح داد که با افزودن یک نام از لیستهای تولید شده توسط «لوندر» به سیستم ردیابی خانگی «بابا کجاست؟»، فرد علامتگذاری شده تحت نظارت مداوم قرار میگرفت و به محض ورود به خانهاش، میتوانست مورد حمله قرار گیرد و خانه بر سر همه افراد داخل آن خراب شود. «A» گفت: «فرض کنید شما محاسبه میکنید که [یک] نیروی حماس به علاوه ۱۰ [غیرنظامی در خانه] وجود دارد.» «معمولاً این ۱۰ نفر زنان و کودکان خواهند بود. بنابراین به طرز مضحکی، معلوم میشود که بیشتر افرادی که شما کشتید، زنان و کودکان بودند.»
مرحله ۳: انتخاب سلاح: ما معمولاً حملات را با “بمبهای احمقانه” انجام میدادیم
هنگامی که «لوندر» یک هدف را برای ترور علامتگذاری کرد، پرسنل ارتش تأیید کردند که او مرد است، و نرمافزار ردیابی هدف را در خانهاش مکانیابی کرد، مرحله بعدی انتخاب مهماتی است که با آن او را بمباران کنند.
سه منبع اطلاعاتی گفتند که نیروهای ردهپایین علامتگذاری شده توسط «لوندر» تنها با بمبهای احمقانه (غیرهدایتشونده) ترور میشدند تا تسلیحات گرانتر ذخیره شود. یک منبع توضیح داد که پیامد این کار این بود که ارتش به یک هدف ردهپایین حمله نمیکرد اگر او در یک ساختمان بلندمرتبه زندگی میکرد، زیرا ارتش نمیخواست یک «بمب طبقهای» دقیقتر و گرانتر (با اثرات جانبی محدودتر) را برای کشتن او هزینه کند. اما اگر یک هدف ردهپایین در ساختمانی با تنها چند طبقه زندگی میکرد، ارتش مجاز بود او و همه افراد داخل ساختمان را با یک بمب احمقانه بکشد.
«C» که در جنگ کنونی از برنامههای خودکار مختلفی استفاده کرده بود، شهادت داد: «در مورد تمام اهداف ردهپایین اینطور بود.» «تنها سؤال این بود که آیا از نظر تلفات جانبی امکان حمله به ساختمان وجود دارد؟ زیرا ما معمولاً حملات را با بمبهای احمقانه انجام میدادیم، و این به معنای تخریب کامل خانه بر سر ساکنانش بود. اما حتی اگر حملهای لغو شود، شما اهمیتی نمیدهید — بلافاصله به سراغ هدف بعدی میروید. به لطف سیستم، اهداف هرگز تمام نمیشوند. شما ۳۶٬۰۰۰ هدف دیگر در انتظار دارید.»
مرحله ۴: صدور مجوز برای تلفات غیرنظامی: ما تقریباً بدون در نظر گرفتن تلفات جانبی حمله میکردیم
یک منبع گفت که هنگام حمله به نیروهای ردهپایین، از جمله آنهایی که توسط سیستمهای هوش مصنوعی مانند «لوندر» علامتگذاری شده بودند، تعداد غیرنظامیانی که مجاز به کشتن آنها در کنار هر هدف بودند، در هفتههای اولیه جنگ تا ۲۰ نفر تعیین شده بود. منبع دیگری ادعا کرد که این عدد ثابت تا ۱۵ نفر بود. این «درجههای تلفات جانبی»، همانطور که ارتش آنها را مینامد، به طور گسترده برای تمام شبهنظامیان ردهپایین مشکوک اعمال میشد، صرف نظر از رتبه، اهمیت نظامی و سن آنها، و بدون هیچ بررسی مورد به موردی برای سنجش مزیت نظامی ترور آنها در برابر آسیب مورد انتظار به غیرنظامیان.
به گفته «A»، که در جنگ کنونی افسر اتاق عملیات هدف بود، دپارتمان حقوق بینالملل ارتش هرگز قبلاً چنین «مجوز گستردهای» برای چنین درجه بالایی از تلفات جانبی نداده بود. «A» ادامه داد: «هر کسی که در یکی دو سال گذشته یونیفرم حماس را پوشیده بود، میتوانست با ۲۰ [غیرنظامی کشته شده به عنوان] تلفات جانبی بمباران شود، حتی بدون مجوز خاص. در عمل، اصل تناسب وجود نداشت.»
این درجه تلفات جانبی از پیش تعیین شده و ثابت، به گفته منابع، به تسریع تولید انبوه اهداف با استفاده از ماشین «لوندر» کمک کرد، زیرا در وقت صرفهجویی میکرد.
منابع گفتند که اکنون، تا حدی به دلیل فشار آمریکا، ارتش اسرائیل دیگر به طور انبوه اهداف انسانی ردهپایین را برای بمباران در خانههای غیرنظامی تولید نمیکند. این واقعیت که بیشتر خانهها در نوار غزه قبلاً تخریب یا آسیب دیدهاند و تقریباً کل جمعیت آواره شدهاند نیز توانایی ارتش برای تکیه بر پایگاههای داده اطلاعاتی و برنامههای خودکار مکانیابی خانه را مختل کرده است. با این حال، حملات هوایی علیه فرماندهان ارشد حماس همچنان ادامه دارد، و منابع گفتند که برای این حملات، ارتش مجوز کشتن «صدها» غیرنظامی را برای هر هدف صادر میکند — یک سیاست رسمی که هیچ سابقه تاریخی در اسرائیل یا حتی در عملیاتهای نظامی اخیر ایالات متحده ندارد.
یک منبع گفت: «در بمباران فرمانده گردان شجاعیه، ما میدانستیم که بیش از ۱۰۰ غیرنظامی را خواهیم کشت.» «B» در مورد بمباران ۲ دسامبر که سخنگوی ارتش اسرائیل گفت هدف آن ترور وسام فرحت بوده است، به یاد آورد. «برای من، از نظر روانی، این غیرعادی بود. بیش از ۱۰۰ غیرنظامی — این از یک خط قرمز عبور میکند.»
منابع اطلاعاتی گفتند که در حملات مرگبارتری نیز شرکت داشتهاند. برای ترور ایمن نوفل، فرمانده تیپ مرکزی غزه حماس، یک منبع گفت که ارتش مجوز کشتن تقریباً ۳۰۰ غیرنظامی را صادر کرد و چندین ساختمان را در حملات هوایی به اردوگاه آوارگان البریج در ۱۷ اکتبر، بر اساس مکانیابی غیردقیق نوفل، تخریب کرد.
یک منبع اطلاعاتی دیگر با نام «D» ادعا کرد: «یک سیاست کاملاً سهلانگارانه در مورد تلفات عملیات [بمباران] وجود داشت — آنقدر سهلانگارانه که به نظر من عنصری از انتقام در آن بود.» «هسته اصلی این سیاست، ترور فرماندهان ارشد [حماس و جهاد اسلامی] بود که برای آنها حاضر بودند صدها غیرنظامی را بکشند. ما یک محاسبه داشتیم: چند نفر برای یک فرمانده تیپ، چند نفر برای یک فرمانده گردان، و غیره.»
«B»، منبع ارشد اطلاعاتی، گفت که با نگاهی به گذشته، معتقد است این سیاست «نامتناسب» کشتار فلسطینیان در غزه، اسرائیلیها را نیز به خطر میاندازد و این یکی از دلایلی بود که تصمیم گرفت برای این تحقیق مصاحبه کند. «در کوتاهمدت، ما امنتر هستیم، زیرا به حماس آسیب رساندهایم. اما من فکر میکنم در درازمدت امنیت کمتری داریم. من میبینم که چگونه تمام خانوادههای داغدار در غزه — که تقریباً همه هستند — انگیزه [مردم برای پیوستن] به حماس را ۱۰ سال دیگر افزایش خواهند داد. و برای [حماس] استخدام آنها بسیار آسانتر خواهد بود.»
مرحله ۵: محاسبه تلفات جانبی: این مدل به واقعیت متصل نبود
به گفته منابع اطلاعاتی، محاسبه ارتش اسرائیل از تعداد غیرنظامیانی که انتظار میرفت در هر خانه در کنار یک هدف کشته شوند — رویهای که در تحقیقات قبلی «۹۷۲+» و «لوکال کال» بررسی شد — با کمک ابزارهای خودکار و نادرست انجام میشد. در جنگهای گذشته، پرسنل اطلاعاتی زمان زیادی را صرف تأیید تعداد افراد حاضر در خانهای که قرار بود بمباران شود، میکردند. اما پس از ۷ اکتبر، این تأیید دقیق عمدتاً به نفع اتوماسیون کنار گذاشته شد.
منابع گفتند، سیستمی مشابه برای محاسبه تلفات جانبی را توصیف کردند که برای تصمیمگیری در مورد بمباران یک ساختمان در غزه استفاده میشد. آنها گفتند که این نرمافزار تعداد غیرنظامیان ساکن در هر خانه را قبل از جنگ محاسبه میکرد — با ارزیابی اندازه ساختمان و بررسی لیست ساکنان آن — و سپس این اعداد را به نسبت ساکنانی که ظاهراً محله را تخلیه کرده بودند، کاهش میداد. برای مثال، اگر ارتش تخمین میزد که نیمی از ساکنان یک محله آنجا را ترک کردهاند، برنامه خانهای را که معمولاً ۱۰ ساکن داشت، به عنوان خانهای با پنج نفر محاسبه میکرد.
منابع گفتند برای صرفهجویی در وقت، ارتش خانهها را برای بررسی تعداد واقعی ساکنان نظارت نمیکرد، کاری که در عملیاتهای قبلی انجام میداد تا بفهمد آیا تخمین برنامه دقیق است یا خیر. یک منبع ادعا کرد: «این مدل به واقعیت متصل نبود.» «هیچ ارتباطی بین کسانی که اکنون، در طول جنگ، در خانه بودند و کسانی که قبل از جنگ به عنوان ساکن آنجا ثبت شده بودند، وجود نداشت. [در یک مورد] ما خانهای را بمباران کردیم بدون اینکه بدانیم چندین خانواده در آنجا با هم پنهان شده بودند.» این منبع گفت که اگرچه ارتش میدانست که چنین خطاهایی ممکن است رخ دهد، اما این مدل نادرست به هر حال به کار گرفته شد، زیرا سریعتر بود.
مرحله ۶: بمباران خانه یک خانواده: شما یک خانواده را بیدلیل کشتید
منابع، توضیح دادند که گاهی اوقات فاصله قابل توجهی بین لحظهای که سیستمهای ردیابی مانند «بابا کجاست؟» به یک افسر هشدار میداد که یک هدف وارد خانهاش شده است، و خود بمباران وجود داشت — که منجر به کشته شدن کل خانوادهها حتی بدون ضربه زدن به هدف ارتش میشد. یک منبع گفت: «برای من بارها اتفاق افتاد که ما به خانهای حمله کردیم، اما آن شخص حتی در خانه نبود.» «نتیجه این است که شما یک خانواده را بیدلیل کشتید.»
سه منبع اطلاعاتی گفتند که شاهد حادثهای بودهاند که در آن ارتش اسرائیل خانه شخصی یک خانواده را بمباران کرده و بعداً مشخص شده است که هدف مورد نظر ترور حتی در داخل خانه نبوده است، زیرا هیچ تأیید بیشتری به صورت آنی انجام نشده بود.
در جنگهای کنونی، حداقل در رابطه با شبهنظامیان ردهپایین که با استفاده از هوش مصنوعی علامتگذاری شدهاند، منابع میگویند رویه ارزیابی خسارت بمب (BDA) برای صرفهجویی در وقت لغو شده است. منابع گفتند که نمیدانستند در هر حمله واقعاً چند غیرنظامی کشته شدهاند، و در مورد نیروهای ردهپایین مشکوک حماس و جهاد اسلامی که توسط هوش مصنوعی علامتگذاری شده بودند، حتی نمیدانستند که آیا خود هدف کشته شده است یا خیر.
یک منبع اطلاعاتی در تحقیقات قبلی که در ژانویه منتشر شد، به «لوکال کال» گفت: «شما دقیقاً نمیدانید چند نفر را و چه کسانی را کشتهاید.» «فقط وقتی نوبت به نیروهای ارشد حماس میرسد، شما رویه BDA را دنبال میکنید. در بقیه موارد، اهمیتی نمیدهید. شما گزارشی از نیروی هوایی در مورد اینکه آیا ساختمان منفجر شده است یا نه دریافت میکنید، و تمام. شما هیچ ایدهای ندارید که چقدر تلفات جانبی وجود داشته است؛ بلافاصله به سراغ هدف بعدی میروید. تأکید بر ایجاد هرچه بیشتر اهداف، در سریعترین زمان ممکن بود.»
اما در حالی که ارتش اسرائیل ممکن است از هر حمله بدون تأمل در تعداد تلفات عبور کند، امجد الشیخ، ساکن شجاعیه که ۱۱ نفر از اعضای خانواده خود را در بمباران ۲ دسامبر از دست داد، گفت که او و همسایگانش هنوز در حال جستجوی اجساد هستند. او گفت: «تا همین الان، اجسادی زیر آوار هستند.» «چهارده ساختمان مسکونی با ساکنانشان در داخل بمباران شدند. برخی از بستگان و همسایگان من هنوز زیر آوار مدفون هستند.»
ترجمه: طبقه۶۰
صادق منفرد
منبع: مجله «۹۷۲+» و «لوکال کال»


