اذعان افسران صهیونیست به استفاده از «فناوری هوش مصنوعی» در کشتار فلسطینی‌ها در غزه

یک وبگاه عبری زبان جزئیات برنامه هوش مصنوعی موسوم به «لاوندر» را فاش کرد که ارتش رژیم صهیونیستی در تجاوزات خود به نوار غزه مورد استفاده قرار داد و صدها غیرنظامی فلسطینی را به شهادت رساند.

به گزارش مشرق، ۶ افسر صهیونیست که مستقیماً در استفاده از فناوری لاوندر برای کشتن فلسطینی‌ها دست داشتند در مصاحبه با مجری وبگاه عبری زبان +۹۷۲ جزئیاتی را درباره این فناوری فاش کردند.

فناوری لاوندر نقش اساسی در بمباران بی‌سابقه نوار غزه، به ویژه در مراحل اولیه جنگ ایفا کرد و به عنوان یک تصمیم انسانی بدون بررسی تلقی می‌شد. لاوندر که به معنی اسطوخودوس است برای شناسایی تمامی فعالان شاخه‌های نظامی مقاومت حماس و جهاد اسلامی در فلسطین، از جمله عناصر پایین‌رده به‌عنوان اهداف بالقوه برای تجاوز طراحی شده است.

به گفته افسران مذکور، ارتش رژیم صهیونیستی در هفته‌های نخستین جنگ پس از هفتم اکتبر به طور کامل به نرم‌افزار لاوندر متکی بوده است و ۳۷۰۰۰ فلسطینی را به عنوان شبه‌نظامیان مظنون و خانه‌های آنها را جهت حمله شناسایی و ثبت کرده است.

این وبگاه عبری زبان گزارش کرد در جنگ غزه ۲ نوع فناوری استفاده شده است: فناوری نخست لاوندر است که با هوش مصنوعی کار می‌کند و برای استفاده از الگوریتم‌هایی برای شناسایی فعالان حماس به عنوان هدف طراحی شده است. فناوری دوم با نام عجیب «پدر کجاست» سیستمی است که اهداف را از نظر جغرافیایی ردیابی می‌کند، به طوری که با این سیستم می‌توان قبل از حمله، این اهداف را تا منزل خانوادگی‌شان تعقیب کرد. این ۲ فناوری با هم اجزای جستجوی مسیر و هدف چیزی را تشکیل می‌دهند که ارتش اشغالگر آن را «زنجیره کشتار» می‌نامد.

براساس اظهارات این افسران، «در مراحل اولیه تجاوز به غزه، اشغالگران دست نظامیان خود را کاملا باز گذاشتند تا از لیست‌های کشتار تهیه شده توسط برنامه لاوندر استفاده کنند بی‌آنکه چرایی انتخاب اهداف توسط این برنامه را بررسی کنند یا داده‌های اطلاعاتی اولیه را مورد تحقیق قرار دهند. یکی از ۶ افسر صهیونیستی می‌گوید برای شناسایی هر هدف تنها ۲۰ ثانیه وقت لازم بود و هدف گیری و حمله به یک شخص اندازه زدن مهری برای تأیید اهداف شناسایی شده زمان می‌برد.

وی در ادامه گفت با این حال مقامات می‌دانستند که هوش مصنوعی لاوندر ۱۰ درصد احتمال خطا داشت و گاهی افرادی را به عنوان هدف مرتبط با مقاومت شناسایی می‌کرد که ارتباط ضعیفی با مقاومت دارند یا اصلا ارتباطی با آن ندارند.

طبق اظهارات این افسران، ارتش اشغالگر به طور سیستماتیک افراد مورد هدف را نه در حین فعالیت نظامی که به هنگام حضور در کنار خانواده خود معمولاً به هنگام شب مورد حمله قرار می‌داد.

به گفته این منابع، این فناوری‌ها برای حمله به اهداف شناسایی شده به هنگام حضور در کنار خانواده‌هایشان مورد استفاده قرار می‌گرفتند؛ اهدافی که اغلب کودکان و زنان یا افرادی بود که در هیچ عملیاتی شرکت نکرده بودند و تنها به دلیل اتکای تقریبا کامل ارتش رژیم صهیونیستی مخصوصا در هفته‌های اول جنگ غزه به هوش مصنوعی به شهادت رسیدند و دقیقا به همین دلیل شمار شهدای غزه بسیار بالاست.

«الف» یک افسر اطلاعاتی رژیم صهیونیستی که نام خود را فاش نکرد، گفت ارتش تنها به دنبال کشتن نیروهای حماس به هنگام حضور آنها در اماکن نظامی یا به هنگام انجام فعالیت نظامی نبود بلکه برعکس ارتش به عنوان اولین گزینه خانه‌های این نیروها را بمباران می‌کرد و فناوری هوش مصنوعی برای جستجوی آنها در منازل خود ساخته شده بود.

او گفت در مورد حمله به گروه‌های کوچک نیروهای مقاومت، ارتش ترجیح داد برعکس بمب‌های دقیق هوشمند تنها از موشک‌های هدایت نشده به نام «بمب‌های گنگ» استفاده کند که قادر به تخریب کل خانه و ایجاد خسارت‌های سنگین هستند.

یکی دیگر از این ۶ افسر صهیونیست می‌گوید ارتش اجازه داده بود صدها منزل مرتبط با گروه‌های کوچک مقاومت که توسط لاوندر شناسایی شده بودند، بمباران شود که اغلب این حملات منجر به شهادت غیرنظامیان و کل خانواده‌های آنها می‌شد.

برنامه لاوندر اطلاعات جمع آوری شده در مورد اکثر ساکنان ۲.۳ میلیونی نوار غزه را از طریق یک سیستم نظارت جمعی تجزیه و تحلیل می‌کند، سپس احتمال فعالیت هر فرد معین در شاخه نظامی مقاومت را ارزیابی و طبقه‌بندی می‌کند.

طبق اظهارات این افسران، این برنامه تقریباً به همه افراد غزه از ۱ تا ۱۰۰ امتیاز می‌دهد و به این شکل میزان احتمال نیروی مسلح بودن آنها را مشخص می‌کند. در واقع لاوندر داده‌های مربوط به فعالان فعلی حماس را دریافت می‌کند، به ویژگی‌های آنها توجه می‌کند، سپس براساس این ویژگی‌ها میزان شباهت سایر فلسطینی‌ها به نیروهای حماس را ارزیابی می‌کند و بعد از ۱ تا ۱۰۰ امتیاز می‌دهد.

این افسران گفتند هنگام حمله به گروه‌های کوچک مقاومت که توسط سیستم‌های هوش مصنوعی مانند لاوندر شناسایی می‌شدند، تعداد غیرنظامیان مجاز به کشته شدن در کنار هر هدف در هفته‌های اول جنگ ۲۰ نفر بود که تحت عنوان خسارات جانبی طبقه بندی می‌شدند.

منبع: ایسنا

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha

این مطالب را از دست ندهید....

فیلم برگزیده

برگزیده ورزشی

برگزیده عکس