به‌دلیل پیشرفت‌های سریع در هوش مصنوعی، پلتفرم‌های تسلیحاتی که می‌توانند به تنهایی انسان‌ها را شناسایی کرده، هدف قرار داده و تصمیم به کشتن بگیرند، به‌سرعت آینده درگیری‌ها را متحول می‌کنند.

به گزارش مشرق، براندون تسنگ، از اعضای پیشین یگان ویژه نیروی دریایی آمریکا و یکی از بنیانگذاران هوش مصنوعی شیلد می‌گوید: «این یک سخن کلیشه‌ای است اما من صد درصد معتقدم که آزادی رایگان نیست.» شرکت او اکنون از طریق هوش مصنوعی به رقابت برای برتری نظامی پیوسته است. این رقابت در سراسر جهان برای توسعه پهپادهای خودران و سایر فناوری‌هایی که می‌توانند به سربازان اجازه دهند از کارهای خطرناک اجتناب کنند، در جریان است.

در مقابل اما پل شار، تکاور پیشین ارتش آمریکا و نویسنده کتاب «ارتش هیچ»، توافق ناگفته‌ای را که میان مردانش برای شلیک نکردن وجود داشت، به‌خاطر می‌آورد؛ درحالی‌که شورشیان یک دختر ۸ ساله را مقابل آنها فرستاده بودند تا اطلاعاتی را به‌دست آورد.

در این شرایط، یک روبات او را به‌عنوان هدفی قانونی و مشروع شناسایی کرد و به سمتش آتش گشود.

شلیک کن؛ دستوری در راه نیست

بشریت اکنون در آستانه عصر جدیدی از جنگ‌ها ایستاده است. به‌دلیل پیشرفت‌های سریع در هوش مصنوعی، پلتفرم‌های تسلیحاتی که می‌توانند به تنهایی انسان‌ها را شناسایی کرده، هدف قرار داده و تصمیم به کشتن بگیرند، به‌سرعت آینده درگیری‌ها را متحول می‌کنند؛ بدون اینکه دستوری از مافوق خود بگیرد یا سربازی ماشه آن را بکشد.

به‌طور رسمی، آنها را سیستم‌های تسلیحات خودکار کشنده (LAWS) می‌نامند، اما منتقدان آنها را «روبات‌های قاتل» نام نهاده‌اند. در بسیاری از کشورها در سال‌های اخیر، سرمایه‌گذاری زیادی برای توسعه چنین تسلیحاتی شکل گرفته است.

ترکیه آغازگر عصر جدید

گزارش سازمان ملل متحد حاکی از آن است که پهپادهای Kargu-۲ ساخت ترکیه در حالت تمام خودکار، آغازگر این عصر جدید بودند که در سال ۲۰۲۰ در بحبوحه درگیری‌های جاری این کشور به جنگجویان در لیبی حمله کردند. ظهور و استقرار چنین ماشین‌هایی، بحث‌های شدیدی را در میان کارشناسان، فعالان و دیپلمات‌ها در سراسر جهان به راه انداخته است، زیرا آنها با مزایا و خطرات احتمالی استفاده از روبات‌ها دست و پنجه نرم کرده و بررسی می‌کنند که چگونه می‌شود، آنها را متوقف کرد.

با این حال، در یک چشم‌انداز پرسش این است که آیا جامعه بین‌المللی می‌تواند در مورد این ماشین‌ها به اجماع برسد؟ آیا تهدیدهای اخلاقی، قانونی و فناورانه ناشی از چنین سلاح‌هایی، توقف آنها را قبل از تسلط بر میدان جنگ ضروری می‌سازد؟ آیا ممنوعیت عمومی امکان‌پذیر است یا مجموعه‌ای از مقررات، گزینه واقعی‌تر به‌نظر می‌رسد؟

پاسخ کوتاه

ممنوعیت کامل سیستم‌های تسلیحاتی خودمختار به این زودی محتمل به‌نظر نمی‌رسد.

با این حال، تعداد فزاینده‌ای از صداها خواستار تنظیم آنها هستند و کارشناسان بر این باورند که یک تابوی جهانی از نوعی که علیه استفاده از سلاح‌های شیمیایی وجود دارد، امکان‌پذیر است.

قدرت‌های نظامی بزرگ ممکن است مجذوب مزایای بالقوه‌ میدان نبردی باشند که چنین سیستم‌هایی می‌توانند به آنها بدهند، اما به‌نظر می‌رسد که خارج از دولت‌ها و ژنرال‌ها، کمتر کسی به تشویق چنین چیزی رو آورده است.

نمی‌توان از جنگ جهانی سوم اجتناب کرد

در اواخرماه مارس، یاسمین افینا، یک پژوهشگر در چتم‌هاوس مستقر در لندن، به مجلس اعیان بریتانیا توضیح داد که چگونه آژانس امنیت ملی ایالات متحده (NSA) یک‌بار به اشتباه یک خبرنگار الجزیره را به‌عنوان یکی از اعضای القاعده شناسایی کرده است. این شناسایی تنها از طریق اسنادی که در سال ۲۰۱۳ توسط ادوارد اسنودن، پیمانکار سابق آژانس امنیت ملی آمریکا فاش شده بود، شکل گرفت.

توبی والش، کارشناس هوش مصنوعی در دانشگاه نیوساوت ولز در سیدنی در این‌باره می‌گوید: «ما می‌دانیم وقتی سیستم‌های کامپیوتری پیچیده را در یک محیط نامشخص و رقابتی در برابر یکدیگر قرار دهیم، چه اتفاقی می‌افتد. تنها راه برای متوقف کردن حلقه‌های بازخورد خطرناک و پیامدهای نامطلوب، استفاده از «مدارشکن» است.

در بازار سهام، زمانی که چنین شرایطی رخ می‌دهد، می‌توانیم به سادگی معاملات را از بین ببریم. اما ما نمی‌توانیم جلوی شروع جنگ جهانی سوم را بگیریم.» از سویی مطمئناً سیستم‌های تسلیحاتی خودمختار مبتنی بر هوش مصنوعی، مزایای خود را از منظر نظامی دارند. آنها می‌توانند برخی از وظایف میدان جنگ را بدون استفاده از سربازان انجام دهند و در نتیجه خطر تلفات را کاهش دهند.

حامیان، استدلال می‌کنند که فناوری پیچیده تعبیه‌شده در این سیستم‌ها می‌تواند خطای انسانی در تصمیم‌گیری را حذف کرده یا کاهش دهد.

دقت بیشتر در هدف‌گیری، حداقل در تئوری، می‌تواند تلفات انسانی تصادفی را کاهش دهد. همچنین سیستم‌های تسلیحاتی خودمختارکه می‌توانند برای قابلیت‌های دفاعی مستقر شوند، با الگوریتم‌های تشخیص سریع قادر به شناسایی و حذف یک تهدید بالقوه با کارایی و دقت بیشتر نسبت به انسان‌ها هستند.

قانونی بدون ضمانت اجرایی

در سال ۲۰۱۹ میلادی، ۱۲۶ کشور عضو کنوانسیون سلاح‌های متعارف سازمان ملل متحد (CCW) با ۱۱ اصل راهنمایی که توسط گروهی از کارشناسان منصوب شده توسط سازمان ملل برای رسیدگی به نگرانی‌ها در مورد سلاح‌های خودمختار توصیه شده بود، موافقت کردند. اما کارشناسان می‌گویند که مشخص نیست چگونه این اصل در جنگ اعمال خواهد شد.

به‌عنوان مثال، اگر یک روبات مرتکب جنایت جنگی شود، آیا افسر فرمانده، مسئول آن درنظر گرفته می‌شود؟ یا مدیران بالاتری که تصمیم به استقرار دستگاه را گرفته‌اند و یا شاید هم سازندگان؟