تاریخ انتشار: ۱۰:۴۰ - ۱۱ اسفند ۱۴۰۲
رویداد۲۴ بررسی می‌کند:

ربات‌های قاتل؛ آیا جنگ‌افزار‌های خودمختار سرنوشت جنگ‌های آینده را به دست می‌گیرند و انسان‌ها را حذف خواهند کرد؟

مجله فارن‌افرز در شماره جدید خود به موضوع استفاده گسترده از ربات‌هایی پرداخته که می‌توانند خودشان تصمیم بگیرند. به نوشته این مجله استراتژیک در حوزه روابط بین‌الملل استفاده از این ربات‌ها، ماهیت جنگ‌های آینده را تغییر خواهد داد و پیامدهای وحشتناکی خواهد داشت. این مجله معتقد است باید یک توافق بین‌المللی برای محدودیت و قاعده‌گذاری استفاده از ربات‌های خودفرمان صورت گیرد. ترجمه اختصاصی این مقاله را در رویداد۲۴ بخوانید.

ربات‌های قاتل

رویداد۲۴: سال گذشته، یک شرکت اوکراینی سازنده هواپیما‌های بدون‌سرنشین به اسم «ساکر» ادعا کرد که یک سلاح کاملاً خودمختار به نام «ساکر اسکات» را به میدان آورده است که از هوش مصنوعی برای تصمیم‌گیری در مورد اینکه چه کسی را در میدان جنگ بکشد، استفاده می‌کند. مقامات ساکر اعلام کردند که این پهپاد حملاتی را در مقیاس کوچک انجام داده است.

اگرچه این ادعا به طور مستقل تأیید نشده است، اما حالا می‌دانیم که فناوری لازم برای ساخت چنین سلاحی قطعا وجود دارد. این، یک گام فنی کوچک برای تولید سلاح‌های کاملاً خودمختار که قادر به جستجو و انتخاب اهداف به تنهایی باشند، اما یک گام بلند اخلاقی و قانونی بزرگ است که نتیجه‌های مهمی خواهد داشت.

استقرار پهپاد ساکر نشان می‌دهد که قاعده‌گذاری کمی در حوزه سلاح‌های خودمختار وجود دارد. کشور‌ها به مدت یک دهه در مورد اینکه در مورد تسلیحات خودمختار چه باید بکنند بحث کردند، اما نتوانسته‌اند بر روی مقرراتی برای محدود کردن آسیب‌های این جور سلاح‌ها به توافق برسند. با این حال نیازی فوری به توافق بین‌المللی در این زمینه وجود دارد. توسعه بدون محدودیت تسلیحات خودمختار می‌تواند منجر به جنگ‌هایی شود که فراتر از کنترل انسان گسترش می‌یابند و در آن‌ها قواعد اندکی برای حمایت از جان رزمنده‌ها و همچنین غیرنظامیان وجود دارد.
حتی اگر ممنوعیت فروش این‌جور سلاح‌ها واقع‌بینانه نباشد، باز مقررات عملی زیادی وجود دارد که دولت‌ها می‌توانند برای کاهش خطرات سلاح‌های خودمختار اتخاذ کنند. بدون محدودیت، بشریت در خطر آن قرار دارد که به سوی آینده‌ای از جنگ خطرناک و ماشین‌محور حرکت کند.

سلاح‌های خودکار بیخ گوشمان هستند

ارتش‌های کشور‌های مختلف از دهه ۱۹۸۰ از تسلیحات نیمه‌خودمختار در شرایط محدود و دفاعی استفاده کرده‌اند. امروزه حداقل ۳۰ کشور از سیستم‌های دفاع هوایی و موشکی یا سیستم‌های حفاظت ضدموشکی استفاده می‌کنند که حالت‌های خودگردان دارند. این سامانه‌های دفاعی پس از فعال‌شدن، می‌توانند به‌طور خودکار موشک‌ها، توپ‌ها، خمپاره‌ها، موشک‌ها یا هواپیما‌های وارده را رصد کرده و آن‌ها را رهگیری کنند. اما انسان‌ها بر عملکرد آن‌ها نظارت دارند و اگر مشکلی پیش آمد می‌توانند مداخله کنند.

ارتش‌ها در پذیرش و استفاده فناوری هوش مصنوعی در مقایسه با با کسب‌وکار‌های اقتصاد عقب هستند. دلیلش تا حدی فرآیند‌های دست‌و‌پا گیر بوروکراتیک است. جنگ در اوکراین، نوآوری در هر دو طرف جنگ را سرعت بخشیده. به طور خاص طرفین استفاده زیادی از هواپیما‌های بدون‌سرنشین کوچک کرده‌اند. مسکو و کیف به طور گسترده از پهپاد‌ها برای شناسایی و حملات به نیرو‌های زمینی یکدیگر استفاده کرده‌اند. استفاده از پهپاد‌ها به نوبه خود منجر به توسعه اقدامات متقابل جدید، از جمله سیستم‌های جنگ الکترونیکی شده است که لینک‌های ارتباطی پهپاد‌ها را مختل می‌کند یا مکان اپراتور‌ها را بر روی زمین مشخص می‌کند و سپس می‌توان به آن‌ها حمله کرد. این تمرکز روی اپراتور از نظر استراتژیک مهم است: بیشتر پهپاد‌ها از راه دور هدایت می‌شوند و اپراتور انسانی را ضروری می‌کند. خودبه‌خود اپراتور انسانی به یک هدف حیاتی تبدیل می‌شود. بدون اپراتور‌های انسانی، پهپاد‌های کنترل از راه دور بی‌فایده می‌شوند.

به همین دلیل است که پهپاد‌های خودران بسیار ارزشمند هستند: آن‌ها به پیوند‌های ارتباطی آسیب‌پذیر متکی نیستند. برای مقابله با آنها، خود پهپاد‌ها را باید پیدا و نابود کرد. سلاح‌های خودمختار با توجه به نیاز‌های یک درگیری تغییر می‌کنند. در اوکراین، مسکو و کیف از پهپاد‌های کوچک هوایی برای هدف قرار دادن پرسنل و حمله به خودرو‌ها استفاده کرده‌اند. پهپاد‌های بزرگتر با ارتفاع متوسط برای رسیدن به عمق بیشتر در پشت خطوط دشمن برای هدف قرار دادن رادار‌ها و تاسیسات استفاده شده‌اند.

اوکراین حتی از قایق‌های بدون‌سرنشین برای حمله به ناوگان روسیه در دریای سیاه استفاده کرده است. همه این پهپادها، که در حال حاضر از راه دور کنترل می‌شوند، می‌توانند ارتقا داده شوند تا به صورت خودمختار درآیند و در صورت مسدود شدن لینک ارتباطی، امکان ادامه کار داشته باشند. درگیری‌های دیگر هم می‌تواند منجر به توسعه سلاح‌های خودمختار مختلف شوند. چندین کشور از جمله چین، فرانسه، هند، روسیه، بریتانیا و ایالات متحده در حال حاضر روی پهپاد‌های جنگی رادارگریز کار می‌کنند.

در جنگ‌های آینده این پهپاد‌ها به طور مستقل دفاع هوایی یا پرتابگر‌های موشک متحرک را هدف قرار می‌دهند. روبات‌های زمینی از همتایان هوایی و دریایی خود عقب مانده‌اند، اما در جنگ‌های آینده می‌توان شاهد استفاده از سلاح‌های خودمختار بر روی ربات‌ها یا محل اسلحه‌های ثابت بود. تغییرات احتمالاً به همین جا ختم نمی‌شود. پهپاد‌ها وقتی زیاد شوند، می‌توانند بدون نیاز به انسان‌ها رفتار خود را هماهنگ کنند و به تغییرات میدان نبرد با سرعتی فراتر از توانایی‌های انسانی واکنش نشان دهند.

سرعت پهپاد‌ها با سرعت ماشین کار می‌کنند و همین سرعت عملیات را در حد ماشین بالا می‌برد. این به نوبه خود می‌تواند کار را برای حذف انسان از چرخه تصمیم سریع‌تر کند. پیامد‌های این تغییر فاز به دوران جدیدی از جنگ ماشین‌محور، عمیق خواهد بود.

کمپین توقف ربات‌های قاتل

دانشمندان برجسته هوش مصنوعی، از جمله استوارت راسل، استاد دانشگاه کالیفرنیا و یان لی‌چون، برنده جایزه تورینگ، در مورد خطرات سلاح‌های خودران هشدار داده‌اند. کنسرسیومی متشکل از ۲۵۰ سازمان غیردولتی، از جمله سازمان عفو بین‌الملل، دیده‌بان حقوق‌بشر، و ابتکار زنان برنده جایزه نوبل، کمپین توقف ربات‌های قاتل را تشکیل داده‌اند و خواستار یک معاهده پیشگیرانه و الزام‌آور برای ممنوعیت سلاح‌های خودمختار هستند.

انگیزه این هشدار‌ها و کمپین‌ها نگرانی از این است که سلاح‌های خودمختار می‌توانند تلفات غیرنظامیان را در جنگ افزایش دهند. اگرچه سلاح‌های خودمختار می‌توانند تلفات غیرنظامیان را با هدف قراردادن دقیق جنگجویان کاهش دهند، اما در دستان دولتی که به تلفات غیرنظامیان اهمیت چندانی نمی‌دهد - یا قصد آن را دارد که جمعیت غیرنظامی را مجازات کند- می‌توانند برای ارتکاب جنایات ویرانگر استفاده شوند. انبوهی از سلاح‌های خودران را می‌توان برای هدف قراردادن و کشتن هزاران نفر در یک زمان استفاده کرد، جوری که بمب‌های هوشمند امروزی در مقایسه با آن‌ها دست و پا چلفتی به نظر برسند.

یکی از نگران‌کننده‌ترین خطرات خودگردانی هوش مصنوعی در جنگ‌افزارها، خودگردانی تصمیم درباره استفاده از سلاح‌های هسته‌ای است. در سال ۲۰۲۲، ایالات متحده اعلام کرد که برای تصمیم‌گیری در مورد استفاده از سلاح‌های هسته‌ای همیشه سیاست «حفظ یک انسان در حلقه تصمیم‌گیری» را حفظ خواهد کرد. بریتانیا سیاست مشابهی را در سال ۲۰۲۲ اتخاذ کرد.

با این حال روسیه و چین چنین نکرده‌اند. به نظر می‌رسد کنترل انسان بر سلاح‌های هسته‌ای نقطه شروع آسانی برای توافق بین‌المللی باشد، اما مسکو تمایل نگران کننده‌ای برای ادغام اتوماسیون پرخطر در عملیات هسته‌ای خود نشان داده است. این چیز جدیدی نیست: پس از پایان جنگ سرد، مقامات شوروی سابق توضیح دادند که اتحاد جماهیر شوروی یک سیستم حمله اتمی تلافی‌جویانه نیمه خودکار به نام «Perimeter» ساخته است که پس از فعال‌شدن، از یک سری حسگر‌های خودکار برای تشخیص حمله هسته‌ای در خاک شوروی استفاده می‌کند. اگر حمله‌ای شناسایی شود و هیچ پاسخی از سوی رهبران کشور نیاید -احتمالاً به این دلیل که آن‌ها در این حمله کشته شده‌اند - سیستم به طور خودکار اختیار پرتاب هسته‌ای را به یک افسر نسبتاً دون‌پایه در یک پناهگاه امن منتقل خواهد کرد.

مقامات روسی در سال ۲۰۱۸ اعلام کردند که این سیستم هنوز فعال است و حتی ارتقا یافته است. اخیراً، مسکو شروع به توسعه یک پهپاد زیردریایی خودمختار با سلاح هسته‌ای کرده است. پهپاد‌های مجهز به سلاح هسته‌ای در دریا یا هوا می‌توانند برای گشت‌زنی فرستاده شوند و خطر تصادف یا از دست دادن کنترل یک سلاح هسته‌ای را به همراه داشته باشند.

استفاده گسترده سلاح‌های خودمختار که با سایر جنبه‌های هوش مصنوعی نظامی ادغام شده‌اند، می‌تواند به عصر جدیدی از جنگ ماشین‌محور منجر شوند. اپلیکیشین‌های هوش مصنوعی نظامی می‌توانند پردازش اطلاعات و تصمیم‌گیری را تسریع کنند. با استفاده کشور‌ها از هوش مصنوعی و اتوماسیون برای کاهش زمانِ یافتن، شناسایی و حمله به اهداف دشمن، چرخه تصمیم‌گیری کوتاه‌تر می‌شود.

روی کاغذ، این پیشرفت‌ها می‌توانند زمان بیشتری را برای تصمیم‌گیری در اختیار انسان بگذارند. در عمل، اما هریک از طرفین جنگ فکر می‌کند باید روتین عملیات را رعایت کند و بنابراین از اتوماسیون برای سرعت بخشیدن به عملیات خود و برای حفظ سرعت استفاده خواهد کرد. نتیجه یک مارپیچ قزاینده خواهد بود که در آن استفاده از اتوماسیون بیشتر و کنترل انسانی دائما کمتر خواهد شد.

وضعیت نهایی این رقابت احتمالاً با سرعتی در حد ماشین و خارج از کنترل انسان بود. استفاده گسترده از الگوریتم‌ها در امور مالی و معاملات با فرکانس بالا منجر به معاملات سهام ماشینیِ مستقل و با سرعت فوق بشری شده است. چن هانگهویی، محقق نظامی چینی از دانشکده فرماندهی ارتش آزادی‌بخش خلق، در مورد «تکینگی» در میدان نبرد فرضیه‌ای را مطرح کرده است، نقطه‌ای که در آن سرعت جنگ ماشین‌محور –مانند خریدوفروش ماشینی سهام- از سرعت تصمیم‌گیری انسانی پیشی می‌گیرد.

این نقطه عطف، انسان‌ها را مجبور می‌کند که ماشین‌ها را هم برای تصمیمات تاکتیکی و هم برای تصمیم‌های استراتژیک جنگی در سطح عملیاتی کنترل کنند. ماشین‌ها نه تنها اهداف فردی را انتخاب می‌کنند، بلکه کل کمپین عملیات را نیز برنامه‌ریزی و اجرا می‌کنند. نقش انسان‌ها به روشن کردن ماشین‌ها و نشستن در حاشیه، با توانایی کمی برای کنترل یا حتی پایان دادن به جنگ‌ها کاهش می‌یابد.

گیرکرده در علف‌های هرز

مقررات بین‌المللی، اگر با دقت طراحی و اجرا شوند، می‌توانند به کاهش برخی از آسیب‌های سلاح‌های خودران کمک کنند. حدود ۳۰ کشور و کنسرسیومی از سازمان‌های بشردوستانه خواستار یک معاهده پیشگیرانه و الزام‌آور قانونی برای ممنوعیت سلاح‌های خودمختار شده‌اند. دولت‌ها در ممنوعیت سلاح‌های شیمیایی و بیولوژیکی، مهمات خوشه‌ای و ممنوعیت استفاده از تخریب محیط‌زیست به عنوان سلاح موفقیت نسبی داشته‌اند. اما پیشرفت مشابه در قاعده‌گذاری برای تسلیحات خودمختار چالش‌برانگیز بوده است. ممنوعیت همه‌جانبه، بعید است به نتیجه برسد. از آنجایی که تسلیحات خودمختار هنوز به طور کامل توسعه نیافته‌اند، آسیب‌های احتمالی و ارزش نظامی آن‌ها ناشناخته است. بنابراین، دولت‌ها به دلیل ادعا‌های نامشخص در مورد آسیب‌های احتمالی آینده، تمایلی به کنار گذاشتن یک سلاح بالقوه ارزشمند ندارند.

برچسب ها: ربات قاتل
نظرات شما
پیشخوان