رویداد۲۴ | سامانهای به نام «میون اسمارت» (Maven Smart System) ارتش که توسط شرکت پالانتیر ساخته شده، با بهرهگیری از حجم شگفتانگیزی از دادههای محرمانه ماهوارهها، نظارتها و دیگر منابع اطلاعاتی، بینشهایی تولید کرده و به ارائه هدفگیری لحظهای و اولویتبندی اهداف برای عملیات نظامی در ایران کمک کرده است.
میون که با ابزار هوش مصنوعی «کلود» از شرکت آنتروپیک تقویت شده، صدها هدف را پیشنهاد داده، مختصات دقیق مکانی صادر کرده و این اهداف را بر اساس میزان اهمیت اولویتبندی کرده است.
ترکیب میون و کلود ابزاری ایجاد کرده که سرعت کارزار نظامی را افزایش داده، توانایی ایران برای ضدحمله را کاهش داده و برنامهریزیهای چند هفتهای نبرد را به عملیاتهای لحظهای تبدیل کرده است.
اسفند ۱۴۰۲ رسانههای آمریکا برای اولین بار از استفاده ارتش آمریکا از یک هوش مصنوعی پیشرفته پرده برداشتند. بلومبرگ در یک پادکست دو ساعته، نحوه عملکرد این پروژه را در گفتوگو با ویل روپر یک مقام دفاعی آمریکایی پشت این پروژه شرح داده است_کسی که کارش آنقدر محرمانه بود که حتی نمیتوانست به همسرش بگوید دقیقاً چه کاری انجام میدهد. این رسانه میگوید با استفاده از «سیستم هوشمند میون» (Maven Smart System)، فرماندهان میتوانند کل میدان نبرد را یکجا و در یک نگاه ببینند. برای نمونه، کادرهای زردرنگِ دورخطدار «اهداف بالقوه» را نشان میدهند و کادرهای آبیِ دورخطدار «نیروهای خودی» یا «مناطق ممنوع برای حمله» را مشخص میکنند؛ مثل مدرسهها یا بیمارستانها.
خبرنگار بلومبرگ که از نزدیک این سامانه را دیده میگوید نگاه کردن به مانیتور شبیه به نگاه کردن به نقشه روی گوشی است. فقط این یکی کادرهای زرد و آبی داشت و کادرهای آبی یعنی: به این نزن. این هدف نیست. ما این را مدرسه یا بیمارستان یا نیروی خودی تشخیص دادهایم.»
و کادرهای زرد یعنی آنچه «نقاط مورد توجه» مینامند. مثلاً اگر از الگوریتم بخواهید کشتی پیدا کند، دور همه کشتیها کادر میکشد، و بعد شاید بتوانید از او بخواهید یک نوع مشخص از کشتی را پیدا کند، مثلاً ناو جنگی؛ و میتوانند با استفاده از خوراکهای دادهای بسیار زیاد و بسیار متنوع، لایههای بیشتری اضافه کنند.
ویل روپر اواسط دهه ۲۰۱۰، مسئول یک دفترِ محرمانه در وزارت دفاع آمریکا بود به نام «دفتر قابلیتهای راهبردی». راه اندازی هوش مصنوعی میون همان زمان در وزارت دفاع آمریکا کلید خورده است.
اما او میگوید اقدام اصلی ارتش آمریکا برای آوردن هوش مصنوعی به میدان نبرد واقعاً از ۲۰۱۷ و با پروژه میون کلید خورد.
کاربرد هوش مصنوعی در وهله نخست اسکن کردن تصاویر ماهوارهای و سایر دادههای ورودی برای شناسایی تهدیدهای بالقوه و محل استقرار دشمن در میدان نبرد بوده؛ و اینکه مطمئن شوند آمریکا چیزهای غیرتهدید را بهاشتباه هدف تشخیص نمیدهد — و در نهایت به جای کارخانه سلاح، علیه یک بیمارستان سلاح بهکار نمیبرد. تا قبل از این نقطه، ارتش متکی بود به انسانها که ساعتها ویدیو و تصویر ماهوارهای را زیرورو کنند تا این اهداف را پیدا کنند. اما روپر فکر میکرد: کامپیوتر میتواند این کار را سریعتر انجام دهد، شاید حتی بهتر.
روپر میگوید زمانی که ایده هوش مصنوعی ارتش را به وزارت دفاع دادند، پنتاگون از آن استقبال نکرده است. او میگوید پنتاگون پر از بدبین هاست. آنجا جای خلاقیت و نوآوری بزرگ نیست. روپر میگوید بارها به فرماندهان نظامی آمریکا درباره این فناوری ارائه آموزشی داده.
اما در نهایت بعضی از مقامهای پنتاگون روی ایده روپر ریسک کردند؛ و در آوریل ۲۰۱۷، وزارت دفاع «پروژه میون» را اعلام کرد.
او میگوید کار در حوزه دفاعی سخت و پیچیده بوده و باید به صورت دستی، تصاویر را از مخزن برچسب گذاری میکردند؛ «هیچ سازوکاری شبیه کاری که وقتی آنلاین کلیک میکنیم و میگوییم «بله، این چراغ راهنمایی است. بله، این گربه است» وجود نداشت. برای تانکها یا کارخانههای سلاح چنین مخزن تصویریای وجود نداشت». پس روپر و تیمش آدمها را گذاشتند تصاویر را دانهبهدانه ببینند و دستی برچسب بزنند.
برای توسعه برنامه، پنتاگون با چند شرکت فناوری تجاری شریک شد؛ شرکتهایی که در هوش مصنوعی چندین پله جلوتر از ارتش بودند.
اما در ۲۰۱۸، این تبدیل به مشکل شد.
گوگل در روزهای اولیه پروژه میون دخیل بود؛ و در ۲۰۱۸، هزاران کارمند گوگل اعتراض کردند و در نامهای به مدیران ارشدشان گفتند: ما نمیخواهیم روی فناوریِ جنگ کار کنیم.
این اتفاق پروژه میون را آورد زیر نورافکن— تیترِ خبرها شد.
از آن زمان، مسئولان پروژه میون مجبور شدند مسیر را عوض کنند و شریکهای دیگری پیدا کنند. شریکهایی غیر از گوگل هم بودند، اما فکر میکنم پنتاگون وارد یک دوره «رایزنی و ارتباطگیریِ دوباره» با سیلیکونولی شد.
تا سال ۲۰۲۰، یک سرهنگ ارتش به نام «جوزف اوکالاگن» که فرمانده آتشهای پشتیبانی آمریکا است، به میون علاقهمند شد.
از او خواسته شد در یگانش، «سپاه هجدهم هوابرد» در کارولینای شمالی، شروع به آزمایش کند. او رزمایشهای با مهماتِ واقعی برگزار کرد؛ الگوریتم کامپیوتری هدفی مثل تانک را شناسایی میکرد و بعد یک انسان سلاح را بهکار میگرفت تا آن هدف را منفجر کند.
در ابتدا، افسران ارشد آمریکایی علاقهای به استفاده از پروژه میون نداشتند، اما در اوت ۲۰۲۱ اوضاع عوض شد. این نقطه عطف، زمان تخلیه نیرویهای آمریکا از افغانستان بود. ارتش مجبور شد ۱۲۰ هزار نفر را در شرایط بسیار خطرناک از کابل خارج کند؛ و تمپل یکی از افسران ارشد آمریکایی که علاقهای به هوش مصنوعی نظامی نداشت را پشتِ یک صفحه میون نشاندند که تهدیدهای روی زمین را درلحظه روی نقشه نشان میداد.
او میتوانست آدمهایی را ببیند که راه میروند. مسیرهای هواپیماها را. برای او دیدن اینکه سیستم هوشمند میون اینطور کار میکند یک جور «لحظه روشنشدن چراغ» بود.
مارک مانسِل مدیر داده و نوآوری دیجیتال در «آژانس ملی اطلاعات مکانی-جغرافیایی» آمریکا، سازمانی که از سال گذشته بخش عمده میون را اداره میکند، توضیحاتی درباره این پروژه به بلومبرگ داده است.
او میگوید هدف ما این بوده که به جای اینکه یک انسان مجبور باشد تصویر را باز کند، تصویر را اسکن کند، همه چیز را روی تصویر پیدا کند و بعد گزارشش را به فرمانده رزمی بدهد، میخواهیم با استفاده از الگوریتمها این مسیر را کوتاه کنیم.
شایلر مور است، مدیر ارشد فناوریِ فرماندهی مرکزی آمریکا سنتکام. به بلومبرگ گفته هفتم اکتبر همهچیز را تغییر داد. بعد از این تاریخ آمریکا فوراً وارد حالت «دنده سنگین» شده، با یک ریتم عملیاتی خیلی بالاتر از قبل.
کارشناسان گفتهاند که قدرت تشخیص هوش مصنوعی میون به فاکتورهای زیادی بستگی دارد که سرعتش را از یک انسان هم میتواند پایینتر بیاورد. برای مثال یک انسان تا ۸۴ درصد مواقع میتواند یک تانک را درست تشخیص دهد. این عدد برای میون ۶۰ درصد است و در هوای برفی یا ابری میتواند درصدش به ۳۰ درصد هم برسد. وقتی به جایی مثل اوکراین میروید، برف هست، ابر هست، باران هست. شرایط خیلی تغییر میکند و الگوریتمها خیلی بدتر عمل میکنند. از طرفی داده میتواند بدون اینکه بفهمیم تغییر کند. الگوریتم میتواند فریب داده شود؛ میتواند مسموم شود. میتواند با گذر زمان دقتش را از دست بدهد. این برای یک الگوریتم کاملاً طبیعی است؛ و بعد البته وقتی پای سناریوهای مرگ و زندگی در میان است، وقتی دارید تصمیم میگیرید چقدر اعتماد باید به این الگوریتم کرد، با آن چه کنیم؟ ممکن است استفاده از الگوریتمی که اشتباه میکند قابل قبول باشد اگر قرار است فقط آب را بزند— مثلاً دنبال کشتی است، اما بهجایش آب را میزند، خب مهم نیست. اما اگر دنبال چیزی روی خشکی هستید و اگر خطا کنید، دارید غیرنظامیان یا هر انسان دیگری را میزنید، طبیعتاً ریسکها فوقالعاده بالاست.
بلومبرگ مدعی است که ارتش آمریکا میگوید به همین دلیل به «همتیمی انسان و ماشین» تکیه میکند. میگویند خودِ الگوریتم هرگز تصمیم اجرای حمله هوایی را نمیگیرد. فقط هدف را برای یک فرمانده انسانی شناسایی میکند.