هشدار مرگبار برای استفاده از هوش مصنوعی در جنگها
یکی از نگرانکنندهترین خطرات خودگردانی هوش مصنوعی در جنگافزارها، خودگردانی تصمیم درباره استفاده از سلاحهای هستهای است.
به گزارش تازهنیوز، دانشمندان برجسته هوش مصنوعی، از جمله استوارت راسل، استاد دانشگاه کالیفرنیا و یان لیچون، برنده جایزه تورینگ، در مورد خطرات سلاحهای خودران هشدار دادهاند. کنسرسیومی متشکل از ۲۵۰ سازمان غیردولتی، از جمله سازمان عفو بینالملل، دیدهبان حقوقبشر، و ابتکار زنان برنده جایزه نوبل، کمپین توقف رباتهای قاتل را تشکیل دادهاند و خواستار یک معاهده پیشگیرانه و الزامآور برای ممنوعیت سلاحهای خودمختار هستند.
انگیزه این هشدارها و کمپینها نگرانی از این است که سلاحهای خودمختار میتوانند تلفات غیرنظامیان را در جنگ افزایش دهند. اگرچه سلاحهای خودمختار میتوانند تلفات غیرنظامیان را با هدف قراردادن دقیق جنگجویان کاهش دهند، اما در دستان دولتی که به تلفات غیرنظامیان اهمیت چندانی نمیدهد – یا قصد آن را دارد که جمعیت غیرنظامی را مجازات کند- میتوانند برای ارتکاب جنایات ویرانگر استفاده شوند. انبوهی از سلاحهای خودران را میتوان برای هدف قراردادن و کشتن هزاران نفر در یک زمان استفاده کرد، جوری که بمبهای هوشمند امروزی در مقایسه با آنها دست و پا چلفتی به نظر برسند.
- مشوح این خبر را بخوانید: رباتهای قاتل، انسان را از جنگها حذف میکنند؟
یکی از نگرانکنندهترین خطرات خودگردانی هوش مصنوعی در جنگافزارها، خودگردانی تصمیم درباره استفاده از سلاحهای هستهای است. در سال ۲۰۲۲، ایالات متحده اعلام کرد که برای تصمیمگیری در مورد استفاده از سلاحهای هستهای همیشه سیاست «حفظ یک انسان در حلقه تصمیمگیری» را حفظ خواهد کرد. بریتانیا سیاست مشابهی را در سال ۲۰۲۲ اتخاذ کرد.
با این حال روسیه و چین چنین نکردهاند. به نظر میرسد کنترل انسان بر سلاحهای هستهای نقطه شروع آسانی برای توافق بینالمللی باشد، اما مسکو تمایل نگران کنندهای برای ادغام اتوماسیون پرخطر در عملیات هستهای خود نشان داده است. این چیز جدیدی نیست: پس از پایان جنگ سرد، مقامات شوروی سابق توضیح دادند که اتحاد جماهیر شوروی یک سیستم حمله اتمی تلافیجویانه نیمه خودکار به نام «Perimeter» ساخته است که پس از فعالشدن، از یک سری حسگرهای خودکار برای تشخیص حمله هستهای در خاک شوروی استفاده میکند. اگر حملهای شناسایی شود و هیچ پاسخی از سوی رهبران کشور نیاید -احتمالاً به این دلیل که آنها در این حمله کشته شدهاند – سیستم به طور خودکار اختیار پرتاب هستهای را به یک افسر نسبتاً دونپایه در یک پناهگاه امن منتقل خواهد کرد.
مقامات روسی در سال ۲۰۱۸ اعلام کردند که این سیستم هنوز فعال است و حتی ارتقا یافته است. اخیراً، مسکو شروع به توسعه یک پهپاد زیردریایی خودمختار با سلاح هستهای کرده است. پهپادهای مجهز به سلاح هستهای در دریا یا هوا میتوانند برای گشتزنی فرستاده شوند و خطر تصادف یا از دست دادن کنترل یک سلاح هستهای را به همراه داشته باشند.
استفاده گسترده سلاحهای خودمختار که با سایر جنبههای هوش مصنوعی نظامی ادغام شدهاند، میتواند به عصر جدیدی از جنگ ماشینمحور منجر شوند. اپلیکیشینهای هوش مصنوعی نظامی میتوانند پردازش اطلاعات و تصمیمگیری را تسریع کنند. با استفاده کشورها از هوش مصنوعی و اتوماسیون برای کاهش زمانِ یافتن، شناسایی و حمله به اهداف دشمن، چرخه تصمیمگیری کوتاهتر میشود.
روی کاغذ، این پیشرفتها میتوانند زمان بیشتری را برای تصمیمگیری در اختیار انسان بگذارند. در عمل، اما هریک از طرفین جنگ فکر میکند باید روتین عملیات را رعایت کند و بنابراین از اتوماسیون برای سرعت بخشیدن به عملیات خود و برای حفظ سرعت استفاده خواهد کرد. نتیجه یک مارپیچ قزاینده خواهد بود که در آن استفاده از اتوماسیون بیشتر و کنترل انسانی دائما کمتر خواهد شد.
وضعیت نهایی این رقابت احتمالاً با سرعتی در حد ماشین و خارج از کنترل انسان بود. استفاده گسترده از الگوریتمها در امور مالی و معاملات با فرکانس بالا منجر به معاملات سهام ماشینیِ مستقل و با سرعت فوق بشری شده است. چن هانگهویی، محقق نظامی چینی از دانشکده فرماندهی ارتش آزادیبخش خلق، در مورد «تکینگی» در میدان نبرد فرضیهای را مطرح کرده است، نقطهای که در آن سرعت جنگ ماشینمحور –مانند خریدوفروش ماشینی سهام- از سرعت تصمیمگیری انسانی پیشی میگیرد.
این نقطه عطف، انسانها را مجبور میکند که ماشینها را هم برای تصمیمات تاکتیکی و هم برای تصمیمهای استراتژیک جنگی در سطح عملیاتی کنترل کنند. ماشینها نه تنها اهداف فردی را انتخاب میکنند، بلکه کل کمپین عملیات را نیز برنامهریزی و اجرا میکنند. نقش انسانها به روشن کردن ماشینها و نشستن در حاشیه، با توانایی کمی برای کنترل یا حتی پایان دادن به جنگها کاهش مییابد.