پنتاگون هشدار داد:
نقش فزاینده هوش مصنوعی در نبردهای آینده!
پنتاگون در دستورالعمل جدیدی ضمن اعلام هشدار درباره حضور هوش مصنوعی در تسلیحات آینده، از برنامههای خود در این زمینه خبر داد.
پنتاگون دستورالعمل حاکم بر توسعه، آزمایش و استفاده از جنگافزارهای خودکار و نیمهخودکار را بعد از حدود 10 سال برای اولینبار بهروزرسانی کرد تا درباره نقش فزاینده هوش مصنوعی در نبردهای آینده هشدار دهد.
وزارت دفاع آمریکا آخرینبار در سال 2012 دستورالعمل مربوط به سامانههای تسلیحاتی خودکار را بهروز کرده بود، اما این هفته دوباره شاهد آپدیتهای جدیدی هستیم. وزارت دفاع ایالات متحده میگوید همچنان متعهد به توسعه سامانههای خودکار و یکپارچهسازی هوش مصنوعی در پروژههای نظامی آینده خود است. با این بهروزرسانی، دولت آمریکا تمام تمرکز خود را روی توسعه این سلاحها میگذارد. این اتفاق در شرایطی میافتد که برخی کشورها و کنشگران مخالف توسعه این تسلیحات هستند.
بهروزرسانی این دستورالعمل به بحث توسعه هوش مصنوعی در 10 سال گذشته پرداخته است و هیئت نظارتی جدیدی را برای مدیریت این فعالیتها معرفی میکند. حالا سلاحهای خودکار باید در اکثر موارد از معاون ستاد مشترک نیروهای مسلح، معاون سیاستگذاری وزارت دفاع و معاون تحقیقات و مهندسی وزارت دفاع مجوز رسمی بگیرند تا بتوانند وارد مراحل توسعه شوند.
پنتاگون برنامه خود را برای استفاده از هوش مصنوعی اعلام کرد
«مایکل هوروویتز»، رئیس اداره سیاستگذاری درباره توانمندیهای نوظهور وزارت دفاع میگوید: «این دستورالعمل حالا مشخص میکند که این سامانهها، درست مثل هر سامانهای که از هوش مصنوعی استفاده میکنند، خواه تسلیحاتی باشند یا غیر، باید تابع این دستورالعملها باشند. این تصمیم بخشی از همان چیزی است که ما آن را با عنوان مدیریت خوب میشناسیم.»
این دستورالعمل همچنین مقررات استفاده اخلاقی از هوش مصنوعی را که در سال 2020 معرفی شد، بر سامانههای تسلیحاتی خودکار اعمال میکند. این بهروزرسانی در مجموع اگرچه یک نقشه راه کامل نیست، اما مشخص میکند که مسیر حرکت آینده این وزارتخانه با تمرکز بر فناوریهای مدرن به کدام سمت خواهد رفت.
درحالحاضر کشورهای زیادی مخالف استفاده از هوش مصنوعی در تسلیحات نظامی هستند و حداقل 30 مورد از آنها بهصورت مشترک خواستار ممنوعیت توسعه این سامانهها شده بودند. «آنتونیو گوترش»، دبیرکل سازمان ملل در سال 2019 دراینباره گفته بود: «ابزارهای خودکار با توانایی و اختیار انتخاب اهداف و گرفتن جان مردم، در شرایطی که انسان هیچ نقشی در این فرایند نداشته باشد، بهلحاظ سیاسی غیرقابل پذیرش و با اخلاق مغایرند.»
منبع: تجارت نیوز