پنتاگون هشدار داد:

نقش فزاینده هوش مصنوعی در نبردهای آینده!

پنتاگون در دستورالعمل جدیدی ضمن اعلام هشدار درباره حضور هوش مصنوعی در تسلیحات آینده، از برنامه‌های خود در این زمینه خبر داد.

شناسه خبر: 272
نقش فزاینده هوش مصنوعی در نبردهای آینده!

پنتاگون دستورالعمل حاکم بر توسعه، آزمایش و استفاده از جنگ‌افزارهای خودکار و نیمه‌خودکار را بعد از حدود 10 سال برای اولین‌بار به‌روزرسانی کرد تا درباره نقش فزاینده هوش مصنوعی در نبردهای آینده هشدار دهد.

وزارت دفاع آمریکا آخرین‌بار در سال 2012 دستورالعمل مربوط به سامانه‌های تسلیحاتی خودکار را به‌روز کرده بود، اما این هفته دوباره شاهد آپدیت‌های جدیدی هستیم. وزارت دفاع ایالات متحده می‌گوید همچنان متعهد به توسعه سامانه‌های خودکار و یکپارچه‌سازی هوش مصنوعی در پروژه‌های نظامی آینده خود است. با این به‌روزرسانی، دولت آمریکا تمام تمرکز خود را روی توسعه این سلاح‌ها می‌گذارد. این اتفاق در شرایطی می‌افتد که برخی کشورها و کنشگران مخالف توسعه این تسلیحات هستند.

به‌روزرسانی این دستورالعمل به بحث توسعه هوش مصنوعی در 10 سال گذشته پرداخته است و هیئت نظارتی جدیدی را برای مدیریت این فعالیت‌ها معرفی می‌کند. حالا سلاح‌های خودکار باید در اکثر موارد از معاون ستاد مشترک نیروهای مسلح، معاون سیاست‌گذاری وزارت دفاع و معاون تحقیقات و مهندسی وزارت دفاع مجوز رسمی بگیرند تا بتوانند وارد مراحل توسعه شوند.

پنتاگون برنامه خود را برای استفاده از هوش مصنوعی اعلام کرد

«مایکل هوروویتز»، رئیس اداره سیاست‌گذاری درباره توانمندی‌های نوظهور وزارت دفاع می‌گوید: «این دستورالعمل حالا مشخص می‌کند که این سامانه‌ها، درست مثل هر سامانه‌ای که از هوش مصنوعی استفاده می‌کنند، خواه تسلیحاتی باشند یا غیر، باید تابع این دستورالعمل‌ها باشند. این تصمیم بخشی از همان چیزی است که ما آن را با عنوان مدیریت خوب می‌شناسیم.»

این دستورالعمل همچنین مقررات استفاده اخلاقی از هوش مصنوعی را که در سال 2020 معرفی شد، بر سامانه‌های تسلیحاتی خودکار اعمال می‌کند. این به‌روزرسانی در مجموع اگرچه یک نقشه راه کامل نیست، اما مشخص می‌کند که مسیر حرکت آینده این وزارتخانه با تمرکز بر فناوری‌های مدرن به کدام سمت خواهد رفت.

درحال‌حاضر کشورهای زیادی مخالف استفاده از هوش مصنوعی در تسلیحات نظامی هستند و حداقل 30 مورد از آن‌ها به‌صورت مشترک خواستار ممنوعیت توسعه این سامانه‌ها شده بودند. «آنتونیو گوترش»، دبیرکل سازمان ملل در سال 2019 دراین‌باره گفته بود: «ابزارهای خودکار با توانایی و اختیار انتخاب اهداف و گرفتن جان مردم، در شرایطی که انسان هیچ نقشی در این فرایند نداشته باشد، به‌لحاظ سیاسی غیرقابل پذیرش و با اخلاق مغایرند.»

منبع: تجارت نیوز

ارسال نظر