پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :
وزارت دفاع آمریکا قصد دارد به زودی از راهبرد جدید خود برای استفاده اخلاقی از هوش مصنوعی در سلاحهای جنگی رونمایی کند.
به گزارش ایسنا و به نقل از دیفنسوان ، "وزارت دفاع آمریکا"(DOD) قصد دارد اوایل هفته آینده، از یک راهبرد جدید هوش مصنوعی رونمایی کند. تمرکز این راهبرد، بر ابداع و تنظیم ابزاری برای دستورات و شاخههای خدمات خاص است که امکان انتقال سریعتر آنها را به عملکردهای هوش مصنوعی فراهم میکند.
یکی از مقامات مربوط در این باره گفت: وزارت دفاع آمریکا، حدود ۵۰ سال با هوش مصنوعی مانند یک موضوع مربوط به حوزه علم و فناوری برخورد کرده است. راهبرد جدید ما میتواند این فناوری را به تصمیم تبدیل کند و بر عملیات تأثیر بگذارد.
سرنخهای ابتدایی این طرح، از پروژه "ماون"(Maven) گرفته شده است. براساس این پروژه، قرار بود الگوریتمهای هوش مصنوعی گوگل در اختیار پنتاگون قرار گیرند تا این سازمان بتواند تصاویر ویدئویی را تفسیر کند و اهداف حملات پهپادی را ارتقا دهد. به گفته این مقام آمریکایی، این راهبرد جدید، بسیار گستردهتر از پروژه ماون خواهد بود.
گفتنی است که از زمان اعلام این تصمیم، اعتراضات بسیاری علیه پروژه ماون شکل گرفت و در ماه دسامبر سال جاری نیز گروهی از اخلاقگرایان مؤسسه هوش مصنوعی "دانشگاه نیویورک" (NYU)، مقالهای در مورد ضررهای اخلاقی این طرح منتشر کردند.
از آنجا که نیروی نظامی آمریکا در گسترش هوش مصنوعی، سابقهای طولانی دارد، این سازمان تلاش میکند اطلاعاتی را از صنایع خصوصی به ویژه شرکتهای خصوصی کوچکی که عملکرد خوبی در این زمینه دارند، یاد بگیرد. این مقام آمریکایی افزود: ما روش این شرکتها را بررسی کردهایم و درسهای بسیاری را از آنها آموختهایم.
این راهبرد جدید، فلسفه نیروی نظامی را در استفاده از سیستمهای خودران تغییر نمیدهد. در دستورالعملهای مربوط به این طرح، همیشه باید یک اپراتور انسان برای بررسی عملکرد سیستمهای خودکار حضور داشته باشد.
در واقع، دلیل تمرکز این راهبرد جدید بر کاربردهای فوری و اجرایی، وادار کردن اپراتورها و فرماندهان به تفکر در مورد پیامدهای ایمنی و اخلاقی است تا آنچه از هوش مصنوعی انتظار دارند، انجام دهند.
هنگامی که از فناوری در عملیاتها استفاده میشود، باید به صورت جدیتر در مورد موارد اخلاقی و ایمنی فکر کرد. امنیت، تمرکز اصلی این راهبرد به شمار میرود و میزان اهمیت آن واضح است.