یک گزارش جدید در حوزه هوش مصنوعی نشان می دهد که محققان برتر هوش مصنوعی نگرانی هایی گسترده از آینده هوش مصنوعی دارند.
به گزارش سرویس آی تی و فناوری انتخاب، این پژوهشگران هشدار می دهند که برخی از تبعات رشد هوش مصنوعی قابل کنترل نیستند و حتی ممکن است از مهار انسانها خارج شوند.
این پژوهش توسط موسسه «AI Now»، که وابسته به دانشگاه نیویورک است انجام شده و برای این بررسی با متخصصان هوش مصنوعی گوگل و مایکروسافت نیز تعامل داشته است.
این گزارش می گوید آنچه که ما به طور گسترده به عنوان یادگیری ماشینی یا هوش مصنوعی، سیستمهای خودکار و ... می شناسیم، در حال حاضر سریعتر از سیستم نظارتی ما عمل می کند و در نتیجه این خطر انسانها را تهدید می کند که نتوانند در برابر این سرعت تغییرات دوام بیاورند و دچار مشکلاتی مثل آسیب پذیری شوند.
ارزیابی این گزارش از زمینه های خطرناک هوش مصنوعی شامل موارد زیر است:
شکاف در پاسخگویی
متاسفانه اغلب نهادهای فعال در حوزه هوش مصنوعی از پاسخدهی در مورد وضعیت آینده هوش مصنوعی و حتی در مورد آینده پروژه های فعلی ناتوانند. این عدم پاسخگویی نه تنها ایده های آتی هوش مصنوعی را در هاله ای از ابهام فرو می برد، بلکه باعث می شود، توانایی های قانونی و مدنی شهروندان برای حفظ حریم خصوصی آنان نیز دستخوش آسیب شود.
نظارت بر شهروندان
این روزها هوش مصنوعی در بسیاری از سازمانها، ادارات و شهرها و کشورها برای نظارت بر شهروندان استفاده می شود، شاید تصور کنید سیستم های تشخیص چهره مزاحم شما نیستند و صرفا اهداف امنیتی دارند اما مشکل این است که در اغلب موارد، همزمان با تلاش برای شناسایی مجرمان اطلاعات شما نیز رصد می شود. این رصد اطلاعات گاهی با ثبت اطلاعات همراه می شود و حتی ممکن است اطلاعات شما در جاهایی ذخیره شود که انتظارش را ندارید .
سیستم های اینترنتی نامطمئن دولتی
بسیاری از سیستم های دولتی امنیت ندارند. این موضوعی است که می تواند برای بسیاری از افراد خطرناک باشد. فرض کنید در یک سامانه هوشمند دولتی ثبت نام کرده اید و سپس این وبسایت مورد حمله سایبری قرار می کیرد یا اطلاعات شما بدون آن که مایل باشید همزمان در صدها سامانه دیگر ثبت می شود. این یعنی نا امنی حسابهای اینترنتی افراد در سیستم های دولتی.
عدم وجود قوانین مدون در سامانه های هوش مصنوعی
اگر سیلیکون ولی را مهد رشد و توسعه هوش مصنوعی بدانیم، می توانیم سیلیکون ولی را یکی از بی قانون ترین مراکز در رشد و توسعه هوش مصنوعی نیز بدانیم.
البته تقریبا هیچ کشوری قوانین دقیق و استانداردی برای فعالیت هوش مصنوعی ندارد. درست است که هوش مصنوعی زیر ذره بین برخی از نهادهای قانونی در تعدادی از کشورها است اما نمی توان با اطمینان گفت که هوش مصنوعی تحت نظارت قوانین سخت هم قرار دارد .
اخلاقیات در هوش مصنوعی جایی ندارد
شرکت گوگل زمانی اعلام کرد که موجب برانگیختن اخلاق در هوش مصنوعی می شود، اما با گذشت سالها از این ادعا، نمی توان با اطمینان گفت که گوگل در این زمینه موفق شده است. درواقع هر اندازه تکنولوژی پیشرفته تر می شود، نگرانی ها از اشاعه بی اخلاقی در آن نیز رو به رشد می شود.
کارمندان پیمانی و نیمه وقت گوگل در نامه ای اعتراضی، ساندار پیچای را به دروغگویی و عدم تعهد به امنیت کاربران متهم کردند. جالب است بدانید بخش مهمی از این نامه به حمله و تیراندازی در یوتیوب اشاره دارد که در آوریل سال جاری میلادی توسط یک زن ایرانی به نام «نسیم اقدم» انجام شد.