پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :
نشریه لس آنجلس تایمز در مقاله ای به قلم داگلاس فرانتز به این موضوع پرداخته که حضور هوش مصنوعی در زندگی ما در کنار فرصت ها، چه تهدیدهایی خواهد داشت .
به گزارش سرویس آی تی انتخاب، مقدمه این مقاله با این جمله آغاز می شود؛ "ما هوش مصنووعی را به راه انداختیم اما حالا به یک پیمان نیاز داریم تا آن را کنترل کنیم."
پنجاه سال پیش ، در اواسط جنگ سرد، کشورهای حاضر در جنگ یک معاهده بین المللی را برای جلوگیری از گسترش سلاح های هسته ای امضا کردند. امروزه، هوش مصنوعی و یادگیری ماشینی، هر جنبه ای از زندگی ما را تغییر می دهد. بنابراین جهان با چالش های مشابهی با دوران جنگ سرد مواجه است و نیاز به یک پاسخ مشابه دارد.
خطر درگیری موازی بین سلاح های هسته ای و هوش مصنوعی دور از ذهن نیست، اما ریسک بزرگتر این است که؛ نادیده گرفتن پیامدهای فناورانه منجر به نابودی ارزش ها و اهداف انسانی شود.
نگاهی به تاریخ نشان می دهد که مقدمه ای فوری برای معاهده منع گسترش سلاح های هسته ای، درواقع، بحران موشکی کوبا در سال 1962 بود. ایالات متحده و اتحاد جماهیر شوروی قبل از این که معاهده را قبول کنند، در آستانه جنگ هسته ای قرار گرفتند. چند ماه بعد، رئیس جمهور وقت ایالات متحده ، یعنی کندی هشدار داد که به زودی حداقل 25 کشور میتوانند سلاحهای هسته ای را افزایش دهند و خطراتی جهان شمول را خلق کنند.
معاهده عدم گسترش سلاح های هسته ای که در سال 1970 به اجرا درآمد، بر مبنای معامله ای مرکزی متمرکز بود، ملت های فاقد سلاح هسته ای قول داده اند هرگز آنها را بدست نیاورند و کشورهای دارای سلاح ها موافقت کردند که از این سلاح ها برای مقاصد صلح آمیز استفاده کنند.
به این روزها باز گردیم. به نظر می رسد همزمان با پیشرفت در هوش مصنوعی و یادگیری ماشینی معاهده ای جدی و بین المللی در این خصوص مورد نیاز است.
کارشناسان متعددی در مورد لزوم وجود چنین معاهده ای بحث کرده اند.هوش مصنوعی هنوز در اوج بحران قرار نگرفته است، (مانند کشمکش بین اتحاد جماهیر شوروی و ایالات متحده در کوبا) اما چیزی تا چنین وضعیتی باقی نمانده است. به طور عمده، هوش مصنوعی برای همه افراد جامعه جذاب و مفید است.
"الگوریتم های یادگیری" در دستگاه های دیجیتال ما الگوهایی را از داده ها استخراج می کنند تا ما را در هر شرایطی از خرید تا زندگی روزمره رصد کنند. در مقیاس بزرگترهوش مصنوعی به پزشکان کمک می کند تا بیماری ها را شناسایی و درمان کنند، افزون بر این هوش مصنوعی، بازار های جدیدی را باز کرده و بهره وری را برای کسب و کار افزایش می دهد و البته مجموعه داده ها و مدل هایی را ارائه می دهد که مسائل مهم مربوط به آموزش، انرژی و محیط را در بر می گیرد.
در عین حال، خطرات هوش مصنوعی نیز آشکار است. برای مثال قراراد جنجالی گوگل و وزارت دفاع ایالات متحده که گرچه تمدید نخواهد شد اما شامل استفاده از هوش مصنوعی برای بهبود هدف گیری هواپیماهای بدون سرنشین و افزایش نظارت بر شهروندان بود. قرار دادی که بالغ بر 4 هزار کارمند گو گل نسبت به آن معترض بودند چرا که تصور می کردند برای مقاصد منففی مورد استفاده قرار خواهد گرفت.
نگرانی مشابهی نیز برای جف بیزوس، بنیانگذار آمازون، رخ داد. درست زمانی که وی اخیرا در حوزه هوش مصنوعی فعالیت هایی را توسعه داد. اما خطر اصلی این است که سلاح های مستقل ماهیت جنگ را تغییر داده و کنترل انسانی را از بین ببرد.بنابراین خطر تصادفات مربوط به وسایل نقلیه خودران و تهدید آزادی و تفکر انتقادی ناشی از سوء استفاده از فیس بوک و فایل های موتور جستجو طبیعی است.
اما با همه این مخاطرات چرا باز هم به هوش مصنوعی وابسته ایم؟
اول، آشنایی ما با هوش مصنوعی باعث خوشحالی بی قید و شرطمان می شود. ما با ماشین های هوشمند بازی می کنیم، کار می کنیم و راندمان کارمان را نادیده می گیریم و گاهی به قدری در این موضوع غرق می شویم که فراموش می کنیم این دستگاه ها آسیب پذیری ما را در برابر تهدید شدن آزادی های مدنی، دموکراسی و برابری اقتصادی بالا می برند.
دوم، پیچیدگی علم هوش مصنوعی ممکن است سیاست گذاران و مردم را به این باور برساند که صنعت فناوری اطلاعات بهترین موقعیت را برای تصمیم گیری در مورد آینده فناوری اطلاعات دارد. با این حال قطعا مسائل مربوط به هوش مصنوعی باید به منافع تجاری منجر شود.
سوم، تسلط چین و ایالات متحده و چند غول تکنولوژیکی، چشم انداز واقعی فئودالیسم دیجیتال را ایجاد می کند. تمرکز مقدار زیادی ثروت و قدرت در دست چندکشور مشخص ، به این معنی است که تعداد زیادی از مردم در خطر قرار دارند .
شاید تنها راهکار رهایی از این شرایط ترسیم خطوط یک معاهده جدی و امضای آن توسط کشورها و به ویژه ایالات متحده و چین باشد.
رویا پاک سرشت