فوربس نوشت: از آنجایی که نگرانی ها در مورد تأثیر اجتماعی هوش مصنوعی رو به افزایش است، این روزها نگرانی ها از اتاق های کوچک آزمایشگاه ها و اتاق های سیاستگذاری دولتی به مجمع جهانی اقتصاد رسیده است. یکی از تکنیک هایی که اخیرا به شدت علیه هوش مصنوعی استفاده می شود، استفاده از تاکتیک قدیمی «نامگذاری و شرم» است که در بحث امنیت سایبری بسیار محبوب شده است.
به گزارش سرویس آی تی و فناوری انتخاب اگر بخواهیم این تکنیک را به معنای لغوی تفسیر کنیم به معنای ابزار مبتنی بر سیاست عمومی در نظر گرفته شده است که به منظور ترویج تطابق با تعهدات قانونی یا تعهد به جبران خسارت ناشی از عدم رعایت قانون در نظر گرفته می شود.
این موضوع در حوزه هوش مصنوعی و برای محققان آزمایش های سیستماتیک محصولات و الگوریتم های محبوب هوش مصنوعی نیز بسیار استفاده می شود. چرا که تلاش می شود این فعالیت ها دقیقا مطابق با استانداردهایی باشند که قانون تعیین کرده است. البته، یک قرن پیش که واژه نامگذاری و شرم مطرح شد موضوع افزایش قدرت هوش مصنوعی مطرح نبود و ماجرا صرفا به مسائل سیاسی و اجتماعی مرتبط می شد .
به طور مستقیم، کمپین های نامگذاری و شرم به عنوان یک اصطلاح ایده آل و ساده برای مشکلاتی مطرح می شود که سیستم های هوش مصنوعی امروز و محصولات مصرفی را تهدید می کنند. شاید بر همین اساس است که شرکت های مشهور فعال در حوزه هوش مصنوعی از مطبوعات منفی گرا نفرت دارند، چرا که نشریه ها و مطبوعات ضعف های الگوریتمیشان را نشان می دهد، منتشر می کند و همه سازمان های مرتبط مجبورند متوقف شوند تا بتوانند مشکلات را تا حد ممکن سریع تر حل کنند.
شاید این ماجرا به نظر مثبت برسد اما مشکل این ایده این است که گاهی به جای آن که به سیستم ها برای اصلاح کمک کند صرفا شروع به نقد می کند. افزون بر این اختلاف نظرهای گسترده ای در مورد استفاده از این تکنیک در حوزه هوش مصنوعی وجود دارد چرا که برخی معتقدند این تکنیک موجب تأثیر منفی بر فعالیت های شرکت هایی می شود که در خصوص هوش مصنوعی کار می کنند.
برخی دیگر نیز معتقدند در بسیاری از موارد شرکت هایی که از هوش مصنوعی بهره می برند به جای اصلاح و تغییر شرایط صرفا برخی تغییرات ظاهری را انجام می دهند یا رسانه ها را مجبور می کنند روایت ها را در مورد آنان تغییر دهند. یک مثال ساده برای استفاده از این تکنیک به فشارهایی مرتبط می شود که پسد از ظهور دستیارهای صوتی به راه افتادند. دستیاران صوتی از لحظه ورود به بازار با منقدانی جدی رو به رو شدند که معتقد بودند این ابزارها صرفا جاسوس هستند.
برجسته کردن محدودیت های یک محصول برای مردم می تواند برای شرکت هایی که به دنبال بالاترین سود اقتصادی هستند بسیار خطرناک باشد. اما جالب است بدانید در عمل، استفاده از روش نامگذاری و روش آنقدرها هم که تصور می شود تاثیر گذار نخواهد بود. بر اساس برخی پژوهش ها، مخاطبان محصولات هوشمند حوزه فناوری بیش از آن که تحت تاثیر کمپین های نامگذاری و شرم باشند نیازمند قوانین دولتی و تکنیک های حمایت از مصرف کنندگان هستند.
البته گاهی نیز تحقیقات و فعالیت های مبتنی بر نامگذاری و شرم جواب می دهد برای مثال در این مورد می توان به موفقیت برخی از گروه ها اشاره کرد که در تلاش برای برای بهبود دقت الگوریتم های تشخیص چهره برای جمعیت های گوناگون هستند. در حالی که الگوریتم های تشخیص چهره و الگوی های شناسایی صورت دارای تعدادی کاربردهای مهم هستند، یکی از مهمترین پایگاه های مهم آنها برنامه های تجاری و ادارات دولتی است. در حقیقت، از نقطه نظر درآمد خالص، استفاده تجاری و دولتی بالاترین سود را برای شرکت ها دارد.
جالب توجه است، برخی از بزرگترین پیشرفت های شناسایی چهره همزمان شده است با افزایش شدید علاقه برخی کشورها به بهره گیری از تکنولوژی تشخیص چهره. برای مثال کشورهایی مانند چین برنامه های مشابه را در مقیاس گسترده ای مورد استفاده قرار داده اند. اما بسیاری از معتترضان نگرانند که این نوع برنامه ها در سازمان های دولتی چه بازدهی خواهند داشت.
با همه این ها وقتی یک بار دیگر به فعالیت های شرکت های فعال در حوزه هوش مصنوعی نگاه می کنیم، متوجه می شویم که بسیاری از این شرکت ها اول به فکر سود خود هستند و حتی اگر به اعتراض ها هم توجهی داشته باشند با هدف حفظ سود تجاری است نه پایبندی به قوانین و محدودیت ها.
دولت چین با هدف کاهش آلودگی هوا در شهرهای بزرگی مثل پکن، طرحی را در دست دارد که بر اساس آن قصد دارد روی خودروهای الکتریکی سرمایه گذاری کند.