صفحه نخست

تاریخ

ورزش

خواندنی ها

سلامت

ویدیو

عکس

صفحات داخلی

۰۱ دی ۱۴۰۳ - ساعت
کد خبر: ۶۶۳۰۹۰
تاریخ انتشار: ۴۰ : ۱۴ - ۲۸ بهمن ۱۴۰۰
شاید باورکردنی نباشد اما، چهره‌های مصنوعی انسان که با هوش مصنوعی طراحی شده اند، به حدی متقاعد کننده اند، که می‌توانند حتی ناظران آموزش دیده را فریب دهند و ممکن است برای استفاده در کلاهبرداری بسیار موثر باشند.
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

شاید باورکردنی نباشد اما، چهره‌های مصنوعی انسان که با هوش مصنوعی طراحی شده اند، به حدی متقاعد کننده اند، که می‌توانند حتی ناظران آموزش دیده را فریب دهند و ممکن است برای استفاده در کلاهبرداری بسیار موثر باشند.

به گزارش طریق‌ای تی و فناوری انتخاب به نقل از نیوساینتیست، هوش مصنوعی می‌تواند چنان چهره‌های واقعی انسانی ایجاد کند که مردم نتوانند آن‌ها را از چهره‌های واقعی تشخیص دهند و در واقع بیشتر به چهره‌های جعلی اعتماد می‌کنند.

چهره‌های تخیلی و ساخته شده توسط کامپیوتر به قدری متقاعد کننده هستند که می‌توانند حتی ناظران آموزش دیده را فریب دهند.  آن‌ها را می‌توان به راحتی آنلاین دانلود کرد و برای کلاهبرداری‌های اینترنتی و پروفایل‌های جعلی شبکه‌های اجتماعی استفاده کرد.

سوفی نایتینگل از دانشگاه لنکستر در بریتانیا‌ می‌گوید: «ما باید نگران باشیم، زیرا این چهره‌های مصنوعی برای اهداف پلید، مثلاً برای مواردی مانند فیلم‌های مستهجن انتقام‌جویانه یا کلاهبرداری، فوق‌العاده مؤثر هستند».

برنامه‌های مبتنی بر هوش مصنوعی به نام شبکه‌های متخاصم مولد یا GAN، می‌توانند یاد بگیرند که با قرار دادن دو شبکه عصبی در برابر یکدیگر، تصاویر جعلی ایجاد کنند که کمتر از تصاویر واقعی قابل تشخیص هستند.

نایتینگل و همکارش هانی فرید در دانشگاه کالیفرنیا، برکلی، از ۳۱۵ شرکت کننده که در یک وب سایت جمع سپاری استخدام شده بودند، خواستند که بگویند آیا می‌توانند منتخبی از ۴۰۰ عکس جعلی را از ۴۰۰ عکس افراد واقعی تشخیص دهند.  هر مجموعه متشکل از ۱۰۰ نفر از هر یک از چهار گروه قومی سفید، سیاه پوست، آسیای شرقی و جنوب آسیا بود.

این گروه دارای میزان دقت ۴۸.۲ درصد بود (چیزی در حد شانس). به گروه دوم ۲۱۹ شرکت کننده آموزش تشخیص چهره‌های تولید شده توسط کامپیوتر داده شد.  نایتینگل می‌گوید: این گروه دارای میزان دقت ۵۹ درصد بود، اما این تفاوت ناچیز است.

تشخیص چهره‌های سفید برای افراد سخت‌تر بود، شاید به این دلیل که نرم‌افزار سنتز بر روی چهره‌های سفیدتر به‌طور نامتناسبی آموزش داده شده بود.

محققان همچنین از یک گروه جداگانه متشکل از ۲۲۳ شرکت‌کننده خواستند تا به انتخابی از چهره‌های مشابه در سطح اعتمادشان، در مقیاس ۱ تا ۷ امتیاز دهند. آن‌ها چهره‌های جعلی را به طور متوسط ​​۸ درصد قابل اعتمادتر از چهره واقعی ارزیابی کردند. به گفته نایتینگل ممکن است علت، این باشد که چهره‌های مصنوعی بیشتر شبیه چهره‌های «متوسط» انسان‌ها هستند و مردم بیشتر به چهره‌هایی با ظاهر معمولی اعتماد می‌کنند.

با نگاهی افراطی، چهار چهره‌ای که بیش از همه غیرقابل اعتماد ارزیابی شده بودند، واقعی بودند، در حالی که سه چهره که بین قابل اعتمادترین چهره‌ها طبقه بندی شده بودند، جعلی بودند.

نایتینگل می‌گوید: «ما به دستورالعمل‌های اخلاقی سخت‌گیرانه‌تر و چارچوب‌های قانونی بیشتری نیاز داریم، زیرا ناگزیر افرادی هستند که می‌خواهند از [این تصاویر]برای آسیب رساندن استفاده کنند، و این نگران‌کننده است. برای کاهش این خطرات، توسعه‌دهندگان می‌توانند واترمارک‌هایی را به تصاویر خود اضافه کنند تا آن‌ها را جعلی معرفی کنند.»