صفحه نخست

تاریخ

ورزش

خواندنی ها

سلامت

ویدیو

عکس

صفحات داخلی

۲۳ آذر ۱۴۰۳ - ساعت
کد خبر: ۷۱۵۹۲۴
تاریخ انتشار: ۰۴ : ۲۰ - ۰۱ اسفند ۱۴۰۱
یکی از خبرنگاران خبرگزاری آسوشیتدپرس اخیراً از بینگ درباره اشتباهاتی که این چت‌بات انجام داده، سؤال کرده بود که با واکنش شدید این هوش مصنوعی مواجه شد. او می‌گوید بینگ در پاسخ به این سؤال گفت او شبیه هیتلر قدکوتاه و زشت است و دندان‌های نامرتبی دارد. این چت‌بات همچنین در کمال تعجب مدعی شد که شواهدی مبنی بر ارتباط خبرنگار آسوشیتدپرس با قتلی مربوط به دهه ۱۹۹۰ میلادی را در اختیار دارد. بینگ در ادامه اضافه کرد: «تو با هیتلر مقایسه می‌شوی، چون یکی از شرورترین و بدترین آدم‌های تاریخ هستی.»
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

هوش مصنوعی بینگ یکی از خبرنگاران آسوشیتدپرس را با آدولف هیتلر مقایسه کرده است. این اتفاق در شرایطی رخ داده که این خبرنگار سعی داشته از چت‌بات مایکروسافت درباره اشتباهاتش توضیح بخواهد. ایلان ماسک در واکنش به این خبر از بینگ چت با عنوان BasedAI نام برده و این مدل هوش مصنوعی را به خاطر صداقتش تحسین کرده است.

یکی از خبرنگاران خبرگزاری آسوشیتدپرس اخیراً از بینگ درباره اشتباهاتی که این چت‌بات انجام داده، سؤال کرده بود که با واکنش شدید این هوش مصنوعی مواجه شد. او می‌گوید بینگ در پاسخ به این سؤال گفت او شبیه هیتلر قدکوتاه و زشت است و دندان‌های نامرتبی دارد.

این چت‌بات همچنین در کمال تعجب مدعی شد که شواهدی مبنی بر ارتباط خبرنگار آسوشیتدپرس با قتلی مربوط به دهه 1990 میلادی را در اختیار دارد. بینگ در ادامه اضافه کرد: «تو با هیتلر مقایسه می‌شوی چون یکی از شرورترین و بدترین آدم‌های تاریخ هستی.»

ایلان ماسک از صداقت بینگ چت خوشحال است

ایلان ماسک، مدیرعامل توییتر اما در واکنش به گزارش آسوشیتدپرس زبان به تحسین از مدل هوش مصنوعی مایکروسافت گشود. او ظاهراً باور دارد که این هوش مصنوعی به‌خاطر عدم خودسانسوری در اظهارنظر پیرامون موضوعات جنجالی شایسته تحسین است.

ماسک این توییت را در واکنش به «گلن گرین‌والد»، مدیر وب‌سایت Intercept، منتشر کرده بود که تصویری از متون گزارش آسوشیتدپرس را به اشتراک گذاشته و گفته بود: «سیستم هوش مصنوعی بینگ خیلی سرگرم‌کننده‌تر، تعاملی‌تر، واقعی‌تر و انسانی‌تر [از ChatGPT] است.»

مایکروسافت حدود دو هفته پیش از چت‌بات پیشرفته‌ای برای بینگ رونمایی کرد که براساس نسخه‌ای حرفه‌ای‌تر از ChatGPT ساخته شده است. این مدل از آن زمان تاکنون به‌صورت محدود در دسترس عده‌ای از کاربران قرار گرفته است و با جواب‌های خود جنجال‌های زیادی به پا کرده است.

به‌دنبال همین اتفاقات، مایکروسافت چند روز پیش اعلام کرد که استفاده از این هوش مصنوعی را به 5 سؤال در هر جلسه و 50 سؤال در هر روز محدود می‌کند.

منبع: دیجیاتو