صفحه نخست

تاریخ

ورزش

خواندنی ها

سلامت

ویدیو

عکس

صفحات داخلی

۰۳ دی ۱۴۰۳ - ساعت
کد خبر: ۴۴۶۵۴۳
تاریخ انتشار: ۲۷ : ۱۷ - ۲۳ آذر ۱۳۹۷
این سازمان با سرمایه گذاری مشترک سازمان تحقیقات علمی و صنعتی کشورهای مشترک المنافع، دانشگاه سیدنی و گروه بیمه‌گذار استرالیا تاسیس شده و مدیر اجرایی آن بیل سیمپسون یوانگ خواهد بود. سیمپسون معتقد است که آثار هوش مصنوعی این روزها در گوشه‌وکنار زندگی روزانه ما دیده شود «وقتی مردم از هوش مصنوعی حرف می‌زنند، اغلب درباره یادگیری ماشینی حرف می‌زنند. اما یادگیری ماشینی تنها یک کاربرد هوش مصنوعی است اما سیستم‌ها در خلال تجربه می‌آموزند و رشد می‌کنند، بی آنکه توسط کاربران انسانی برنامه ریزی شده باشند.»
پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :

سه سازمان شناخته شده استرالیایی روز پنجشنبه اعلام کردند که بنا دارند با مشارکت یکدیگر نسبت به راه‌اندازی «سازمان گرادینت» به عنوان یک نهاد غیرانتفاعی اقدام کنند. این سازمان ابعاد اخلاقی هوش مصنوعی را مورد پژوهش قرار خواهد داد.

 

 این سازمان با سرمایه گذاری مشترک سازمان تحقیقات علمی و صنعتی کشورهای مشترک المنافع، دانشگاه سیدنی و گروه بیمه‌گذار استرالیا تاسیس شده و مدیر اجرایی آن بیل سیمپسون یوانگ خواهد بود. سیمپسون معتقد است که آثار هوش مصنوعی این روزها در گوشه‌وکنار زندگی روزانه ما دیده شود «وقتی مردم از هوش مصنوعی حرف می‌زنند، اغلب درباره یادگیری ماشینی حرف می‌زنند. اما یادگیری ماشینی تنها یک کاربرد هوش مصنوعی است اما سیستم‌ها در خلال تجربه می‌آموزند و رشد می‌کنند، بی آنکه توسط کاربران انسانی برنامه ریزی شده باشند.»


ضرورت تدوین دستورالعمل‌های اخلاقی هوش مصنوعی
هوش مصنوعی این روزها هر لحظه در مقاله جدید و محصولی که به مصرف کننده توصیه می‌شود، به چشم می‌خورد. خیلی از شرکت‌ها از هوش مصنوعی برای فیلتر کردن نیروی متقاضی کار و خیلی از بانک‌ها از آن برای تصمیم گیری درباره نحوه وام دادن بهره می‌برند.


با در نظر گرفتن روند رو به‌رشد نفوذ هوش مصنوعی در همه جوامع، کارشناس بر این باورند که ایجاد دستورالعمل‌ اخلاقی برای هوش مصنوعی ضروری به نظر می‌رسد. اهمیت این دستورالعمل‌ها این است که نوع بشر مجاب شود، ماشینی شدن همه چیزها و رشد بی وقفه هوش مصنوعی در راستای منافع انسانی قرار دارد.


امروزه ماشین‌ها برای ما تصمیم می‌گیرند
سیمپسون یوانگ نیز گفته «انسان‌ها هر روز تصمیم‌ می‌گیرند و این تصمیم‌گیری‌های روزمره نیز بر بنیاد چارچوب اخلاق استوار است. ما هم اکنون در وضعیتی قرار گرفته‌ایم که این ماشین‌ها هستند که برای ما تصمیم می‌گیرند که روزانه باید چه خبری بخوانیم یا با چه کسی ملاقات کنیم. اما در حال حاضر هیچ چارچوب اخلاقی برای همین ماشین‌ها ترسیم نشده است.»


از رسیدن به یک اجماع اخلاقی در این حوزه که بگذریم دانشمندان مسیر طولانی و دشواری برای تنها فرموله کردن دستورالعمل‌های اخلاقی و کدنویسی و برنامه نویسی و اجرای آن پیش رو دارند.


هنوز برای سوال‌های اخلاقی خودمان دنبال جوابیم
مایکل هار، استاد ارشد دانشگاه گفته « یکی از سوال‌های کلیدی پیش روی ما این است که چگونه به‌طور اخلاقی انسان باشیم. ما به واقع نمی‌دانیم چه پاسخی به این سوال بدهیم. حالا اینکه بخواهیم هوش مصنوعی برای همه این سوال‌ها پاسخی داشته باشد هم بسیار سخت است.»


به گفته هار «گام نخست خلق مجموعه داده‌های بزرگ است از آنچه مردم از اخلاق انتظار دارند و گام بعدی می‌تواند شکل دادن به یک رویکرد باشد. هوش مصنوعی گفت‌وگوهای ما را کنترل می کند و در تلاش است تا بتواند به سوال‌هایی پاسخ دهد که ما به عنوان نوع بشر سال های سال دنبال پاسخی برای آن بوده ایم. »


سازمان گرادینت بنا دارد تا داده‌های مختلفی از شاخه‌های علمی متنوع از حقوق و علوم انسانی گرفته تا مهندسی و تحلیلگران داده را جمع آوری کرده و سامان دهد.

 

منبع: یورونیوز