پایگاه خبری تحلیلی انتخاب (Entekhab.ir) :
نشریه اکونومیست مصاحبه ای جالب انجام داده با مارتین ریز، ستاره شناس بریتانیایی و استادیار کیهان شناسی و فیزیک دانشگاه کمبریج. محور این مصاحبه بررسی آینده انسان و انسانیت در مصاف پیشرفت های چشمگیر تکنولوژی هوش مصنوعی و صنعت هوا فضاست.
به گزارش سرویس آی تی و فناوری انتخاب، مارتین ریز از چهره های سرشناس حوزه کیهان شناسی است که آثاری متعدد و ارزشمند در این زمینه نوشته است. برای مثال او در کتاب "قرن نهایی ما" که چاپ سال 2003 است به بررسی چندین چالش جهانی، از جمله بیوتروریسم و سلاح های هسته ای پرداخت. وی معتقد بود که تا سال 2100 حدود 50 درصد از تکنولوژی های ما انقراض نسل انسان ها را به دنبال خواهد داشت. اما او طی سال های اخیر کمی تغییر عقیده داده و در آخرین کتابش به نام "در آینده"، بر روش های سودمندی فناوری ها می توانند زندگی ما را تغییرات مثبت دهند تاکید کرده است. او به طور ویژه به استفاده های مثبت از هوش مصنوعی پرداخته است.
در همین راستا اکونومیست مصاحبه ای با وی انجام داده و سعی کرده در خلال بررسی نظریات ریز به آینده جهان نیز بپردازد.مشروح این مصاحبه را در ادامه می خوانیم:
بزرگترین خطر در آینده برای بشریت چیست و می توانیم از چه راهکارهایی برای کاهش تهدیدها استفاده کنیم؟
من معتقدم حتی طی 2 سال آینده فناوری می تواند الگوهای کاری، اقتصاد ملی و روابط بین الملل را مختل کند. این یک بازی تعاملی واقعی است که یک گروه کوچک (یا حتی یک فرد) که متخصص سایبری یا بیوتکنولوژی توانمند است می تواند به راه اندازد و در نتیجه کوچک ترین اشتباه می تواند یک اختلال عظیم و پر حاشیه ایجاد کند.
حتی به گمانم قوانین و مقررات هم از پس این ماجرا بر نمی آیند. مقررات سایبری مثل مقررات مالی و مواد مخدر نیستند، بلکه این روزها شاهد نقض حریم خصوصی کاربران، نقض امنیت کاربران و موارد مشابه دیگری هستیم که مخاطره آمیزند.
آیا راهی وجود دارد که به طور معناداری هوش مصنوعی را تنظیم کند تا نگرانی هایی را که توسط افرادی مانند استیون هاوکینگ، ایلان ماسک و دیگران ابراز شده است، رفع کند؟
البته من کارشناس هوش مصنوعی نیستم، اما ایلان ماسک و استیون هاوکینگ نیز دقیقا هم نظر نیستند. نمی توانیم انکار کنیم که هوش مصنوعی برای مدیریت شبکه های پیچیده سریع مانند شبکه برق و جریان های ترافیکی مناسب است. هوش مصنوعی حتی می تواند یک اقتصاد ملی قدرتمند را برنامه ریزی کند، اقتصادی که مارکس در آرزوی آن بود. اما آیا ما برای تصمیم گیری های هوش مصنوعی آماده ایم؟ شاید مشکل اصلی ما با هوش مصنوعی این است که هوش مصنوعی را مثل یک جعبه سیاه و پر رمز و راز می بینیم.
با این حال، من فکر می کنم نگرانی های آخرالزمانی در مورد هوش مصنوعی به اندازه خوشبینی های بی مورد، خطرناک است.ماشین آلات می توانند از طریق طراحی هوشمندانه سکولار بدون تهاجم، تکامل پیدا کنند. من فکر می کنم بیش از آن که نگران هوش مصنوعی باشیم، باید نگران حماقت باشیم.
انسانها باید از چه مسیری برای برقرار ارتباط با بیگانگان فضا کمک بگیرند؟
سؤال درست از دید من این است: "آیا ما تنها هستیم؟ پاسخ دادن به این سوال بسیار جذاب است. من فکر می کنم همه انسانها در نهاد خود به دنبال یافتن این پرسش هستند و در طول 20 سال آینده احتمالا، بیوشیمیست ها خواهند فهمید که چگونه زندگی روی زمین آغاز شد و اینکه چطور ممکن است در دیگر مکان های کیهانی تکامل یابد. و اسپکتروسکوپی، با استفاده از تلکسکوپ های بزرگ ممکن است شواهدی برای فتوسنتز در سیارات و ستاره های نزدیک ما بیابند، اما حتی اگر زندگی ساده در دیگر نقاط کهکشان راه شیری اثبات شود، ما نمیتوانیم همه مسئولیت شناسایی را بر عهده هوش مصنوعی بگذاریم.
اجازه بدهید شما را در این مورد تحت تنگنا قرار دهم. اگر بیگانگان هوشمند به ما رسیدند، بسیاری از سوالات بزرگ مطرح می شود که مثلا چه کسی انسانیت را نمایندگی می کند؟ دین چه معنایی دارد؟ آیا نژادپرستی زمینی در برابر فضایی ها ظاهر نخواهد شد؟ و بسیاری از سوالات مشابه. آیا شما هرگز به این ها فکر کرده اید؟
البته که بله. من در مورد مسائل زیادی فکر و صحبت کردم. من در یکی از کتاب هایم توضیح داده ام که اگر ما هر "سیگنال" جدید را شناسایی کردیم، به معنای تمدن نیست، اما احتمالا یک مغز الکترون تک یاخته ای از خود ماست که هیچ تصوری از آن نداریم. جدول زمانی زمین، حداقل 4 میلیارد سال زندگی ناامن را نشان می دهد و ما تنها چند هزار سال تمدن مکتوب و شناسایی شده داریم. پس میلیاردها سال از از تکامل نیازی به محیط سیاره ای ندارد. بعید به نظر می رسد که "زمین دوم" درست مثل زمین ما یافته شود. گرچه انتظار حمله فضایی های عجیب الخلقه را هم ندارم.
گاهی اوقات به نظر می رسد که نقش علم در جامعه، عقب مانده است، با انکار کنندگان تغییرات آب و هوایی، منتقدان واکسیناسیون، ردکنندگان نظریه پردازان علمی و ... چگونه می توان کنار امد؟
من خودم را اینقدر سانسور نکردم برای مثال، پیش بینی های اقتصادی، قابل قبول است. اما مهم است که انتخاب های ما در مورد چالش های کلیدی اجتماعی که شامل علم، انرژی، بهداشت، غذا، روباتیک، محیط زیست، فضا و غیره است، با حمایت دولت ها انجام شود. درواقع ساماندهی به این بخش ها تنها وظیفه دانشمندان نیست.به همین دلیل آموزش علوم برای همه مهم است و دانشمندان باید با مردم و نمایندگان مجلس همکاری کنند. ما باید در مورد علم و فناوری خوشبین باشیم، هرچند مردم حق دارند تلاش خود را به سوی برخی اهداف و دور از هدف اصلی متمرکز کنند.
شما چه کشف جدیدی را در طول زندگی خود داشته اید، آیا کنون اتفاق افتاده است؟
از دیدگاه من به عنوان یک دانشمند فضایی، کشف شماره یک، زندگی غیرطبیعی خواهد بود، حتی در یک شکل اولیه. اما من در طول زندگی ام چیزی که ما آموخته ایم این است که ترتیب پیشرفت ها بسیار مهم است. به عنوان مثال، هوش مصنوعی پیشرفته می تواند ما را در اکتشافات علمی و سازماندهی زیرساخت های جامعه کمک کند. پس جای تاسف است که هنوز آن را نداریم. ما باید جایگزین های ارزان و کارآمدی برای سوخت فسیلی ترتیب دهیم تا مانع از افزایش دی اکسید کربن به سطوح بالای جو زمین شویم.
آیا واقعا در زندگی آینده انسان ریسک استفاده از هوش مصنوعی وجود دارد؟
جهان ما به طور فزاینده ای وابسته به شبکه های پیچیده است: شبکه های برق ، کنترل ترافیک هوایی، مالی و بین المللی، تولید پراکنده در سطح جهانی و غیره. اما مسافرت هوایی همانقدر می تواند ریسک داشته باشد که شیوع یک بیماری واگیردار در جهان. هنگامی که ما توانایی بیوتکنولوژی، روباتیک، فناوری های سایبری، و هوش مصنوعی را درک می کنیم نمی توانیم از نگرانی در مورد چگونگی سوءاستفاده از این توانایی ها اجتناب کنیم.
اما این مسئله این پرسش را مطرح می کند: آیا می توان یک طبقه جداگانه و مصون از وقایع شدید داشت که حافظ ما در برای تخریب های هوش مصنوعی باشد؟
فیزیکدانانی که در پروژه منهتن در جنگ جهانی دوم مشغول به کار بودند، این نوع نگرانی هارا افزایش دادند. آیا می توانیم کاملا مطمئن باشیم که انفجار هسته ای نمی تواند تمام جو زمین یا اقیانوس ها را بسوزاند؟ پیش از آزمون 1945 که اولین بمب اتمی در نیومکزیکو بود، ادوارد تلر و دو همکارش این مسئله را در محاسبه ای که (خیلی بعد) توسط آزمایشگاه لوس آلاموس منتشر شد، مطرح کردند؛ آنها خود را متقاعد کردند که یک عامل ایمنی بزرگ وجود دارد و خوشبختانه، آنها درست فکر کرده بودند. اکنون ما مطمئنا میدانیم که یک سلاح تک هسته ای، هر چند که ویرانگر است، نمی تواند یک واکنش زنجیره ای هسته ای ایجاد کند که زمین و جو زمین آن را کاملا نابود کند.
پس چگونه باید ریسک پذیر باشیم؟
برخی معتقدند که شانس یک دهم میلیون نفر در برابر یک فاجعه موجود، به اندازه کافی خوب خواهد بود؛ زیرا این احتمال وجود دارد که ناگهان بی هیچ پیشینه ای در سال آینده یک سیارک بزرگ به ما برخورد کند و باعث ویرانی کل جهان شود. اما برای بعضی ها، این حد کافی به نظر نمی رسد. این دیگر بستگی به نگرش اشخاص دارد.
آیا می توانیم اعتباری چنین تضمین هایی بدهیم؟
ما در مورد برخی پدیده ها مثل گرد بودن زمین مطمئن هستیم چرا که ما این چیزها را درک می کنیم. اما اگر درک ما در حدی اندک خطا داشته باشد،ما واقعا نمیتوانیم یک احتمال 100 در 100 دهیم یا با اطمینان ادعا کنیم که چیزی بعید است. مسئله این است که احتمال نسبی وقوع 2 فرضیه برای یک واقعیت غیرمعمول وجود دارد که یکی بسیار سودمند است و دیگری فاجعه بار. من حدس می زنم که "صعود" منافع بشریت با عذاب جهانی غیرقابل تحمل همراه نخواهد بود. اما این دشوار است که بخواهیم فرضیه مذکور را به کرسی بنشانیم.
با این حال، فیزیکدانان باید در مورد انجام آزمایش هایی که بدون هیچ سابقه ای حتی در کیهان تولید می کنند، دقت داشته باشند. به همان شیوه، متخصصان زیست شناسی باید از ایجاد پاتوژنهای اصلاح شده ژنتیکی بالقوه ویرانگر یا اصلاح مقیاس بزرگ که موجب خطر برای بشر می شود جلوگیری کنند، نوآورانی که به دنبال بهره مندی از هوش مصنوعی پیشرفته هستند، باید از سناریوهایی کهمنجر به کشتار می شود اجتناب کنند.
هر حوزه ای در مسیر پیشرفت می تواند مخاطره آمیز باشد، پاسخ نابودی بشر در خلال هوش مصنوعی یک سوال اخلاقی است که حتی نسل های بعدی را هم در بر می گیرد.