شبكه اطلاع رساني روابط عمومي ايران (شارا)، يك گزارش جديد نشان ميدهد كه افزايش سيستمهاي هوش مصنوعي و ويروسهاي قاتل باعث انقراض انسانها خواهد شد. همچنين بلاياي طبيعي، سلاحهاي هسته اي و تغييرات آب و هوايي نيز بهعنوان تهديدات طولاني مدت براي انسان در نظر گرفته شده اند. اين گزارش با عنوان «خطرهاي فاجعهبار جهاني» كه توسط محققان دانشگاه آكسفورد، پروژه اولويت هاي جهاني و بنياد چالش هاي جهاني تدوين شده، به دستهبندي رويدادهاي فاجعهباري پرداخته كه ممكن است تا 10 درصد جمعيت را از بين ببرند.
سباستيم فاركوهار، رئيس پروژه اولويتهاي جهاني اظهار كرد كه رويدادهاي زيادي ممكن است بلافاصله رخ ندهند بلكه به تدريج اتفاق افتاده و جهان را بهطور فاجعهآميزي تغيير دهند. وي افزود كه رخدادهاي تاريخي ويرانگر ميتوانند مجددا اتفاق بيفتند. فاركوهار گفت: بسياري از اين خطرها در حال تغيير و رشد هستند، چرا كه فناوريها به تغيير، توسعه و تغيير شكل جهان ما پرداختهاند، البته كارهايي هست كه ميتوان در مورد اين خطرها انجام داد. بر اساس اين گزارش، پنج سال ديگر انفجارهاي ابرآتشفشانها، برخورد شهابسنگها و ساير فجايع ناشناخته ميتوانند بزرگترين تهديد براي حيات بشر باشند.با ارتقاي فناوريها، احتمال منقرض شدن انسانها توسط هوش مصنوعي بيشتر شده است.
براي مثال ايلان ماسك، رئيس شركتهاي اسپيسايكس و تسلا موتورز اخيرا يك ابزار توسعهدهنده موسوم به OpenAI Gym ساخته كه در اصل براي آموزش روباتها و ساير سيستمهاي هوش مصنوعي طراحي شده است. گزارش آكسفورد اين حقيقت را كه در آينده ممكن است اين سيستمها بر انسان غلبه كنند، رد نكرده است.به گفته فاركوهار، زماني كه اين سيستمهاي هوش مصنوعي اهدافي را براي خود تعيين كنند كه با ارزشهاي انساني متفاوت باشد، ميتوانند پيامدهاي نامطلوبي در پي داشته باشند. زماني كه درك آنچه كه انسان بهعنوان ارزش در نظر ميگيرد براي سيستمهاي قدرتمند هوش مصنوعي مشكل شود ميتوانند به روباتهاي قاتل تبديل شوند.اين گزارش همچنين به شمارش برخي تهديدات طولانيمدت مانند تغييرات آبوهوايي، بيماريهاي همهگير مهندسي شده و جنگ هستهاي پرداخته زيرا تاثيرات آنها در حال حاضر شروع به تغيير شكل جهان كرده است. افزايش زيستشناسي مصنوعي نيز ميتواند منجر به توليد ويروسهاي مرگبار شود.به گفته فاركوهار، گروههاي شبهنظامي ممكن است از روشهاي دستكاري ژنتيكي ويروسها براي ريشهكن كردن ميليونها انسان استفاده كنند.
آيا جهان براي چنين رويدادهايي آماده است؟
گزارش محققان نشان داده كه متاسفانه جامعه جهاني براي چنين رويدادهاي فاجعهباري به خوبي آماده نشده است. محققان به رهبران بين المللي پيشنهاد كردهاند كه با همكاري يكديگر برنامهريزي هماهنگ براي رسيدگي به بيماريهاي همهگير را آغاز، متقابلا با حذف سلاحهاي هستهاي موافقت و خطرهاي احتمالاي فناوري زيستي و سيستمهاي هوش مصنوعي را بررسي كنند.
منبع: روزنامه دنياي اقتصاد – شماره 3755