شبكه اطلاعرساني روابطعمومي ايران (شارا) || محققان Google DeepMind در مقاله جديدي كه ابتدا با آكسيوس به اشتراك گذاشته شده است، ميگويند: اعطاي استقلال بيشتر به دستيارهاي مجهز به هوش مصنوعي، مزاياي وسوسهانگيزي را به همراه دارد - همراه با معضلات اخلاقي جديدي كه تازه شروع به بررسي آنها كردهايم.
چرا مهم است
عوامل هوش مصنوعي پيشرفته كه به عنوان دستيار، مشاور و همراه عمل ميكنند، ميتوانند تكرار بعدي هوش مصنوعي باشند كه مردم به صورت روزانه با آن مواجه ميشوند.
ابزارهايي كه در حال حاضر ساخته ميشوند - اما عموماً هنوز مستقر نشدهاند - ميتوانند پروز روابطعمومي را رزرو كنند، تقويمها را مديريت كنند، اطلاعات ارائه دهند و وظايف ديگري را انجام دهند.
اين عوامل پيشرفته هوش مصنوعي ممكن است در نهايت با يكديگر نيز تعامل داشته باشند.
محققان ديپمايند در مقاله خود مينويسند: آنها ميتوانند ماهيت كار، تحصيل و فعاليتهاي خلاقانه و همچنين نحوه برقراري ارتباط، هماهنگي و مذاكره با يكديگر را به طور اساسي تغيير دهند و در نهايت بر اينكه چه كسي هستيم و به چه كسي تبديل ميشويم، تأثير بگذارند.
نحوه عملكرد
محققان، دستيارهاي هوش مصنوعي را به عنوان "عوامل مصنوعي با رابطهاي زبان طبيعي كه وظيفه آنها برنامهريزي و اجراي دنبالهاي از اقدامات از طرف يك كاربر - در يك يا چند دامنه - مطابق با انتظارات كاربر است" تعريف ميكنند.
نويسندگان مينويسند كه كار از جانب كسي مستلزم نمايندگي ارزشها و علايق آنها و همچنين پايبندي به هنجارها و استانداردهاي اجتماعي گستردهتر است.
اقدام مستقل همچنين خطر تصادف يا انتشار اطلاعات نادرست را به همراه دارد و تيم ديپمايند استدلال ميكند كه اين عوامل به محدوديتهايي نياز دارند.
نويسندگان مينويسند: همانطور كه عوامل هوش مصنوعي شبيه انسان و شخصي ميشوند، مفيدتر ميشوند، اما همچنين افراد را در برابر نفوذ نامناسب آسيبپذير ميكنند. اين موضوع مسائل جديدي را در مورد اعتماد، حريم خصوصي و هوش مصنوعي انسانسازي شده ايجاد ميكند.
بزرگنمايي
مشاوران هوش مصنوعي به دانش زيادي در مورد كسي نياز دارند تا آنچه را كه توصيه خوبي تلقي ميشود، ارائه دهند.
ايسون گابريل، دانشمند پژوهشي در تيم تحقيقات اخلاق در ديپمايند و يكي از نويسندگان مقاله، ميگويد: يك مشكل اين است كه يك نماينده ميتواند به جاي توصيههاي خوب، به كسي كه دوست دارد توصيههايي بدهد.
او ميگويد: "اين به سؤال بسيار عميقتري منتهي ميشود، كه اين است، «از كجا ميداني چه چيزي براي يك فرد خوب است؟»
بين خطوط
فناوران درباره اهميت همسويي، يا اينكه چقدر اهداف و رفتار هوش مصنوعي با ترجيحات افرادي كه از آن استفاده ميكنند مطابقت دارد، صحبت ميكنند.
محققان ديپمايند يك مفهوم به روز شده و چهاروجهي از همسويي را براي عوامل هوش مصنوعي پيشنهاد ميكنند كه خود دستيار هوش مصنوعي، كاربر، توسعهدهنده و جامعه را در نظر ميگيرد.
يك دستيار هوش مصنوعي زماني كه به طور نامتناسبي يكي از اين ذينفعان را بر ديگري ترجيح ميدهد، نادرست است.
به عنوان مثال، اگر يك هوش مصنوعي اهداف خود را به قيمت كاربر يا جامعه دنبال كند - يا اگر براي سود نامتناسبي براي شركت سازنده آن طراحي شده باشد، ممكن است دچار اشتباه شود.
فتنه
اگر عوامل هوش مصنوعي به طور گسترده مورد استفاده قرار گيرند، با يكديگر مواجه خواهند شد و سؤالاتي را در مورد نحوه همكاري و هماهنگي - و همچنين آنچه در هنگام تضاد اتفاق ميافتد، ايجاد ميكنند.
گابريل ميگويد: "اگر آنها صرفاً به دنبال منافع كاربران خود به شيوهاي رقابتي يا آشفته باشند، به وضوح ميتواند منجر به شكست هماهنگي شود."
نكته مثبت
محققان ميگويند دستياران هوش مصنوعي ميتوانند به سهولت دسترسي به خدمات عمومي يا افزايش بهرهوري كمك كنند.
اما آنها همچنين ميتوانند نابرابريها را عميقتر كنند و تعيين كنند كه "چه كساني ميتوانند چه كاري را، در چه زماني و به چه ترتيبي انجام دهند.
آليسون اسنايدر، نويسنده Axios Science
منبع انگليسي: آكسيوس
منبع فارسي: شارا - شبكه اطلاعرساني روابطعمومي ايران
با كليك روي لينك زير به كانال تلگرام ما بپيونديد:
https://telegram.me/sharaPR
انتهاي پيام/