شارا - شبكه اطلاع رساني روابط عمومي ايران : گوگل متوجه مي‌شود كه عوامل هوش مصنوعي چالش‌هاي اخلاقي جديدي ايجاد مي‌كنند
پنجشنبه، 6 اردیبهشت 1403 - 10:52 کد خبر:54987
محققان Google DeepMind در مقاله جديدي كه ابتدا با آكسيوس به اشتراك گذاشته شده است، مي‌گويند: اعطاي استقلال بيشتر به دستيارهاي مجهز به هوش مصنوعي، مزاياي وسوسه‌انگيزي را به همراه دارد - همراه با معضلات اخلاقي جديدي كه تازه شروع به بررسي آنها كرده‌ايم.



شبكه اطلاع‌رساني روابط‌عمومي‌ ايران (شارا) || محققان Google DeepMind در مقاله جديدي كه ابتدا با آكسيوس به اشتراك گذاشته شده است، مي‌گويند: اعطاي استقلال بيشتر به دستيارهاي مجهز به هوش مصنوعي، مزاياي وسوسه‌انگيزي را به همراه دارد - همراه با معضلات اخلاقي جديدي كه تازه شروع به بررسي آنها كرده‌ايم.

چرا مهم است

عوامل هوش مصنوعي پيشرفته كه به عنوان دستيار، مشاور و همراه عمل مي‌كنند، مي‌توانند تكرار بعدي هوش مصنوعي باشند كه مردم به صورت روزانه با آن مواجه مي‌شوند.

ابزارهايي كه در حال حاضر ساخته مي‌شوند - اما عموماً هنوز مستقر نشده‌اند - مي‌توانند پروز روابط‌عمومي را رزرو كنند، تقويم‌ها را مديريت كنند، اطلاعات ارائه دهند و وظايف ديگري را انجام دهند.
اين عوامل پيشرفته هوش مصنوعي ممكن است در نهايت با يكديگر نيز تعامل داشته باشند.

محققان ديپ‌مايند در مقاله خود مي‌نويسند: آنها مي‌توانند ماهيت كار، تحصيل و فعاليت‌هاي خلاقانه و همچنين نحوه برقراري ارتباط، هماهنگي و مذاكره با يكديگر را به طور اساسي تغيير دهند و در نهايت بر اينكه چه كسي هستيم و به چه كسي تبديل مي‌شويم، تأثير بگذارند.

نحوه عملكرد

محققان، دستيارهاي هوش مصنوعي را به عنوان "عوامل مصنوعي با رابط‌هاي زبان طبيعي كه وظيفه آنها برنامه‌ريزي و اجراي دنباله‌اي از اقدامات از طرف يك كاربر - در يك يا چند دامنه - مطابق با انتظارات كاربر است" تعريف مي‌كنند.

نويسندگان مي‌نويسند كه كار از جانب كسي مستلزم نمايندگي ارزش‌ها و علايق آنها و همچنين پايبندي به هنجارها و استانداردهاي اجتماعي گسترده‌تر است.

اقدام مستقل همچنين خطر تصادف يا انتشار اطلاعات نادرست را به همراه دارد و تيم ديپ‌مايند استدلال مي‌كند كه اين عوامل به محدوديت‌هايي نياز دارند.

نويسندگان مي‌نويسند: همانطور كه عوامل هوش مصنوعي شبيه انسان و شخصي مي‌شوند، مفيدتر مي‌شوند، اما همچنين افراد را در برابر نفوذ نامناسب آسيب‌پذير مي‌كنند. اين موضوع مسائل جديدي را در مورد اعتماد، حريم خصوصي و هوش مصنوعي انسان‌سازي شده ايجاد مي‌كند.

بزرگنمايي

مشاوران هوش مصنوعي به دانش زيادي در مورد كسي نياز دارند تا آنچه را كه توصيه خوبي تلقي مي‌شود، ارائه دهند.

ايسون گابريل، دانشمند پژوهشي در تيم تحقيقات اخلاق در ديپ‌مايند و يكي از نويسندگان مقاله، مي‌گويد: يك مشكل اين است كه يك نماينده مي‌تواند به جاي توصيه‌هاي خوب، به كسي كه دوست دارد توصيه‌هايي بدهد.

او مي‌گويد: "اين به سؤال بسيار عميق‌تري منتهي مي‌شود، كه اين است، «از كجا مي‌داني چه چيزي براي يك فرد خوب است؟»

بين خطوط

فناوران درباره اهميت همسويي، يا اينكه چقدر اهداف و رفتار هوش مصنوعي با ترجيحات افرادي كه از آن استفاده مي‌كنند مطابقت دارد، صحبت مي‌كنند.

محققان ديپ‌مايند يك مفهوم به روز شده و چهاروجهي از همسويي را براي عوامل هوش مصنوعي پيشنهاد مي‌كنند كه خود دستيار هوش مصنوعي، كاربر، توسعه‌دهنده و جامعه را در نظر مي‌گيرد.
يك دستيار هوش مصنوعي زماني كه به طور نامتناسبي يكي از اين ذينفعان را بر ديگري ترجيح مي‌دهد، نادرست است.

به عنوان مثال، اگر يك هوش مصنوعي اهداف خود را به قيمت كاربر يا جامعه دنبال كند - يا اگر براي سود نامتناسبي براي شركت سازنده آن طراحي شده باشد، ممكن است دچار اشتباه شود.

 فتنه

اگر عوامل هوش مصنوعي به طور گسترده مورد استفاده قرار گيرند، با يكديگر مواجه خواهند شد و سؤالاتي را در مورد نحوه همكاري و هماهنگي - و همچنين آنچه در هنگام تضاد اتفاق مي‌افتد، ايجاد مي‌كنند.

گابريل مي‌گويد: "اگر آنها صرفاً به دنبال منافع كاربران خود به شيوه‌اي رقابتي يا آشفته باشند، به وضوح مي‌تواند منجر به شكست هماهنگي شود."

نكته مثبت

محققان مي‌گويند دستياران هوش مصنوعي مي‌توانند به سهولت دسترسي به خدمات عمومي يا افزايش بهره‌وري كمك كنند.

اما آنها همچنين مي‌توانند نابرابري‌ها را عميق‌تر كنند و تعيين كنند كه "چه كساني مي‌توانند چه كاري را، در چه زماني و به چه ترتيبي انجام دهند.
 

آليسون اسنايدر، نويسنده Axios Science
منبع انگليسي: آكسيوس
منبع فارسي: شارا - شبكه اطلاع‌رساني روابط‌عمومي ايران

با كليك روي لينك زير به كانال تلگرام ما بپيونديد:
https://telegram.me/sharaPR

 

انتهاي پيام/