محققان Google DeepMind در مقاله جدیدی که ابتدا با آکسیوس به اشتراک گذاشته شده است، میگویند: اعطای استقلال بیشتر به دستیارهای مجهز به هوش مصنوعی، مزایای وسوسهانگیزی را به همراه دارد – همراه با معضلات اخلاقی جدیدی که تازه شروع به بررسی آنها کردهایم.
شبکه اطلاعرسانی روابطعمومی ایران (شارا) || محققان Google DeepMind در مقاله جدیدی که ابتدا با آکسیوس به اشتراک گذاشته شده است، میگویند: اعطای استقلال بیشتر به دستیارهای مجهز به هوش مصنوعی، مزایای وسوسهانگیزی را به همراه دارد – همراه با معضلات اخلاقی جدیدی که تازه شروع به بررسی آنها کردهایم.
چرا مهم است
عوامل هوش مصنوعی پیشرفته که به عنوان دستیار، مشاور و همراه عمل میکنند، میتوانند تکرار بعدی هوش مصنوعی باشند که مردم به صورت روزانه با آن مواجه میشوند.
ابزارهایی که در حال حاضر ساخته میشوند – اما عموماً هنوز مستقر نشدهاند – میتوانند پروز روابطعمومی را رزرو کنند، تقویمها را مدیریت کنند، اطلاعات ارائه دهند و وظایف دیگری را انجام دهند.
این عوامل پیشرفته هوش مصنوعی ممکن است در نهایت با یکدیگر نیز تعامل داشته باشند.
محققان دیپمایند در مقاله خود مینویسند: آنها میتوانند ماهیت کار، تحصیل و فعالیتهای خلاقانه و همچنین نحوه برقراری ارتباط، هماهنگی و مذاکره با یکدیگر را به طور اساسی تغییر دهند و در نهایت بر اینکه چه کسی هستیم و به چه کسی تبدیل میشویم، تأثیر بگذارند.
نحوه عملکرد
محققان، دستیارهای هوش مصنوعی را به عنوان “عوامل مصنوعی با رابطهای زبان طبیعی که وظیفه آنها برنامهریزی و اجرای دنبالهای از اقدامات از طرف یک کاربر – در یک یا چند دامنه – مطابق با انتظارات کاربر است” تعریف میکنند.
نویسندگان مینویسند که کار از جانب کسی مستلزم نمایندگی ارزشها و علایق آنها و همچنین پایبندی به هنجارها و استانداردهای اجتماعی گستردهتر است.
اقدام مستقل همچنین خطر تصادف یا انتشار اطلاعات نادرست را به همراه دارد و تیم دیپمایند استدلال میکند که این عوامل به محدودیتهایی نیاز دارند.
نویسندگان مینویسند: همانطور که عوامل هوش مصنوعی شبیه انسان و شخصی میشوند، مفیدتر میشوند، اما همچنین افراد را در برابر نفوذ نامناسب آسیبپذیر میکنند. این موضوع مسائل جدیدی را در مورد اعتماد، حریم خصوصی و هوش مصنوعی انسانسازی شده ایجاد میکند.
بزرگنمایی
مشاوران هوش مصنوعی به دانش زیادی در مورد کسی نیاز دارند تا آنچه را که توصیه خوبی تلقی میشود، ارائه دهند.
ایسون گابریل، دانشمند پژوهشی در تیم تحقیقات اخلاق در دیپمایند و یکی از نویسندگان مقاله، میگوید: یک مشکل این است که یک نماینده میتواند به جای توصیههای خوب، به کسی که دوست دارد توصیههایی بدهد.
او میگوید: “این به سؤال بسیار عمیقتری منتهی میشود، که این است، «از کجا میدانی چه چیزی برای یک فرد خوب است؟»
بین خطوط
فناوران درباره اهمیت همسویی، یا اینکه چقدر اهداف و رفتار هوش مصنوعی با ترجیحات افرادی که از آن استفاده میکنند مطابقت دارد، صحبت میکنند.
محققان دیپمایند یک مفهوم به روز شده و چهاروجهی از همسویی را برای عوامل هوش مصنوعی پیشنهاد میکنند که خود دستیار هوش مصنوعی، کاربر، توسعهدهنده و جامعه را در نظر میگیرد.
یک دستیار هوش مصنوعی زمانی که به طور نامتناسبی یکی از این ذینفعان را بر دیگری ترجیح میدهد، نادرست است.
به عنوان مثال، اگر یک هوش مصنوعی اهداف خود را به قیمت کاربر یا جامعه دنبال کند – یا اگر برای سود نامتناسبی برای شرکت سازنده آن طراحی شده باشد، ممکن است دچار اشتباه شود.
فتنه
اگر عوامل هوش مصنوعی به طور گسترده مورد استفاده قرار گیرند، با یکدیگر مواجه خواهند شد و سؤالاتی را در مورد نحوه همکاری و هماهنگی – و همچنین آنچه در هنگام تضاد اتفاق میافتد، ایجاد میکنند.
گابریل میگوید: “اگر آنها صرفاً به دنبال منافع کاربران خود به شیوهای رقابتی یا آشفته باشند، به وضوح میتواند منجر به شکست هماهنگی شود.”
نکته مثبت
محققان میگویند دستیاران هوش مصنوعی میتوانند به سهولت دسترسی به خدمات عمومی یا افزایش بهرهوری کمک کنند.
اما آنها همچنین میتوانند نابرابریها را عمیقتر کنند و تعیین کنند که “چه کسانی میتوانند چه کاری را، در چه زمانی و به چه ترتیبی انجام دهند.
آلیسون اسنایدر، نویسنده Axios Science
منبع انگلیسی: آکسیوس
منبع فارسی: شارا – شبکه اطلاعرسانی روابطعمومی ایران
با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:
https://telegram.me/sharaPR
انتهای پیام/
|
نظر بدهید