عوامل هوش مصنوعی چالش‌های اخلاقی جدیدی ایجاد می‌کنند

محققان Google DeepMind در مقاله جدیدی که ابتدا با آکسیوس به اشتراک گذاشته شده است، می‌گویند: اعطای استقلال بیشتر به دستیارهای مجهز به هوش مصنوعی، مزایای وسوسه‌انگیزی را به همراه دارد – همراه با معضلات اخلاقی جدیدی که تازه شروع به بررسی آنها کرده‌ایم.

 

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || محققان Google DeepMind در مقاله جدیدی که ابتدا با آکسیوس به اشتراک گذاشته شده است، می‌گویند: اعطای استقلال بیشتر به دستیارهای مجهز به هوش مصنوعی، مزایای وسوسه‌انگیزی را به همراه دارد – همراه با معضلات اخلاقی جدیدی که تازه شروع به بررسی آنها کرده‌ایم.

چرا مهم است

عوامل هوش مصنوعی پیشرفته که به عنوان دستیار، مشاور و همراه عمل می‌کنند، می‌توانند تکرار بعدی هوش مصنوعی باشند که مردم به صورت روزانه با آن مواجه می‌شوند.

ابزارهایی که در حال حاضر ساخته می‌شوند – اما عموماً هنوز مستقر نشده‌اند – می‌توانند پروز روابط‌عمومی را رزرو کنند، تقویم‌ها را مدیریت کنند، اطلاعات ارائه دهند و وظایف دیگری را انجام دهند.
این عوامل پیشرفته هوش مصنوعی ممکن است در نهایت با یکدیگر نیز تعامل داشته باشند.

محققان دیپ‌مایند در مقاله خود می‌نویسند: آنها می‌توانند ماهیت کار، تحصیل و فعالیت‌های خلاقانه و همچنین نحوه برقراری ارتباط، هماهنگی و مذاکره با یکدیگر را به طور اساسی تغییر دهند و در نهایت بر اینکه چه کسی هستیم و به چه کسی تبدیل می‌شویم، تأثیر بگذارند.

نحوه عملکرد

محققان، دستیارهای هوش مصنوعی را به عنوان “عوامل مصنوعی با رابط‌های زبان طبیعی که وظیفه آنها برنامه‌ریزی و اجرای دنباله‌ای از اقدامات از طرف یک کاربر – در یک یا چند دامنه – مطابق با انتظارات کاربر است” تعریف می‌کنند.

نویسندگان می‌نویسند که کار از جانب کسی مستلزم نمایندگی ارزش‌ها و علایق آنها و همچنین پایبندی به هنجارها و استانداردهای اجتماعی گسترده‌تر است.

اقدام مستقل همچنین خطر تصادف یا انتشار اطلاعات نادرست را به همراه دارد و تیم دیپ‌مایند استدلال می‌کند که این عوامل به محدودیت‌هایی نیاز دارند.

نویسندگان می‌نویسند: همانطور که عوامل هوش مصنوعی شبیه انسان و شخصی می‌شوند، مفیدتر می‌شوند، اما همچنین افراد را در برابر نفوذ نامناسب آسیب‌پذیر می‌کنند. این موضوع مسائل جدیدی را در مورد اعتماد، حریم خصوصی و هوش مصنوعی انسان‌سازی شده ایجاد می‌کند.

بزرگنمایی

مشاوران هوش مصنوعی به دانش زیادی در مورد کسی نیاز دارند تا آنچه را که توصیه خوبی تلقی می‌شود، ارائه دهند.

ایسون گابریل، دانشمند پژوهشی در تیم تحقیقات اخلاق در دیپ‌مایند و یکی از نویسندگان مقاله، می‌گوید: یک مشکل این است که یک نماینده می‌تواند به جای توصیه‌های خوب، به کسی که دوست دارد توصیه‌هایی بدهد.

او می‌گوید: “این به سؤال بسیار عمیق‌تری منتهی می‌شود، که این است، «از کجا می‌دانی چه چیزی برای یک فرد خوب است؟»

بین خطوط

فناوران درباره اهمیت همسویی، یا اینکه چقدر اهداف و رفتار هوش مصنوعی با ترجیحات افرادی که از آن استفاده می‌کنند مطابقت دارد، صحبت می‌کنند.

محققان دیپ‌مایند یک مفهوم به روز شده و چهاروجهی از همسویی را برای عوامل هوش مصنوعی پیشنهاد می‌کنند که خود دستیار هوش مصنوعی، کاربر، توسعه‌دهنده و جامعه را در نظر می‌گیرد.
یک دستیار هوش مصنوعی زمانی که به طور نامتناسبی یکی از این ذینفعان را بر دیگری ترجیح می‌دهد، نادرست است.

به عنوان مثال، اگر یک هوش مصنوعی اهداف خود را به قیمت کاربر یا جامعه دنبال کند – یا اگر برای سود نامتناسبی برای شرکت سازنده آن طراحی شده باشد، ممکن است دچار اشتباه شود.

فتنه

اگر عوامل هوش مصنوعی به طور گسترده مورد استفاده قرار گیرند، با یکدیگر مواجه خواهند شد و سؤالاتی را در مورد نحوه همکاری و هماهنگی – و همچنین آنچه در هنگام تضاد اتفاق می‌افتد، ایجاد می‌کنند.

گابریل می‌گوید: “اگر آنها صرفاً به دنبال منافع کاربران خود به شیوه‌ای رقابتی یا آشفته باشند، به وضوح می‌تواند منجر به شکست هماهنگی شود.”

نکته مثبت

محققان می‌گویند دستیاران هوش مصنوعی می‌توانند به سهولت دسترسی به خدمات عمومی یا افزایش بهره‌وری کمک کنند.

اما آنها همچنین می‌توانند نابرابری‌ها را عمیق‌تر کنند و تعیین کنند که “چه کسانی می‌توانند چه کاری را، در چه زمانی و به چه ترتیبی انجام دهند.

آلیسون اسنایدر، نویسنده Axios Science
منبع انگلیسی: آکسیوس
منبع فارسی: شارا – شبکه اطلاع‌رسانی روابط‌عمومی ایران

با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:
https://telegram.me/sharaPR

 

انتهای پیام/