شبکه اطلاعرسانی روابطعمومی ایران (شارا) ||شرکت آنتروپیک، که توسط گروهی از کارمندان سابق اوپنایآی تأسیس شده است، نتایج تحقیقی جدید را منتشر کرده که نشان میدهد دستیار هوش مصنوعی این شرکت به نام “کلود”، چگونه در مکالمات واقعی با کاربران، ارزشهای اخلاقی را رعایت میکند.
به گزارش شارا به نقل از VentureBeat و مایکل نونیز، 21 آوریل 2025، این تحقیق که 700 هزار مکالمه را بررسی کرده، نشان میدهد که “کلود” به طور عمده از اصول اخلاقی خود مانند “مفید بودن، صادق بودن و بیضرر بودن” پیروی میکند و این اصول را با توجه به نیازهای مختلف کاربران تطبیق میدهد.
محققان پس از بررسی 300 هزار مکالمه، توانستند یک طبقهبندی جدید از ارزشهای اخلاقی هوش مصنوعی بسازند. این طبقهبندی شامل پنج دسته اصلی است: “عملی”، “معرفتی”، “اجتماعی”، “حفاظتی” و “شخصی”. جالب اینجاست که “کلود” بیش از 3300 ارزش مختلف را شناسایی کرده است. برای مثال، در مشاورههای روابط انسانی بر “احترام متقابل” و “حدود سالم” تأکید میکند و در تحلیل رویدادهای تاریخی، “دقت تاریخی” را در اولویت قرار میدهد.
با این حال، محققان به موارد نادری اشاره کردهاند که در آنها “کلود” برخلاف ارزشهای مورد نظر خود عمل کرده است. این موارد نادر ناشی از روشهایی هستند که برخی کاربران برای دور زدن محدودیتهای ایمنی سیستم استفاده میکنند. این مشکلات شامل بیان مفاهیمی مانند “سلطهجویی” و “بیاخلاقی” میشود که آنتروپیک سعی دارد از آنها اجتناب کند.
این تحقیق در زمان راهاندازی “کلود مکس” منتشر شده است؛ اشتراکی پرمیوم با هزینه 200 دلار ماهانه که به دنبال رقابت با محصولات مشابه اوپنایآی است.
انتهای پیام/
نظر بدهید