تحلیل ارزش‌های اخلاقی هوش مصنوعی “کلود” در مکالمات واقعی کاربران
این تحقیق در زمان راه‌اندازی "کلود مکس" منتشر شده است؛ اشتراکی پرمیوم با هزینه 200 دلار ماهانه که به دنبال رقابت با محصولات مشابه اوپن‌ای‌آی است.

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) ||شرکت آنتروپیک، که توسط گروهی از کارمندان سابق اوپن‌ای‌آی تأسیس شده است، نتایج تحقیقی جدید را منتشر کرده که نشان می‌دهد دستیار هوش مصنوعی این شرکت به نام “کلود”، چگونه در مکالمات واقعی با کاربران، ارزش‌های اخلاقی را رعایت می‌کند.

به گزارش شارا به نقل از VentureBeat و مایکل نونیز، 21 آوریل 2025، این تحقیق که 700 هزار مکالمه را بررسی کرده، نشان می‌دهد که “کلود” به طور عمده از اصول اخلاقی خود مانند “مفید بودن، صادق بودن و بی‌ضرر بودن” پیروی می‌کند و این اصول را با توجه به نیازهای مختلف کاربران تطبیق می‌دهد.

محققان پس از بررسی 300 هزار مکالمه، توانستند یک طبقه‌بندی جدید از ارزش‌های اخلاقی هوش مصنوعی بسازند. این طبقه‌بندی شامل پنج دسته اصلی است: “عملی”، “معرفتی”، “اجتماعی”، “حفاظتی” و “شخصی”. جالب اینجاست که “کلود” بیش از 3300 ارزش مختلف را شناسایی کرده است. برای مثال، در مشاوره‌های روابط انسانی بر “احترام متقابل” و “حدود سالم” تأکید می‌کند و در تحلیل رویدادهای تاریخی، “دقت تاریخی” را در اولویت قرار می‌دهد.

با این حال، محققان به موارد نادری اشاره کرده‌اند که در آن‌ها “کلود” برخلاف ارزش‌های مورد نظر خود عمل کرده است. این موارد نادر ناشی از روش‌هایی هستند که برخی کاربران برای دور زدن محدودیت‌های ایمنی سیستم استفاده می‌کنند. این مشکلات شامل بیان مفاهیمی مانند “سلطه‌جویی” و “بی‌اخلاقی” می‌شود که آنتروپیک سعی دارد از آن‌ها اجتناب کند.

این تحقیق در زمان راه‌اندازی “کلود مکس” منتشر شده است؛ اشتراکی پرمیوم با هزینه 200 دلار ماهانه که به دنبال رقابت با محصولات مشابه اوپن‌ای‌آی است.


انتهای پیام/