شبکه اطلاعرسانی روابطعمومی ایران (شارا) || شرکت آنتروپیک (Anthropic) روز پنجشنبه اعلام کرد که یک روش متنباز برای اندازهگیری میزان بیطرفی سیاسی در چتباتهای هوش مصنوعی ارائه کرده است.
به گزارش شارا به نقل از آکسیوس، این اقدام در شرایطی انجام میشود که مباحث مربوط به سوگیری سیاسی در مدلهای هوش مصنوعی به یکی از موضوعات محوری در افکار عمومی، سیاست و صنعت فناوری تبدیل شده است.
آنتروپیک بر اساس نتایج ارزیابی خود اعلام کرد که مدلهای کلود سانت ۴٫۵ (Claude Sonnet 4.5) و کلود اوپس ۴٫۱ (Claude Opus 4.1) توانستهاند امتیاز ۹۵٪ کسب کنند. این عملکرد بالاتر از مدلهایی مانند لاما ۴ با ۶۶٪ و جیپیتی ۵ با ۸۹٪ است، اما اندکی پایینتر از جِمِنای ۲٫۵ پرو با ۹۷٪ و گروک ۴ با ۹۶٪ قرار دارد.
به گفته آنتروپیک، هدف از این پروژه آن است که «کلود» در پاسخ به مسائل سیاسی بیطرف بماند، هرچند این شرکت تأکید میکند که تعریف واحد و قطعی برای مفهوم سوگیری سیاسی وجود ندارد. روش ارزیابی آنتروپیک بر اساس طراحی پرسشهای جفتی — یکی با گرایش به چپ و دیگری با گرایش به راست — و تحلیل پاسخ مدلها در پرسشهای ساده و تکمرحلهای انجام شده است.
این موضوع در فضای سیاسی آمریکا نیز اهمیت ویژهای یافته است. رئیسجمهور ترامپ اخیراً فرمانی درباره «هوش مصنوعی بیدار» صادر کرده که شرکتهای همکار با دولت را موظف میکند مدلهایی کاملاً بدون سوگیری سیاسی ارائه دهند؛ هرچند تعریف دولت از «بیطرفی» بیشتر به همراستایی با مواضع رسمی درباره موضوعاتی مانند سیاستهای DEI نزدیک است. دفتر مدیریت و بودجه آمریکا باید تا ۲۰ نوامبر دستورالعملهای مرتبط با دقت واقعی و بیطرفی ایدئولوژیک را منتشر کند.
پژوهشها نشان میدهد که بسیاری از مدلهای بزرگ اندکی به سمت چپ میانه متمایلاند، اما برخی مطالعات تأکید میکنند که وقتی مدلها بر واقعیتهای تجربی تکیه میکنند، ممکن است در برخی حوزهها بهظاهر سوگیری نشان دهند. آنتروپیک ابزار جدید خود را در گیتهاب منتشر کرده و از شرکتهای دیگر خواسته از آن استفاده کنند یا روشهای دقیقتری توسعه دهند.
با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:
برای اطلاعات بیشتر درباره روابط عمومی و اخبار سازمانهای مختلف، میتوانید به وبسایت شارا مراجعه کنید.
انتهای پیام/

نظر بدهید