واقعیت با فرم طولانی در مدل های زبان بزرگ" و سیستم اس‌اِی‌ف‌ئی

اخیراً، واحد تحقیقات دیپ مایند گوگل از سیستم هوش مصنوعی جدیدی به نام اس‌اِی‌ف‌ئی رونمایی کرده که مدعی است در بررسی صحت اطلاعات تولید شده توسط مدل‌های زبانی بزرگ، عملکردی “فوق بشری” دارد.

  شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || اخیراً، واحد تحقیقات دیپ مایند (DeepMind) گوگل از سیستم هوش مصنوعی جدیدی به نام اس‌اِی‌ف‌ئی (اس‌اِی‌ف‌ئی (SAFE) مخفف:Search Augmented Fact Evaluation) رونمایی کرده که مدعی است در بررسی صحت اطلاعات تولید شده توسط مدل‌های زبانی بزرگ، عملکردی “فوق بشری” دارد.


 روش اس‌اِی‌ف‌ئی

اس‌اِی‌ف‌ئی از یک مدل زبان بزرگ (LLM) برای تجزیه متن تولید شده به حقایق فردی استفاده می‌کند و سپس از نتایج جستجوی گوگل برای تعیین صحت هر ادعا استفاده می‌کند.

 عملکرد اس‌اِی‌ف‌ئی

– محققان اس‌اِی‌ف‌ئی را در مقابل حاشیه‌نویسان انسانی بر اساس مجموعه داده‌ای از ۱۶۰۰۰ واقعیت قرار دادند و دریافتند که:

– ارزیابی‌های اس‌اِی‌ف‌ئی در ۷۲ درصد مواقع با رتبه‌بندی‌های انسانی مطابقت دارد.

– در ۷۶ درصد موارد اختلاف بین اس‌اِی‌ف‌ئی و ارزیابی‌کنندگان انسانی، قضاوت اس‌اِی‌ف‌ئی صحیح بود.

 مزایای اس‌اِی‌ف‌ئی
 

 صرفه جویی در هزینه: استفاده از اس‌اِی‌ف‌ئی حدود ۲۰ برابر ارزان‌تر از حقیقت‌سنجی انسانی است.

 مقیاس‌پذیری: اس‌اِی‌ف‌ئی می‌تواند برای بررسی حجم عظیمی از اطلاعات تولید شده توسط مدل‌های زبانی به کار رود.

 اهمیت شفافیت و اصول انسانی: توسعه ابزارهای بررسی حقایق خودکار باید در فضایی باز و با مشارکت طیف وسیعی از ذینفعان انجام شود.

 نتیجه
اس‌اِی‌ف‌ئی گامی مهم در جهت ایجاد ابزاری برای بررسی خودکار خروجی مدل‌های زبانی بزرگ است.

با این حال، برای اطمینان از دقت و قابل اعتماد بودن این ابزار، به شفافیت و تعهد به اصول انسانی نیاز است.

منبع انگلیسی: VentureBeat
منبع فارسی: شارا

 

انتهای پیام/

<div id=”div_eRasanehTrustseal_24429″></div>
<script src=”https://trustseal.e-rasaneh.ir/trustseal.js”></script>
<script>eRasaneh_Trustseal(24429, false);</script>