چرا چت‌ربات‌های هوش مصنوعی توهم می زنند؟

در این مقاله، نویسنده توضیح می‌دهد که چگونه مدل‌های زبان بزرگ، که اغلب به عنوان چت‌بات‌های هوش مصنوعی شناخته می‌شوند، می‌توانند توهم ایجاد کنند. این توهمات زمانی رخ می‌دهد که مدل‌ها اطلاعات ساختگی را تولید می‌کنند که به نظر می‌رسد واقعی و درست است.

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || در این مقاله، نویسنده توضیح می‌دهد که چگونه مدل‌های زبان بزرگ، که اغلب به عنوان چت‌بات‌های هوش مصنوعی شناخته می‌شوند، می‌توانند توهم ایجاد کنند. این توهمات زمانی رخ می‌دهد که مدل‌ها اطلاعات ساختگی را تولید می‌کنند که به نظر می‌رسد واقعی و درست است.


نویسنده چند دلیل برای اینکه چرا این اتفاق می‌افتد ارائه می‌دهد. یکی از دلایل این است که مدل‌ها بر روی حجم عظیمی از داده‌های متنی آموزش می‌بینند. این داده‌ها می‌توانند شامل اطلاعات نادرست یا گمراه کننده باشند. زمانی که مدل‌ها از این داده‌ها برای یادگیری استفاده می‌کنند، ممکن است اطلاعات نادرست را نیز یاد بگیرند.


دلیل دیگر این است که مدل‌ها اساساً کلمه‌ای را پیش‌بینی می‌کنند که به احتمال زیاد در یک جمله قرار می‌گیرد. این بدان‌معناست که آنها ممکن است کلمات یا عباراتی را تولید کنند که به نظر می‌رسد مرتبط هستند، اما در واقع معنایی ندارند.


نویسنده همچنین یک نمونه واقعی از این موضوع ارائه می‌دهد. در این نمونه، وکلایی از یک خلاصه حقوقی نوشته شده توسط چت جی‌پی‌تی استفاده کردند که شامل نقل‌قول‌های جعلی و موارد قضایی غیرموجود بود.


نویسنده در پایان مقاله توصیه می‌کند که کاربران هنگام استفاده از مدل‌های زبان بزرگ مراقب باشند. آنها باید پاسخ‌های مدل‌ها را برای اشتباهات واقعی تجزیه و تحلیل کنند، حتی اگر آنها به عنوان درست ارائه شوند.


در اینجا چند نکته برای تشخیص توهم در مدل‌های زبان بزرگ آورده شده است:
– هنگام بررسی پاسخ یک مدل، از منابع معتبر برای تأیید اطلاعات استفاده کنید.
– اگر پاسخ یک مدل به نظر می‌رسد بسیار خوب یا خیلی ساده است، ممکن است توهم باشد.
– اگر پاسخ یک مدل با دانش یا تجربیات شما در تضاد است، ممکن است توهم باشد.

 

منبع انگلیسی: cnbc

منبع فارسی: شارا


 

انتهای پیام/