![](/media/image/1402/10/06/8475522-2photo_2023-12-23_17-02-31.jpg)
شبکه اطلاعرسانی روابطعمومی ایران (شارا) || در این مقاله، نویسنده توضیح میدهد که چگونه مدلهای زبان بزرگ، که اغلب به عنوان چتباتهای هوش مصنوعی شناخته میشوند، میتوانند توهم ایجاد کنند. این توهمات زمانی رخ میدهد که مدلها اطلاعات ساختگی را تولید میکنند که به نظر میرسد واقعی و درست است.
نویسنده چند دلیل برای اینکه چرا این اتفاق میافتد ارائه میدهد. یکی از دلایل این است که مدلها بر روی حجم عظیمی از دادههای متنی آموزش میبینند. این دادهها میتوانند شامل اطلاعات نادرست یا گمراه کننده باشند. زمانی که مدلها از این دادهها برای یادگیری استفاده میکنند، ممکن است اطلاعات نادرست را نیز یاد بگیرند.
دلیل دیگر این است که مدلها اساساً کلمهای را پیشبینی میکنند که به احتمال زیاد در یک جمله قرار میگیرد. این بدانمعناست که آنها ممکن است کلمات یا عباراتی را تولید کنند که به نظر میرسد مرتبط هستند، اما در واقع معنایی ندارند.
نویسنده همچنین یک نمونه واقعی از این موضوع ارائه میدهد. در این نمونه، وکلایی از یک خلاصه حقوقی نوشته شده توسط چت جیپیتی استفاده کردند که شامل نقلقولهای جعلی و موارد قضایی غیرموجود بود.
نویسنده در پایان مقاله توصیه میکند که کاربران هنگام استفاده از مدلهای زبان بزرگ مراقب باشند. آنها باید پاسخهای مدلها را برای اشتباهات واقعی تجزیه و تحلیل کنند، حتی اگر آنها به عنوان درست ارائه شوند.
در اینجا چند نکته برای تشخیص توهم در مدلهای زبان بزرگ آورده شده است:
- هنگام بررسی پاسخ یک مدل، از منابع معتبر برای تأیید اطلاعات استفاده کنید.
- اگر پاسخ یک مدل به نظر میرسد بسیار خوب یا خیلی ساده است، ممکن است توهم باشد.
- اگر پاسخ یک مدل با دانش یا تجربیات شما در تضاد است، ممکن است توهم باشد.
منبع انگلیسی: cnbc
منبع فارسی: شارا
انتهای پیام/
|