چرا مدل‌های زبانی بزرگ هرگز مانند انسان‌ها فکر نمی‌کنند؟
مدل‌های زبانی بزرگ شبیه به انسان حرف می‌زنند، اما هرگز مانند انسان‌ها فکر نمی‌کنند.

artificial chat Chat with AI or Artificial Intelligence. Digital chatbot, robot application, OpenAI generate. Futuristic technology.

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || در سال‌های اخیر، شایعه‌ای رایج شده است که مدل‌های زبانی بزرگ (LLMها) اساساً مانند انسان‌ها فکر می‌کنند. به گفته برخی پژوهشگران، از جمله جک کلارک (هم‌بنیان‌گذار آنتروپیک)، شواهد علوم اعصاب نشان می‌دهد که مغز انسان و مدل‌های زبانی بزرگ به روش‌های مشابهی جهان را بازنمایی می‌کنند.

گری مارکوس این ادعا را «بی‌پایه» می‌داند. او معتقد است که شباهت‌های سطحی، مانند استفاده از سلسله‌مراتب ویژگی‌ها، به معنای یکسان بودن کارکردها نیست. همان‌طور که موشک و خودرو هر دو محفظه حمل مسافر دارند، اما روش حرکتشان متفاوت است.

مارکوس یادآوری می‌کند که مدل‌های زبانی بزرگ فاقد «مدل جهانی» از واقعیت هستند، به همین دلیل حتی در بازی شطرنج نیز عملکرد قابل اعتمادی ندارند و مرتکب اشتباهات بدیهی می‌شوند. نمونه اخیر از آزمایش «شیائو ما» در پروژه Gemini گوگل دیپ‌مایند نشان می‌دهد که این مدل‌ها در استدلال زمانی و مفاهیم اقتصادی مانند تورم ضعف دارند.

به گفته او، مدل‌های زبانی بزرگ نه نرم‌افزارهای سنتی‌اند، نه پایگاه داده، و نه مانند انسان‌ها فکر می‌کنند. آنها اساساً ماشین‌های «تکمیل خودکار» هستند که با آماره‌های زبان کار می‌کنند، نه با درک واقعی جهان.

مارکوس نمونه‌های متعددی از خطاهای رایج ارائه می‌کند: استناد وکلا به پرونده‌های وجود نداشته، تولید بیوگرافی‌های غلط حتی با وجود منابع معتبر، یا فهرست‌سازی اشتباه نخست‌وزیران کانادا و بریتانیا با تاریخ‌های غیرممکن.

او تأکید می‌کند که این خطاها ناشی از عدم توانایی LLM در استفاده از داده‌ها برای خودآزمایی منطقی است. به همین دلیل، حتی «حالت تفکر» در GPT-5 نیز مانع از این اشتباهات نمی‌شود.

مارکوس به همراه ارنست دیویس سال‌هاست هشدار می‌دهد که هوش مصنوعی باید زمان، مکان و علیت را به عنوان چارچوب‌های بنیادی در مدل‌هایش لحاظ کند؛ چیزی که هنوز محقق نشده است. بدون چنین مدلی، استدلال درباره زمان یا اقتصاد به سطحی‌ترین شکل ممکن انجام می‌شود.

او هشدار می‌دهد که استفاده بی‌احتیاط از مدل‌های زبانی بزرگ در نقش عامل‌های خودکار، از ضعف امنیتی تا خطاهای فاحش منطقی، می‌تواند خطرساز باشد.

در پایان، مارکوس یادآور می‌شود که این سیستم‌ها «مثل ما حرف می‌زنند، اما مثل ما فکر نمی‌کنند». آن‌ها پژواک زبان انسان‌اند، نه اندیشه تازه. و نتیجه‌گیری صریح او این است: همیشه با احتیاط از LLM استفاده کنید و هرگز اعتماد کامل نداشته باشید.

نویسنده: گری مارکوس
تاریخ انتشار: ۱۲ آگوست ۲۰۲۵
منبع: garymarcus.substack

با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:

https://telegram.me/sharaPR

◽️