چگونه مدل‌های زبانی بزرگ جهان را می‌فهمند و چرا شناخت شهودی در عصر هوش مصنوعی بازمی‌گردد
مدل‌های زبانی بزرگ جهان را نه با قوانین ثابت، بلکه با الگوها و بافت‌های پیچیده تفسیر می‌کنند و این نگاه، ارزش شهود انسانی را دوباره برجسته می‌سازد.

مدل‌های زبانی بزرگ جهان را از طریق الگوهای پیچیده و تجربه‌محور می‌بینند و برخلاف سامانه‌های قدیمی، بر قوانین ثابت تکیه ندارند.

این مدل‌ها با یادگیری از نمونه‌های فراوان، ساختاری شبیه شهود انسانی پیدا کرده‌اند. تاریخ اندیشه نیز نشان می‌دهد که تلاش برای قوانین جهان‌شمول در بسیاری از حوزه‌ها ناکارآمد بوده است.

شبکه‌های عصبی امکان فهم زمینه‌ای و انعطاف‌پذیر را فراهم کرده‌اند. نتیجه آنکه هوش مصنوعی نه جایگزین انسانیت، بلکه بازتابی از شهود و تجربه انسانی است.


نویسنده: دن شیپر
تاریخ انتشار: ۲۲ نوامبر ۲۰۲۵
منبع: بیگ‌تنک (Big Think)


شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || این پرسش که «مدل‌های زبانی بزرگ چگونه جهان را می‌فهمند؟» تنها یک بحث فناورانه نیست، بلکه بازتابی است از اینکه دانش، شناخت و فهم انسانی چگونه در طول تاریخ شکل گرفته‌اند. دن شیپر، مدیرعامل و هم‌بنیان‌گذار «اِوِری»، در گفت‌وگویی تحلیلی، مسیر گذار از عقل‌گرایی کلاسیک تا شبکه‌های عصبی و مدل‌های زبانی را بررسی می‌کند و نشان می‌دهد که چرا این مدل‌ها نه با قوانین صریح، بلکه با الگوها و بافت معنایی جهان را تفسیر می‌کنند.

او توضیح می‌دهد که چگونه اتکا به «اگر… آنگاه…» در جهان پیچیده امروز ناکافی است و چگونه مدل‌های زبانی با بهره‌گیری از انبوه تجربه‌ها و الگوها، به شیوه‌ای شبیه شهود انسانی عمل می‌کنند.

شبکه‌های عصبی و شباهت آن‌ها به شهود انسان

شیپر می‌گوید انسان‌ها از راه هزاران ساعت تجربه مستقیم به شهود می‌رسند. شبکه‌های عصبی نیز همین مسیر را طی می‌کنند:
آنها به جای قانون‌گذاری صریح، با دیدن میلیون‌ها نمونه، الگوهای پنهان را یاد می‌گیرند و براساس آن‌ها پیش‌بینی می‌کنند. این یعنی مدل‌های زبانی جهان را نه با قوانین سخت، بلکه با یک «شبکه انبوه از روابط علت و معلولی» درک می‌کنند.

محدودیت‌های عقل‌گرایی؛ از سقراط تا عصر دیجیتال

در دو هزار سال گذشته، عقل‌گرایی تلاش کرده است که جهان را به مجموعه‌ای از قواعد شفاف کاهش دهد. از سقراط که به‌دنبال تعریف دقیق «فضیلت» بود تا عصر روشنگری که علم و ریاضیات را بر پایه قوانین جهان‌شمول بنا کرد، این نگرش ریشه‌ای‌ترین ستون شناخت انسانی بوده است.

اما شیپر توضیح می‌دهد که این رویکرد در حوزه‌هایی مانند روان‌شناسی، اقتصاد یا علوم اجتماعی با بحران روبه‌رو شده است. تلاش برای یافتن قوانین سخت در این حوزه‌ها، اغلب به نتایج غیرقابل تکرار منجر می‌شود.

چرا رویکرد نمادین در هوش مصنوعی شکست خورد؟

نسل نخست هوش مصنوعی به «قواعد صریح» وابسته بود. آن‌ها معتقد بودند که می‌توان هوش را با مجموعه‌ای از نمادها و قوانین منطقی بازسازی کرد.
اما واقعیت پیچیده‌تر بود:

  • جهان واقعی پر از استثناست
  • تعریف همه‌چیز ناممکن است
  • قوانین «اگر… آنگاه…» در برابر شرایط جدید فرو می‌ریزند

مثالی ساده: تشخیص ایمیل مهم.
هر قانونی که بسازید، استثنایی هم وجود دارد.

ظهور شبکه‌های عصبی: یادگیری از تجربه، نه از قوانین

در مقابل عقل‌گرایی نمادین، شبکه‌های عصبی قرار دارند؛ مدلی که به‌جای قوانین صریح، از الگوها و تجربه یاد می‌گیرد.
مدل‌های زبانی بزرگ نیز همین کار را می‌کنند:
آن‌ها میلیاردها کلمه را می‌خوانند، روابط پنهان میان آن‌ها را کشف می‌کنند و براساس آن، پیش‌بینی می‌سازند.

اما هیچ‌کدام از این قوانین در جایی «نوشته نشده‌اند» — درست مانند مغز انسان.

زبان، استعاره و ظهور مدل‌های جدید ذهن

در طول تاریخ، استعاره‌ای که برای «ذهن» انتخاب کرده‌ایم، شکل شناخت ما را تعیین کرده است:

  • در عصر بخار → ذهن مثل موتور بخار
  • در قرن بیستم → ذهن مثل کامپیوتر
  • امروز → ذهن شبیه شبکه عصبی

شیپر توضیح می‌دهد که کشف مدل‌های زبانی، ارزش شهود و تجربه انسانی را دوباره به مرکز توجه بازگردانده است.

مدل‌های زبانی چگونه جهان را می‌بینند؟

مدل‌های زبانی جهان را از طریق «زمینه» و «الگو» می‌بینند، نه قانون.
هر پاسخ، حاصل:

  • انبوهی از همبستگی‌ها
  • تحلیل بافت
  • جمع‌بندی تجربه‌های زبانی
  • و انتخاب محتمل‌ترین ادامه جمله

این یعنی پاسخ، برای شما و در لحظه ساخته می‌شود؛ نه اینکه از یک قانون عمومی استخراج شده باشد.

تاریخ فلسفه در حال تکرار شدن است

شیپر می‌گوید مسیر یادگیری ماشین نوعی «نسخه فشرده‌شده تاریخ فلسفه» است:

  • از تلاش برای تعاریف سخت
  • به پذیرش پیچیدگی
  • و اعتبار بخشیدن دوباره به شهود

مدل‌های زبانی به ما یادآوری می‌کنند که دانش همیشه قابل کاهش به قوانین صریح نیست.

آیا باید به‌دنبال نظریه‌های جهان‌شمول باشیم؟

پرسشی مهم این است که آیا باید تلاش برای یافتن نظریه‌های فراگیر را رها کنیم؟
شیپر می‌گوید خیر:
این نظریه‌ها ارزشمندند، اما کافی نیستند. بسیاری از پدیده‌های انسانی — مانند افسردگی یا احساسات — به قوانین صریح تن نمی‌دهند. مدل‌های زبانی می‌توانند بدون نیاز به نظریه واحد، آن‌ها را پیش‌بینی کنند.

آیا هوش مصنوعی می‌تواند خطرناک باشد؟

ترس از اینکه هوش مصنوعی جای انسان را بگیرد، از یک نگاه «تماماً عقل‌گرایانه» می‌آید.
اما شیپر توضیح می‌دهد که ما هر روز با آموزش‌های مداوم، مدل‌ها را اخلاقی‌تر و ایمن‌تر می‌کنیم.
هوش مصنوعی شبیه یک انسان است:
باید آن را «مدیریت» کرد، نه اینکه «به‌طور کامل کنترل» کرد.

نتیجه‌گیری: بازگشت به شهود

هوش مصنوعی نمی‌خواهد انسانیت ما را بگیرد؛ بلکه آینه‌ای است که آن را بهتر نشان می‌دهد.
این فناوری دوباره اهمیت تجربه، احساس، شهود و مسیرهای نانوشته شناخت را یادآوری می‌کند.
دنیا فقط مجموعه‌ای از قوانین نیست؛ ترکیبی است از الگوها، روابط و حس‌هایی که نمی‌توان همه آن‌ها را نوشت.
مدل‌های زبانی بزرگ، شاید بیش از آن‌که ماشین باشند، بازتابی از «وجه شهودی» انسان هستند.

با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:

https://telegram.me/sharaPR

برای اطلاعات بیشتر درباره روابط عمومی و اخبار سازمان‌های مختلف، می‌توانید به وبسایت شارا مراجعه کنید.

انتهای پیام/