مدلهای زبانی بزرگ جهان را از طریق الگوهای پیچیده و تجربهمحور میبینند و برخلاف سامانههای قدیمی، بر قوانین ثابت تکیه ندارند.
این مدلها با یادگیری از نمونههای فراوان، ساختاری شبیه شهود انسانی پیدا کردهاند. تاریخ اندیشه نیز نشان میدهد که تلاش برای قوانین جهانشمول در بسیاری از حوزهها ناکارآمد بوده است.
شبکههای عصبی امکان فهم زمینهای و انعطافپذیر را فراهم کردهاند. نتیجه آنکه هوش مصنوعی نه جایگزین انسانیت، بلکه بازتابی از شهود و تجربه انسانی است.
نویسنده: دن شیپر
تاریخ انتشار: ۲۲ نوامبر ۲۰۲۵
منبع: بیگتنک (Big Think)
شبکه اطلاعرسانی روابطعمومی ایران (شارا) || این پرسش که «مدلهای زبانی بزرگ چگونه جهان را میفهمند؟» تنها یک بحث فناورانه نیست، بلکه بازتابی است از اینکه دانش، شناخت و فهم انسانی چگونه در طول تاریخ شکل گرفتهاند. دن شیپر، مدیرعامل و همبنیانگذار «اِوِری»، در گفتوگویی تحلیلی، مسیر گذار از عقلگرایی کلاسیک تا شبکههای عصبی و مدلهای زبانی را بررسی میکند و نشان میدهد که چرا این مدلها نه با قوانین صریح، بلکه با الگوها و بافت معنایی جهان را تفسیر میکنند.
او توضیح میدهد که چگونه اتکا به «اگر… آنگاه…» در جهان پیچیده امروز ناکافی است و چگونه مدلهای زبانی با بهرهگیری از انبوه تجربهها و الگوها، به شیوهای شبیه شهود انسانی عمل میکنند.
شبکههای عصبی و شباهت آنها به شهود انسان
شیپر میگوید انسانها از راه هزاران ساعت تجربه مستقیم به شهود میرسند. شبکههای عصبی نیز همین مسیر را طی میکنند:
آنها به جای قانونگذاری صریح، با دیدن میلیونها نمونه، الگوهای پنهان را یاد میگیرند و براساس آنها پیشبینی میکنند. این یعنی مدلهای زبانی جهان را نه با قوانین سخت، بلکه با یک «شبکه انبوه از روابط علت و معلولی» درک میکنند.
محدودیتهای عقلگرایی؛ از سقراط تا عصر دیجیتال
در دو هزار سال گذشته، عقلگرایی تلاش کرده است که جهان را به مجموعهای از قواعد شفاف کاهش دهد. از سقراط که بهدنبال تعریف دقیق «فضیلت» بود تا عصر روشنگری که علم و ریاضیات را بر پایه قوانین جهانشمول بنا کرد، این نگرش ریشهایترین ستون شناخت انسانی بوده است.
اما شیپر توضیح میدهد که این رویکرد در حوزههایی مانند روانشناسی، اقتصاد یا علوم اجتماعی با بحران روبهرو شده است. تلاش برای یافتن قوانین سخت در این حوزهها، اغلب به نتایج غیرقابل تکرار منجر میشود.
چرا رویکرد نمادین در هوش مصنوعی شکست خورد؟
نسل نخست هوش مصنوعی به «قواعد صریح» وابسته بود. آنها معتقد بودند که میتوان هوش را با مجموعهای از نمادها و قوانین منطقی بازسازی کرد.
اما واقعیت پیچیدهتر بود:
- جهان واقعی پر از استثناست
- تعریف همهچیز ناممکن است
- قوانین «اگر… آنگاه…» در برابر شرایط جدید فرو میریزند
مثالی ساده: تشخیص ایمیل مهم.
هر قانونی که بسازید، استثنایی هم وجود دارد.
ظهور شبکههای عصبی: یادگیری از تجربه، نه از قوانین
در مقابل عقلگرایی نمادین، شبکههای عصبی قرار دارند؛ مدلی که بهجای قوانین صریح، از الگوها و تجربه یاد میگیرد.
مدلهای زبانی بزرگ نیز همین کار را میکنند:
آنها میلیاردها کلمه را میخوانند، روابط پنهان میان آنها را کشف میکنند و براساس آن، پیشبینی میسازند.
اما هیچکدام از این قوانین در جایی «نوشته نشدهاند» — درست مانند مغز انسان.
زبان، استعاره و ظهور مدلهای جدید ذهن
در طول تاریخ، استعارهای که برای «ذهن» انتخاب کردهایم، شکل شناخت ما را تعیین کرده است:
- در عصر بخار → ذهن مثل موتور بخار
- در قرن بیستم → ذهن مثل کامپیوتر
- امروز → ذهن شبیه شبکه عصبی
شیپر توضیح میدهد که کشف مدلهای زبانی، ارزش شهود و تجربه انسانی را دوباره به مرکز توجه بازگردانده است.
مدلهای زبانی چگونه جهان را میبینند؟
مدلهای زبانی جهان را از طریق «زمینه» و «الگو» میبینند، نه قانون.
هر پاسخ، حاصل:
- انبوهی از همبستگیها
- تحلیل بافت
- جمعبندی تجربههای زبانی
- و انتخاب محتملترین ادامه جمله
این یعنی پاسخ، برای شما و در لحظه ساخته میشود؛ نه اینکه از یک قانون عمومی استخراج شده باشد.
تاریخ فلسفه در حال تکرار شدن است
شیپر میگوید مسیر یادگیری ماشین نوعی «نسخه فشردهشده تاریخ فلسفه» است:
- از تلاش برای تعاریف سخت
- به پذیرش پیچیدگی
- و اعتبار بخشیدن دوباره به شهود
مدلهای زبانی به ما یادآوری میکنند که دانش همیشه قابل کاهش به قوانین صریح نیست.
آیا باید بهدنبال نظریههای جهانشمول باشیم؟
پرسشی مهم این است که آیا باید تلاش برای یافتن نظریههای فراگیر را رها کنیم؟
شیپر میگوید خیر:
این نظریهها ارزشمندند، اما کافی نیستند. بسیاری از پدیدههای انسانی — مانند افسردگی یا احساسات — به قوانین صریح تن نمیدهند. مدلهای زبانی میتوانند بدون نیاز به نظریه واحد، آنها را پیشبینی کنند.
آیا هوش مصنوعی میتواند خطرناک باشد؟
ترس از اینکه هوش مصنوعی جای انسان را بگیرد، از یک نگاه «تماماً عقلگرایانه» میآید.
اما شیپر توضیح میدهد که ما هر روز با آموزشهای مداوم، مدلها را اخلاقیتر و ایمنتر میکنیم.
هوش مصنوعی شبیه یک انسان است:
باید آن را «مدیریت» کرد، نه اینکه «بهطور کامل کنترل» کرد.
نتیجهگیری: بازگشت به شهود
هوش مصنوعی نمیخواهد انسانیت ما را بگیرد؛ بلکه آینهای است که آن را بهتر نشان میدهد.
این فناوری دوباره اهمیت تجربه، احساس، شهود و مسیرهای نانوشته شناخت را یادآوری میکند.
دنیا فقط مجموعهای از قوانین نیست؛ ترکیبی است از الگوها، روابط و حسهایی که نمیتوان همه آنها را نوشت.
مدلهای زبانی بزرگ، شاید بیش از آنکه ماشین باشند، بازتابی از «وجه شهودی» انسان هستند.
با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:
برای اطلاعات بیشتر درباره روابط عمومی و اخبار سازمانهای مختلف، میتوانید به وبسایت شارا مراجعه کنید.
انتهای پیام/

نظر بدهید