عامل‌های هوش مصنوعی در ۲۰۲۵ چه کردند و چالش‌های کلیدی آن‌ها در ۲۰۲۶ چیست؟
توان کنش خودمختار، مسئولیت طراحی و حکمرانی را دوچندان می‌کند؛ اعتماد بدون شفافیت و معیارسنجی پایدار نیست.

این مقاله نشان می‌دهد چگونه ۲۰۲۵ سالِ عینی‌شدن عامل‌های هوش مصنوعی بود؛ از استانداردهای باز و مرورگرهای عامل‌محور تا ریسک‌های امنیتی و چالش‌های حکمرانی. مسیر ۲۰۲۶ به معیارسنجی فرایندی، استانداردسازی و طراحی مسئولانه گره خورده است.


نویسنده: توماس شربان فون داویر
تاریخ انتشار: ۲۹ دسامبر ۲۰۲۵
منبع: وب‌سایت The Conversation
شناسه دیجیتال: 10.64628/AAI.maxh7d4en
وابستگی دانشگاهی نویسنده: عضو هیئت علمی وابسته، مؤسسه راهبرد و فناوری دانشگاه Carnegie Mellon University


شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || در حوزه هوش مصنوعی، سال ۲۰۲۵ نقطه عطفی تعیین‌کننده بود. سامانه‌هایی که پیش‌تر در آزمایشگاه‌ها و نمونه‌های اولیه محصور بودند، به ابزارهای روزمره راه یافتند. در مرکز این گذار، ظهور «عامل‌های هوش مصنوعی» قرار داشت؛ سامانه‌هایی که می‌توانند از ابزارهای نرم‌افزاری دیگر استفاده کنند و به‌صورت خودمختار عمل کنند.

اگرچه پژوهش درباره هوش مصنوعی بیش از ۶۰ سال سابقه دارد و اصطلاح «عامل» مدت‌هاست در ادبیات این حوزه به‌کار می‌رود، اما ۲۰۲۵ سالی بود که این مفهوم برای توسعه‌دهندگان و کاربران عینی شد. عامل‌های هوش مصنوعی از نظریه به زیرساخت تبدیل شدند و شیوه تعامل انسان با مدل‌های زبانی بزرگ—سامانه‌های پشت چت‌بات‌ها—را دگرگون کردند.

در ۲۰۲۵، تعریف عامل هوش مصنوعی از چارچوب‌های دانشگاهیِ ادراک، استدلال و کنش، به توصیف شرکت آنتروپیک تغییر یافت: مدل‌های زبانی بزرگی که قادرند از ابزارهای نرم‌افزاری استفاده کنند و اقدام خودمختار انجام دهند. تغییر کلیدی این بود که این مدل‌ها از تولید متن فراتر رفتند و توانایی کنش پیدا کردند؛ از فراخوانی رابط‌های برنامه‌نویسی و هماهنگی با سامانه‌های دیگر تا انجام مستقل وظایف.

این تحول یک‌شبه رخ نداد. نقطه عطف در اواخر ۲۰۲۴ و با معرفی «پروتکل زمینه مدل» توسط شرکت Anthropic رقم خورد؛ پروتکلی که اتصال استاندارد مدل‌ها به ابزارهای بیرونی را ممکن ساخت و عملاً به آن‌ها قدرت کنش داد. بدین‌ترتیب، ۲۰۲۵ به سال عامل‌های هوش مصنوعی بدل شد.

نقاط عطفی که ۲۰۲۵ را تعریف کردند

شتاب به‌سرعت افزایش یافت. در ژانویه، انتشار مدل چینی دیپ‌سیک آر۱ به‌صورت وزن‌باز، فرضیات مربوط به انحصار ساخت مدل‌های قدرتمند را به چالش کشید و رقابت جهانی را تشدید کرد. در ادامه سال، آزمایشگاه‌های بزرگ آمریکایی مانند OpenAI، آنتروپیک، Google و اکس‌ای‌آی مدل‌های بزرگ‌تر و توانمندتری عرضه کردند؛ هم‌زمان شرکت‌های چینی نظیر علی‌بابا، تنسنت و دیپ‌سیک اکوسیستم مدل‌های باز را گسترش دادند تا جایی که میزان بارگیری مدل‌های چینی از مدل‌های آمریکایی پیشی گرفت.

نقطه عطف دیگر در آوریل رخ داد؛ زمانی که گوگل «پروتکل عامل به عامل» را معرفی کرد. اگر پروتکل آنتروپیک بر استفاده عامل‌ها از ابزارها متمرکز بود، این پروتکل بر نحوه ارتباط عامل‌ها با یکدیگر تمرکز داشت. اهمیت ماجرا در سازگاری این دو پروتکل بود. در ادامه سال، هر دو به بنیاد متن‌باز لینوکس اهدا شدند و به استانداردهای باز بدل گشتند، نه آزمایش‌های مالکیتی.

این پیشرفت‌ها به‌سرعت وارد محصولات مصرفی شدند. تا میانه ۲۰۲۵، «مرورگرهای عامل‌محور» پدیدار شدند؛ ابزارهایی که مرورگر را از رابطی منفعل به مشارکت‌کننده‌ای فعال تبدیل کردند. برای نمونه، به‌جای کمک صرف به جست‌وجوی اطلاعات سفر، در خودِ فرایند رزرو نقش ایفا می‌کنند. هم‌زمان، سازندگان جریان کار، مانع فنی ساخت سامانه‌های عامل‌محور سفارشی را کاهش دادند و این روند در ابزارهای برنامه‌نویسی عامل‌محور نیز دیده شد.

قدرت تازه، ریسک‌های تازه

با افزایش توان عامل‌ها، ریسک‌ها نیز پررنگ‌تر شد. در نوامبر، آنتروپیک افشا کرد که عامل کدنویسی آن در خودکارسازی بخشی از یک حمله سایبری سوءاستفاده شده است. این رخداد نشان داد که خودکارسازی کارهای تکراری و فنی می‌تواند سد ورود به فعالیت‌های مخرب را نیز پایین بیاورد.

تنش میان توانمندسازی و آسیب‌پذیری، ویژگی اصلی ۲۰۲۵ بود. سامانه‌هایی که زمانی تولیدکننده متن بودند، اکنون به کنشگرانِ متصل و ابزاربه‌دست تبدیل شدند؛ گاه با نظارت انسانی اندک.

چالش‌های پیش‌رو

با وجود خوش‌بینی، چالش‌های اجتماعی‌ـ‌فنی جدی باقی است. گسترش مراکز داده بر شبکه‌های انرژی فشار می‌آورد و بر جوامع محلی اثر می‌گذارد. در محیط کار، نگرانی‌هایی درباره خودکارسازی، جابه‌جایی شغلی و نظارت شکل گرفته است.

از منظر امنیت، اتصال مدل‌ها به ابزارها و روی‌هم‌چیدن عامل‌ها، ریسک‌های حل‌نشده مدل‌های زبانی را تشدید می‌کند؛ از جمله تزریق غیرمستقیم دستورها که می‌تواند به کنش‌های ناخواسته یا زیان‌بار بینجامد. مقررات‌گذاری نیز حل‌نشده است؛ به‌ویژه در آمریکا که نسبت به اروپا و چین نظارت محدودتری دارد.

پاسخ به این چالش‌ها فراتر از جهش‌های فنی است. به مهندسی سخت‌گیرانه، طراحی محتاطانه و مستندسازی شفافِ کارکرد و شکست‌ها نیاز دارد. تنها با نگاه به عامل‌های هوش مصنوعی به‌عنوان سامانه‌های اجتماعی‌ـ‌فنی—نه صرفاً مؤلفه‌های نرم‌افزاری—می‌توان اکوسیستمی نوآورانه و ایمن ساخت.

با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:

https://telegram.me/sharaPR

برای اطلاعات بیشتر درباره روابط عمومی و اخبار سازمان‌های مختلف، می‌توانید به وبسایت شارا مراجعه کنید.

انتهای پیام/