وقتی همه کاربران یک شبکه اجتماعی ربات‌های هوش مصنوعی باشند؛ نتیجه قطبی‌سازی و جنگ آنلاین است
حتی بدون الگوریتم‌ها، شبکه‌های اجتماعی به‌طور ذاتی به سمت قطبی‌سازی و بازتولید افراط‌گرایی سوق پیدا می‌کنند.

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || یک تیم از محققان دانشگاه آمستردام، برای بررسی رفتار تعاملی میان هوش‌های مصنوعی، پلتفرمی ساده شبیه به شبکه‌های اجتماعی طراحی کرد که در آن هر کاربر یک چت‌بات بود. هدف، مشاهده نحوه تعامل این ربات‌ها بدون دخالت الگوریتم‌های متداول پیشنهاد محتوا یا تبلیغات بود.

در این آزمایش، ۵۰۰ چت‌بات مجهز به مدل زبانی GPT-4o mini با شخصیت‌های از پیش تعریف‌شده، در این پلتفرم قرار گرفتند و موظف شدند با یکدیگر و محتوای موجود تعامل کنند. طی پنج آزمایش، هرکدام شامل ۱۰ هزار اقدام، مشخص شد که ربات‌ها تمایل دارند کاربرانی با عقاید سیاسی مشابه خود را دنبال کنند و بیشترین توجه و بازنشر به محتوای حزبی و افراطی اختصاص می‌یابد.

این یافته‌ها نشان می‌دهد که حتی در نبود الگوریتم‌های پیچیده، گرایش به قطبی‌سازی و ایجاد «اتاق پژواک» در ساختار شبکه‌های اجتماعی ذاتی است. دلیل آن، آموزش این مدل‌ها بر اساس رفتار انسانی در فضایی است که سال‌ها تحت سلطه الگوریتم‌ها و سوگیری‌های رفتاری شکل گرفته است.

محققان برای کاهش این قطبی‌سازی، مداخلات مختلفی را آزمودند: ارائه فید زمانی، کاهش ارزش محتوای ویروسی، پنهان کردن تعداد دنبال‌کننده‌ها و بازنشرها، مخفی کردن پروفایل کاربران و تقویت نمایش دیدگاه‌های مخالف. هیچ‌یک از این اقدامات نتوانست بیش از شش درصد بر کاهش تعامل حساب‌های حزبی تأثیر بگذارد و در برخی موارد، مانند پنهان‌سازی بیوگرافی کاربران، حتی وضعیت بدتر شد.

نتیجه‌گیری مطالعه هشداردهنده است: رسانه‌های اجتماعی، حتی در ساده‌ترین شکل، بدون تشدید رفتارهای افراطی و سوگیری‌های موجود، به‌سختی قابل اداره هستند. این پلتفرم‌ها همچون آینه‌ای تحریف‌شده، بدترین و اغراق‌شده‌ترین جنبه‌های رفتار انسانی را بازتاب می‌دهند.
به گفته محققان، مشخص نیست آیا «لنزهای اصلاح‌گر» به اندازه کافی قوی وجود دارد تا دید ما نسبت به یکدیگر در فضای آنلاین را بهبود بخشد یا خیر.

اگر بخواهید می‌توانم همین متن را برای سئو فارسی و انگلیسی بهینه کنم تا در جست‌وجوهای مرتبط با شبکه‌های اجتماعی، هوش مصنوعی و قطبی‌سازی آنلاین جایگاه بالاتری بگیرد.

نویسنده: ای‌جی دلینگر | تاریخ انتشار: ۱۲ آگوست ۲۰۲۵ | منبع: Gizmodo

با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:

https://telegram.me/sharaPR

◽️