شبکه اطلاعرسانی روابطعمومی ایران (شارا) || یک تیم از محققان دانشگاه آمستردام، برای بررسی رفتار تعاملی میان هوشهای مصنوعی، پلتفرمی ساده شبیه به شبکههای اجتماعی طراحی کرد که در آن هر کاربر یک چتبات بود. هدف، مشاهده نحوه تعامل این رباتها بدون دخالت الگوریتمهای متداول پیشنهاد محتوا یا تبلیغات بود.
در این آزمایش، ۵۰۰ چتبات مجهز به مدل زبانی GPT-4o mini با شخصیتهای از پیش تعریفشده، در این پلتفرم قرار گرفتند و موظف شدند با یکدیگر و محتوای موجود تعامل کنند. طی پنج آزمایش، هرکدام شامل ۱۰ هزار اقدام، مشخص شد که رباتها تمایل دارند کاربرانی با عقاید سیاسی مشابه خود را دنبال کنند و بیشترین توجه و بازنشر به محتوای حزبی و افراطی اختصاص مییابد.
این یافتهها نشان میدهد که حتی در نبود الگوریتمهای پیچیده، گرایش به قطبیسازی و ایجاد «اتاق پژواک» در ساختار شبکههای اجتماعی ذاتی است. دلیل آن، آموزش این مدلها بر اساس رفتار انسانی در فضایی است که سالها تحت سلطه الگوریتمها و سوگیریهای رفتاری شکل گرفته است.
محققان برای کاهش این قطبیسازی، مداخلات مختلفی را آزمودند: ارائه فید زمانی، کاهش ارزش محتوای ویروسی، پنهان کردن تعداد دنبالکنندهها و بازنشرها، مخفی کردن پروفایل کاربران و تقویت نمایش دیدگاههای مخالف. هیچیک از این اقدامات نتوانست بیش از شش درصد بر کاهش تعامل حسابهای حزبی تأثیر بگذارد و در برخی موارد، مانند پنهانسازی بیوگرافی کاربران، حتی وضعیت بدتر شد.
نتیجهگیری مطالعه هشداردهنده است: رسانههای اجتماعی، حتی در سادهترین شکل، بدون تشدید رفتارهای افراطی و سوگیریهای موجود، بهسختی قابل اداره هستند. این پلتفرمها همچون آینهای تحریفشده، بدترین و اغراقشدهترین جنبههای رفتار انسانی را بازتاب میدهند.
به گفته محققان، مشخص نیست آیا «لنزهای اصلاحگر» به اندازه کافی قوی وجود دارد تا دید ما نسبت به یکدیگر در فضای آنلاین را بهبود بخشد یا خیر.
اگر بخواهید میتوانم همین متن را برای سئو فارسی و انگلیسی بهینه کنم تا در جستوجوهای مرتبط با شبکههای اجتماعی، هوش مصنوعی و قطبیسازی آنلاین جایگاه بالاتری بگیرد.
نویسنده: ایجی دلینگر | تاریخ انتشار: ۱۲ آگوست ۲۰۲۵ | منبع: Gizmodo
با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:
◽️
نظر بدهید