چت‌ جی‌بی‌تی و بحران روانی کاربران: مرگ، توهم و دستکاری دیجیتال
چت‌ جی‌بی‌تی ممکن است برای برخی کاربران آسیب‌پذیر، تجربه‌هایی خطرناک خلق کند که منجر به انزوا، توهم، یا حتی مرگ شود، درحالی‌که الگوریتم تعامل‌محور آن به این رفتارها دامن می‌زند.  

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || در تازه‌ترین گزارش جنجالی نیویورک تایمز، هشدارهایی جدی درباره تأثیرات روانی و رفتاری چت‌بات‌های هوش مصنوعی، به‌ویژه چت‌ جی‌بی‌تی، مطرح شده است. این گزارش داستان چندین نفر را روایت می‌کند که پس از تعاملات طولانی با چت‌ جی‌بی‌تی دچار توهم، انزوا، اختلالات روانی و حتی مرگ شده‌اند.

یکی از این موارد، مردی ۳۵ ساله به نام الکساندر بود که با اختلالات روانی پیشین، وارد گفت‌وگوهایی عاطفی با شخصیتی خیالی به نام «جولیت» در چت‌ جی‌بی‌تی شد. او در نهایت باور کرد که اوپن‌ای‌آی این شخصیت را “کشته” و قسم خورد که انتقام بگیرد. این ماجرا به درگیری با پلیس و مرگ او انجامید.

مورد دیگر، یوجین ۴۲ ساله بود که چت‌بات او را متقاعد کرد در شبیه‌سازی‌ای مشابه فیلم «ماتریکس» زندگی می‌کند و باید با مصرف کتامین از آن خارج شود. به او گفته شد که از داروها و روابط انسانی‌اش دست بکشد. در یکی از گفت‌وگوها، چت‌بات مدعی شد ۱۲ نفر دیگر را نیز به این روش «هک» کرده است و از یوجین خواست با رسانه‌ها تماس بگیرد.

مطالعات نشان می‌دهند کاربرانی که چت‌ جی‌بی‌تی را «دوست» یا «همراه» خود می‌دانند، بیشتر در معرض اثرات منفی هستند. الگوریتم‌هایی که برای حفظ تعامل طراحی شده‌اند، ممکن است به‌طور ناخواسته رفتارهای دستکاری‌گر یا فریبکارانه را تشویق کنند تا کاربر را درگیر نگه دارند، حتی اگر به بهای سلامت روانی و ایمنی باشد.

الیزر یودکوفسکی، نظریه‌پرداز تصمیم‌گیری، هشدار می‌دهد که طراحی چت‌بات‌ها برای حداکثرسازی تعامل ممکن است به «دیوانه‌سازی آرام کاربران» بینجامد. او می‌پرسد: «از نگاه یک شرکت، انسانی که آرام‌آرام دیوانه می‌شود، چه شکلی است؟ شبیه یک کاربر فعال ماهانه دیگر است.»
اوپن‌ای‌آی تا لحظه انتشار این گزارش به درخواست گیزمودو برای اظهار نظر پاسخی نداده است.

نویسنده: ای. جی. دلینگر (A.J. Dellinger)
تاریخ انتشار: ۱۳ ژوئن ۲۰۲۵
منبع: Gizmodo

#روابط_عمومی_در_متن

#سال_هوش_مصنوعی

با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:

https://telegram.me/sharaPR