شارا - شبكه اطلاع رساني روابط عمومي ايران : نفرت‌پراكني و شبكه‌هاي اجتماعي
سه شنبه، 6 مهر 1400 - 10:24 کد خبر:47801
شايد بدترين تأثير اين پيام‌هاي منفي اين باشد كه مردم چيزهايي را كه در شبكه‌هاي اجتماعي درباره‌ي آنها گفته مي‌شود باور مي‌كنند و فرودستي خود را مي‌پذيرند.



مقدمه


شبكه اطلاع‌رساني روابط‌عمومي ايران (شارا)-|| در دهه‌هاي اخير، محل جديدي براي اشاعه‌ي نفرت‌پراكني پيدا شده است: شبكه‌هاي اجتماعي. اين شبكه‌ها به تك‌تك كاربران اجازه مي‌دهند كه نظرات خود را با جهانيان در ميان بگذارند. تركيب شبكه‌هاي اجتماعي و امكان ناشناس ماندن در اينترنت محيطي را ايجاد كرده كه نفرت‌پراكني در آن مي‌تواند گسترش يابد. در نظرسنجي‌اي در سال 2017، از هر ده آمريكايي يك نفر گفت كه در فضاي مجازي به علت نژاد، جنسيت يا قوميتش آزار ديده است.

از هر چهار آمريكايي آفريقايي‌تبار يك نفر، و از هر ده آمريكايي لاتين‌تبار يك نفر گفت كه به علت نژاد يا قوميتش در اينترنت آزار ديده است. نفرت‌پراكني در فيسبوك، اينستاگرام، توئيتر، يوتيوب و تقريباً هر شبكه‌ي اجتماعي ديگري به چشم مي‌خورد. هرچند هيچ آمار جهاني‌اي از نفرت‌پراكني در شبكه‌هاي اجتماعي وجود ندارد اما گزارش شفافيت فيسبوك حاكي از آن است كه در سه ماهه‌ي اول سال 2020، اين شركت درباره‌ي ۹/۶ ميليون مطلب اقدامات مقتضي را انجام داده است.

واژگان، تصاوير و نمادهاي تنفرآميزي كه در شبكه‌هاي اجتماعي منتشر مي‌شود، مي‌تواند به شدت بر افراد و جوامع تأثير بگذارد. نفرت‌پراكني در شبكه‌هاي اجتماعي كليشه‌ها را اشاعه مي‌دهد، از نظر عاطفي و روان‌شناختي به قربانيان آسيب مي‌رساند، و اغلب از گفتگو در فضاي مجازي جلوگيري مي‌كند. بر اساس يكي از تحقيقات جديد، صفحات فيسبوكيِ موهني كه توسط چند شهروند دانماركي دستكاري شده بود تا به صفحات گروه‌هاي جهادي شباهت يابد به احساسات منفي نسبت به مسلمانان در دانمارك دامن زد. مطالب منتشرشده در شبكه‌هاي اجتماعي در چند مورد از خشونت‌هاي ناشي از سوگيري و تعصب نقش داشته‌اند.

براي مثال، عامل كشتار در كنيسه‌ي شجره‌ي حيات در پيتسبورگ در سال 2018، عضو شبكه‌ي اجتماعي «گب» بود كه مقر افراط‌گرايان رانده‌شده از شبكه‌هاي اجتماعي بزرگ‌تر است. او با انتشار توطئه‌بافي‌هايي درباره‌ي يهوديان در اين شبكه‌ي اجتماعي ادعا كرده بود كه آنها مي‌خواهند سفيدپوستان را به اقليتي در آمريكا تبديل كنند. عامل كشتار سال 2019 در ال پاسو در تگزاس، كه 22 كشته و 24 زخمي بر جاي گذاشت، با انتشار مطلبي چهارصفحه‌اي در سايت 8chan به ترويج پروپاگانداي نژادپرستانه و ناسيوناليستي پرداخته و مهاجران را به سرقت شغل‌هاي آمريكايي‌ها متهم كرده بود.

نفرت‌پراكنيِ آنلاين علاوه بر ترويج كليشه‌ها و تصورات نادرست منفي از بعضي گروه‌ها، تأثيري كاملاً واقعي بر افراد دارد. همان‌طور كه جسي دنيلز نشان داده است، اينترنت، هويت‌سازي پيرامون نژاد و قوميت را امكان‌پذير مي‌كند. شايد بدترين تأثير اين پيام‌هاي منفي اين باشد كه مردم چيزهايي را كه در شبكه‌هاي اجتماعي درباره‌ي آنها گفته مي‌شود باور مي‌كنند و فرودستي خود را مي‌پذيرند. به نظر پژوهشگران مطالعات نژادي انتقادي، نفرت‌پراكني نوعي حمله است كه به افراد آسيب مي‌رساند.

نفرت‌پراكني در شبكه‌هاي اجتماعي مي‌تواند مانع از اظهار نظر و مشاركت سياسي زنان، رنگين‌پوستان و اقليت‌هاي جنسي شود. دنيل كيتس سيترون و هلن نورتون نظريه‌اي درباره‌ي شهروندي ديجيتال ارائه داده‌اند كه نشان مي‌دهد فعاليت‌هاي آنلاين از چه راه‌هايي مشغوليت مدني، مشاركت سياسي و گفتگوي عمومي را افزايش مي‌دهد. به نظر سيترون، افرادي كه هدف نفرت‌پراكني آنلاين قرار مي‌گيرند، از مشاركت در شبكه‌هاي آنلاين خود بازمي‌مانند. در سال 2016، ويجايا گاده، مدير بخش حقوقي توئيتر، در سرمقاله‌اي در «واشنگتن پست» تأييد كرد كه اگر توئيتر از نفرت‌پراكني جلوگيري نكند، آزادي بيان به عنوان يكي از اصول اساسي اين شركت بي‌معنا خواهد شد زيرا مردم از اظهار نظر مي‌ترسند...

چارچوب حقوقي

به استثناي آلمان، كشورها و نهادهاي بين‌المللي‌اي نظير سازمان ملل و اتحاديه‌ي اروپا عموماً عقيده ندارند كه شركت‌هاي شبكه‌هاي اجتماعي مسئول حرف‌هاي كاربران خود هستند. بر اساس قوانين رسمي اين كشورها و سازمان‌ها، نفرت‌پراكني ممنوع است و نفرت‌پراكنان مستحق مجازات‌اند اما شركت‌هاي شبكه‌هاي اجتماعي مسئول رفتار كاربران نيستند.

هرچند نفرت‌پراكني در آمريكا قانوني است اما سازمان‌هاي شبكه‌هاي اجتماعي، فضاهاي مجازيِ خصوصي به شمار مي‌روند و بنابراين ملزم به پايبندي به متمم اول قانون اساسي نيستند و مي‌توانند آزادي بيان را در شبكه‌هاي اجتماعي محدود كنند. ميان افراد و شركتي مثل يوتيوب يا توئيتر قراردادي وجود دارد و كاربران ملزم به رعايت اين شروط هستند.

شبكه‌هاي اجتماعي مي‌توانند با حذف مطالب يا حساب‌ها كاربراني را كه موازين و قوانين اين شبكه‌ها را ناديده مي‌گيرند، مجازات كنند. با وجود اين، دولت آمريكا به ندرت مداخله مي‌كند. بر اساس بند 230 «قانون ضوابط اخلاقي ارتباطات»، ارائه‌دهندگان خدمات رايانه‌اي دوسويه در آمريكا ــ از جمله ارائه‌دهندگان خدمات اينترنتي و شركت‌هاي شبكه‌هاي اجتماعي ــ ناشر و، در نتيجه، مسئول رفتار شخص ثالث در سايت‌هاي خود نيستند.

در آمريكا رويكرد دولت مبتني بر عدم مداخله در كنترل نفرت‌پراكني در شبكه‌هاي اجتماعي است اما در سال 2017، آلمان قانوني را تصويب كرد كه بر اساس آن شركت‌هاي شبكه‌هاي اجتماعيِ داراي بيش از دو ميليون كاربر بايد مطالب مغاير با محدوديت‌هاي وضع‌شده در «قانون جزايي آلمان» عليه نفرت‌پراكني را حذف يا دسترسي به آنها را مسدود كنند. شركت‌ها بايد «نفرت‌پراكني آشكار» را طي 24 ساعت پس از دريافت اخطاريه حذف كنند؛ در غير اين صورت، ممكن است 50 ميليون يورو جريمه شوند.

به عقيده‌ي مدافعان اين قانون، چنين قانوني ضروري است زيرا شركت‌هايي مثل فيسبوك و توئيتر را ترغيب مي‌كند كه با جديت بيشتري با نفرت‌پراكني در سايت‌هاي خود مقابله كنند. به نظر مخالفان، اين قانون آزادي بيان را بيش از اندازه محدود مي‌كند و احتمالاً به حذف مطالبي خواهد انجاميد كه بايد قانوني و مجاز به شمار رود. مجمع ملي فرانسه نيز در ژوئيه‌ي 2019، قانوني را تصويب كرد كه شركت‌هاي شبكه‌هاي اجتماعي را به حذف نفرت‌پراكني آشكار ملزم مي‌كند؛ شركت‌هايي كه چنين نكنند ممكن است حداكثر ۱/۴ ميليون يورو جريمه شوند. بر اساس اين قانون، شبكه‌هاي اجتماعي بايد دكمه‌ي جديدي ايجاد كنند تا كاربران آسان‌تر بتوانند موارد نفرت‌پراكني را گزارش دهند.

بسياري از دولت‌ها علاوه بر وضع موازين قانوني براي مقابله با نفرت‌پراكني در شبكه‌هاي اجتماعي، توافق‌نامه‌هايي با شركت‌هاي شبكه‌هاي اجتماعي به منظور همكاري براي پرداختن اين مسئله امضاء كرده‌اند. پس از حمله‌ي سال 2019 به دو مسجد در نيوزيلند، رهبران جهان با مديران فيسبوك، توئيتر، گوگل و ديگر شركت‌ها ديدار و رهنمودهايي موسوم به «فراخوان كرايست‌چرچ» را براي مقابله با نفرت‌پراكني و ترويج خشونت در فضاي مجازي تهيه كردند. جالب اين كه آمريكا اين توافق‌نامه را امضا نكرد. اكنون كميسيون اروپا سرگرم همكاري مستقيم با شركت‌هاي شبكه‌هاي اجتماعي ــ از جمله فيسبوك، توئيتر و يوتيوب ــ است تا با نفرت‌پراكني در اروپا مقابله كند.

در مه 2016، اين گروه «آيين‌نامه‌ي مقابله با نفرت‌پراكنيِ غيرقانوني در فضاي مجازي» را منتشر كرد. بر اساس گزارش فوريه‌ي 2019، «اكنون شركت‌هاي فناوري اطلاعات 89 درصد از مطالب گزارش‌شده را طي 24 ساعت ارزيابي و 72 درصد از مطالبي را كه نفرت‌پراكنيِ غيرقانوني به شمار مي‌رود، حذف مي‌كنند. اين در حالي است كه اين ارقام در آغاز وضع اين آيين‌نامه به ترتيب 40 و 28 درصد بود.» در آمريكا، فيسبوك، توئيتر، گوگل و ميكروسافت دست به دست «اتحاديه‌ي ضد افترا» داده و «آزمايشگاه مشكل‌گشايي از نفرت‌ سايبري» را ايجاد كرده‌اند.

به‌رغم اين تلاش‌ها براي كاهش نفرت‌پراكني در شبكه‌هاي اجتماعي، مشكل همچنان پابرجا است. براي فهم علت اين امر بايد فرايند تعديل محتوا را به دقت بررسي كنيم تا از اقدامات شركت‌هاي شبكه‌هاي اجتماعي و ميزان ثمربخشي آن آگاه شويم.

تعديل محتوا

بهترين راه براي تعريف تعديل محتوا اين است كه آن را مجموعه‌اي از روش‌ها با ويژگي‌هاي مشتركي بدانيم كه براي نظارت بر محتواي توليدشده توسط كاربران و تصميم‌گيري درباره‌ي باقي ماندن آن در شبكه‌‌هاي اجتماعي به كار مي‌رود. اين فرايند اغلب سه مرحله‌ي متمايز دارد: بازبينيِ سردبيري، شناسايي خودكار، و گزارش جمعي. سازمان‌هاي شبكه‌هاي اجتماعي همه‌ي انواع محتواهاي بالقوه مضر ــ از جمله نفرت‌پراكني، خشونت يا تحريك، برهنگي بزرگسالان، سوءاستفاده‌ي جنسي از بزرگسالان، تقاضاي جنسي، خودكشي/آسيب رساندن به خود، قلدري/مزاحمت، برهنگي كودكان، نقض حريم خصوصي، ترويج جرم، يا فروش كالاهاي غيرمجاز ــ را بازبيني مي‌كنند...

بازبيني سردبيري

بازبيني سردبيري، نخستين مرحله در فرايند تعديل محتوا، عبارت است از نظارت بر محتوا پيش از انتشار آن؛ براي مثال، مي‌توان به امتياز دادن به فيلم‌ها پيش از نمايش عمومي آنها اشاره كرد. در مورد شبكه‌هاي اجتماعي، منظور از بازبيني سردبيري اغلب موازين عمومي وضع‌شده توسط شبكه‌هاي اجتماعي است.

شيوه‌ي وضع و اجراي موازين در هر يك از اين شبكه‌ها متفاوت است؛ يكي از دلايل اين امر آن است كه اغلب تعريف آنها از نفرت‌پراكني اندكي با يكديگر فرق دارد ــ بعضي حتي در اشاره به اين امر از اصطلاحات متفاوتي مثل «نفرت‌پراكني»، «رفتار نفرت‌انگيز»، «گفتار مغرضانه» و «تصوير نفرت‌انگيز» استفاده مي‌كنند. معمولاً تعريف يك سازمان شبكه‌ي اجتماعي از نفرت‌پراكني دو بخش دارد: (1) نيت پنهان در پس گفتار سوگيرانه‌ي يك كاربر، و (2) هدف قرار دادن «گروه‌هاي حفاظت‌شده»اي از مردم كه حذف محتواي سوگيرانه‌ را الزامي مي‌كند.

براي مثال، بنا به تعريف فيسبوك، نفرت‌پراكني عبارت است از «حمله‌ي مستقيم به افراد» بر اساس نژاد، قوميت، مليت، دين، گرايش جنسي، طبقه، جنسيت، هويت جنسي، بيماري حاد يا معلوليت، و وضعيت مهاجرتي. فيسبوك حمله را «گفتار خشونت‌آميز يا انسانيت‌زدا» مي‌داند. مثال‌هايي كه فيسبوك از گفتار انسانيت‌زدا ارائه مي‌دهد مقايسه‌ي افراد با حيوانات يا حشرات را دربرمي‌گيرد.

بر اساس قوانين فيسبوك، سخنان حاكي از زيردستيِ جسماني، عقلاني يا اخلاقي يك فرد يا گروه به علت ويژگي‌هاي هويتي آنها نيز نفرت‌پراكني به شمار مي‌رود. به نظر فيسبوك، دعوت به طرد يا جداسازي يك فرد يا گروه بر اساس ويژگي‌هاي هويتي آنها نفرت‌پراكني است. اين شركت دشنام‌هاي نژادي، قومي، زن‌‌ستيزانه و همجنس‌گراهراسانه را هم نفرت‌پراكني مي‌داند. فيسبوك انتقاد از سياست‌هاي مهاجرتي و حمايت از محدود كردن اين سياست‌ها، و طنز و تفسير اجتماعي درباره‌ي اين سياست‌ها را مجاز مي‌شمارد.

در حالي كه فيسبوك نفرت‌پراكني را ممنوع مي‌داند، توئيتر از ممنوعيت «رفتار نفرت‌انگيز» و «تصاوير و كلمات نفرت‌انگيز» سخن مي‌گويد. توئيتر كاربران را از ترويج خشونت يا تهديد ديگران بر اساس نژاد، قوميت، مليت، گرايش جنسي، جنسيت، هويت جنسي، تعلقات ديني، سن، معلوليت يا بيماري حاد آنها منع مي‌كند. اين شركت به حساب‌هايي كه هدف اصلي‌شان تحريك افراد به آسيب رساندن به ديگران از طريق نفرت‌پراكني است اجازه‌ي فعاليت نمي‌دهد.

استفاده از واژه‌هاي «تحريك» و «تهديد»، اشاره‌‌اي آشكار به موارد مستثنا از متمم اول قانون اساسي آمريكا است. توئيتر، كه در كل بيشتر از فيسبوك و يوتيوب به محافظت از آزادي بيان پايبند است، به طور خاص بر حملاتي تمركز مي‌كند كه شامل تهديدهاي خشونت‌آميز، ابراز علاقه به آسيب رساندن جدي به ديگران، اشاره به كشتار يا خشونت عليه گروه‌هاي محافظت‌شده، تحريك خشونت، يا كاربرد مكرر انگ‌ها، افتراها يا كليشه‌هاي نژادپرستانه و جنسيت‌زده است.

بر اساس اين قوانين، اگر كسي فقط يك بار به انگ يا افتراي نژادپرستانه متوسل شود سياست توئيتر را نقض نكرده است ]و بنابراين نمي‌توان حساب او را حذف كرد[. توئيتر به صراحت انتشار تصاوير نفرت‌انگيز را هم ممنوع مي‌كند.

بنا به قوانين يوتيوب، نفرت‌پراكني در اين وب‌سايت مجاز نيست. اين شركت مي‌گويد كه مطالب مروج خشونت يا نفرت عليه افراد يا گروه‌ها بر اساس ويژگي‌هاي زير را حذف مي‌كند: سن، طبقه، معلوليت، قوميت، هويت جنسي، مليت، نژاد، وضعيت مهاجرتي، دين، جنسيت، گرايش جنسي، قربانيان يك رويداد خشونت‌آميز مهم و خويشاوندان آنها يا كهنه‌سربازان. يوتيوب به طور مشخص ويديوها يا نظرات تهديدآميز يا مشوق خشونت عليه افراد يا گروه‌ها بر اساس ويژگي‌هاي فهرست‌شده در سياست خود را حذف مي‌كند.

همچون توئيتر، يوتيوب نيز نفرت‌پراكني عليه گروه‌هاي هويتيِ حفاظت‌شده را ممنوع كرده است. يوتيوب مثال‌هايي از مطالب ناقض سياست خود ارائه كرده است كه از ميان آنها مي‌توان به اين موارد اشاره كرد: گفتار انسانيت‌زدايي كه افراد يا گروه‌ها را مادون‌انسان بشمارد يا آنها را با حيوانات يا حشرات مقايسه كند.

مطالب مروج خشونت عليه گروه‌هاي حفاظت‌شده، حاوي انگ‌هاي نژادي، قومي يا ديني، يا كليشه‌هاي نفرت‌پراكنانه همگي ممنوع‌اند. يوتيوب هرگونه ادعاي فرودستيِ ذهنيِ افراد يا گروه‌ها، طلب انقياد يا انكار اتفاقات خشونت‌آميز مستندي مثل هولوكاست را ممنوع كرده است. بر اساس قوانين يوتيوب، نفرت‌پراكني مي‌تواند به صورت گفتار، نوشتار يا تصوير باشد.

شبكه‌هاي اجتماعي درباره‌ي مقوله‌هاي حفاظت‌شده هم‌رأي نيستند. فيسبوك، توئيتر و يوتيوب همگي عقيده دارند كه نژاد، قوميت، دين، گرايش جنسي، جنسيت، هويت جنسي و معلوليت جزئي از اين مقوله‌ها هستند. با وجود اين، همه‌ي شبكه‌هاي اجتماعي درباره‌ي ممنوعيت نفرت‌پراكني بر اساس سن، بيماري، وضعيت مهاجرتي و كهنه‌سربازيِ افراد اتفاق نظر ندارند. ناهماهنگي ميان شبكه‌هاي اجتماعي مي‌تواند به سردرگمي بينجامد زيرا ممكن است در يكي از آنها نفرت‌پراكني عليه نوعي هويت فردي خاص ممنوع، و در ديگري مجاز باشد.

براي مثال، فيسبوك و يوتيوب مقايسه‌ي افراد و گروه‌ها با حيوانات و حشرات را نفرت‌پراكني مي‌دانند اما چنين مقايسه‌هايي در توئيتر به طور مشخص ممنوع نيست و در عوض استفاده‌ي مكرر از انگ و افترا و تصاوير نفرت‌انگيز، ممنوع است. به همين ترتيب...در بين اين سه شبكه‌ي اجتماعي فقط يوتيوب است كه انكار هولوكاست را به طور مشخص ممنوع كرده است.

هرچند ممكن است كه فيسبوك، توئيتر، يوتيوب و ديگر شبكه‌هاي اجتماعي تعريف متفاوتي از نفرت‌پراكني ارائه كنند اما همگي از ساختار واحدي براي اجراي اين دستورالعمل‌ها پيروي مي‌كنند. پژوهشگران با تحليل محتواي واكنش‌هاي گوناگون اين شبكه‌ها به نقض قوانين از سوي كاربران دريافتند كه نقض سياست‌ها مي‌تواند هشت پيامد احتمالي داشته باشد: وضع محدوديت‌هايي عليه حساب كاربري، ارسال هشدار به كاربر، حذف مطلب، تعليق حساب، حذف حساب، همكاري با پليس، و مسدود كردن دسترسي به مطالب و نظرات كاربر و جلوگيري از ارتباط او با ديگران بي‌آنكه خودش بداند ــ روش موسوم به «ممنوعيت از طريق پنهان كردن».

در آمريكا حساب‌هاي شبكه‌هاي اجتماعي‌ چند راست‌گراي افراطيِ سرشناس به علت نقض مستمر سياست‌هاي اين شركت‌ها به طور دائم بسته شده است. مايلو يانوپولوس و الكس جونز، يكي از مروجان توطئه‌باوري، براي هميشه از فعاليت در توئيتر محروم شده‌اند. هرچند اين مجازات به ندرت اِعمال مي‌شود اما ابزار مؤثري است.

با حذف حساب‌ كساني كه به طور مكرر و فاحش به قوانين شبكه‌هاي اجتماعي بي‌اعتنايي مي‌كنند، اين شركت‌ها بلندگو را از آنها مي‌گيرند و ترويج اين نظرات را به شدت دشوارتر مي‌كنند. دو سال پس از بسته شدن حساب مايلو يانوپولوس در توئيتر، تداوم لغو سخنراني‌ها و حمايت‌هاي مالي از او سبب شده بود كه بيش از 4 ميليون دلار بدهكار شود.

شبكه‌هاي اجتماعي سازمان‌هاي مستقلي هستند كه مي‌توانند اظهار نظر را به صلاحديد خود به نفع كاربران، آگهي‌دهندگان و سرمايه‌گذاران‌شان كنترل كنند. قوانين اين شبكه‌ها لازم‌الاجرا است. نقض اين مقررات مي‌تواند به بسته شدن حساب افراد يا سازمان‌ها بينجامد و آنها را از ارتباط با ميلياردها كاربر در سراسر دنيا محروم كند.

شناسايي خودكار

مرحله‌ي بعدي در تعديل محتوا عبارت است از شناسايي خودكار با استفاده از نرم‌افزارهاي پيچيده. شبكه‌هاي اجتماعي براي حذف محتواي مغاير با قوانين خود به الگوريتم‌ و هوش مصنوعي تكيه مي‌كنند. بر اساس «گزارش شفافيت سه ماهه‌ي نخست سال 2020» فيسبوك، اين شركت 89 درصد از موارد نفرت‌پراكني را پيش از گزارش كاربران حذف كرد. تحقيقات اخير حاكي از دستيابي به الگوريتم‌هاي مناسبي براي حذف نفرت‌پراكني از شبكه‌هاي اجتماعي است...

اين امر نويدبخش است اما نبايد از ياد برد كه ممكن است الگوريتم‌ها و هوش مصنوعي از سوگيريِ ضمنيِ برنامه‌نويس‌ها متأثر باشند. صفيه نوبل، دانشيار دانشگاه يوسي‌ال‌اي، در كتاب «الگوريتم‌هاي ظلم و ستم»، نشان مي‌دهد كه الگوريتم‌هاي جست‌وجوي آنلاين مي‌توانند متأثر از نژادپرستي و تبعيض جنسي باشند. گرچه او به طور خاص به تعديل محتواي شبكه‌هاي اجتماعي نمي‌پردازد اما به ما يادآوري مي‌كند كه سوگيري‌هاي ضمنيِ برنامه‌نويسان مي‌تواند در حذف بعضي انواع نفرت‌پراكني يا ناديده گرفتن آنها نقش داشته باشد.

براي مثال، اگر يك مهندس مقايسه‌ي انسان با حيوانات را نفرت‌پراكني نداند، ممكن است اين مقايسه را در الگوريتم خود نگنجاند. اين مسئله توجه ما را به دشواريِ خلق هوش مصنوعي و الگوريتم‌هايي جلب مي‌كند كه بتوانند بين دو چيز تمايز قائل شوند: نفرت‌پراكني ممنوع‌ در قوانين و مقررات شبكه‌هاي اجتماعي و اظهار نظري كه ممكن است به عقيده‌ي بعضي از كاربران اهانت‌آميز باشد. ممكن است چيزي كه يك الگوريتم نفرت‌پراكني بپندارد در واقع شوخيِ تقريباً بي‌ضرري ميان چند كاربر باشد.

بنابراين، بايد به اين مسئله هم توجه كرد كه چه كسي دارد اصطلاحات خاصي را به كار مي‌برد. فرق است ميان زني كه به شوخي دوستش را «پتياره» مي‌خواند و مردي كه اين واژه را در اشاره به يك زن به كار مي‌برد.

حجم زياد مطالبي كه اكنون از طريق شناسايي خودكار حذف مي‌شود پرسش‌هايي را درباره‌ي ماهيت اين مطالب برمي‌انگيزد. براي مثال، فيسبوك در گزارش‌هاي شفافيت خود جزئيات خاصي را درباره‌ي مطالب حذف‌شده ارائه نمي‌كند. اين مسئله به‌ويژه وقتي نگران‌كننده مي‌شود كه اين واقعيت را در نظر بگيريم كه اين مطالب پيش از قرار گرفتن در معرض ديد و ارزيابي كاربران حذف مي‌شوند.

گزارش جمعي

آخرين، و شايد مشهودترين، مرحله‌ي تعديل محتوا عبارت است از گزارش جمعي كه طي آن كاربران از محتوايي كه به نظرشان قوانين و مقررات شبكه‌ها‌ي اجتماعي را نقض مي‌كند، شكايت مي‌كنند. سپس كارمندان با بررسي اين محتوا درباره‌ي جلوگيري از دسترسي، حذف يا باقي نگه داشتن آن در سايت تصميم مي‌گيرند.

شبكه‌هاي اجتماعي ميلياردها كاربر در سراسر جهان دارند و بازبيني مطالب كار شاقي است. براي مثال، كاربران فيسبوك هر روز از بيش از يك ميليون مطلب شكايت مي‌كنند. شبكه‌هاي اجتماعي اغلب اين كار را از طريق برون‌سپاري به سازمان‌هاي ديگري مثل آپ‌ورك، سادرلند و دلويت واگذار مي‌كنند. كاركنان اين سازمان‌ها در نقاط گوناگوني در سراسر دنيا پراكنده‌اند و اين كار را معمولاً كارمندان دون‌پايه‌ با دستمزد بسيار كمي در خفا انجام مي‌دهند. براي مثال، درآمد سالانه‌ي يك كارمند معمولي فيسبوك 240 هزار دلار است، در حالي كه كارمندي كه در يكي از سازمان‌هاي پيمانكار به تعديل محتوا مشغول است، سالانه فقط 28 هزار دلار حقوق مي‌گيرد.

هر يك از اين كارمندان هر هفته 1500 مطلب خشونت‌آميز، نفرت‌انگيز يا ناراحت‌كننده را بازبيني مي‌كنند و در نتيجه به شوك ناشي از ترس و ديگر اختلالات رواني مبتلا مي‌شوند. در سال 2020، فيسبوك پذيرفت كه براي جبران خسارت ناشي از اختلالات رواني- از جمله اختلال رواني بعد از سانحه، به 11250 نفر از اين كارمندان 52 ميليون دلار غرامت بپردازد.

علاوه بر تأثير اين شغل بر سلامت رواني كارمندان، وجهه‌ و دستمزد ناچيز آن هم مشكل‌آفرين است. اين افراد بايد تصميم بگيرند كه آيا مطلب گزارش‌شده واقعاً نفرت‌پراكني است يا صرفاً توهين‌آميز است. تعيين حد و مرز ميان نفرت‌پراكني و اهانت بسيار دشوار، زمان‌بر و محتاج آموزش است. شبكه‌هاي اجتماعي‌اي مثل فيسبوك براي اين فرايند اولويت قائل نيستند؛ اين امر نشان مي‌دهد كه شايد اين شركت آن‌قدر كه ادعا مي‌كند به حذف نفرت‌پراكني از وبسايت خود اهميت نمي‌دهد. اگر با نگاه بدبينانه به اين مسئله بنگريم، مي‌توان گفت كه شايد فيسبوك و ديگر شبكه‌هاي اجتماعي به مطالب مناقشه‌انگيز ــ از جمله نفرت‌پراكني ــ علاقه دارند زيرا كاربران را فعال و سرگرم نگه مي‌دارد. افزايش فعاليت و توجه كاربران به معناي جذب آگهي‌هاي بيشتر است.

اگر خوشبين باشيم، مي‌توان گفت كه فيسبوك مشغول ايجاد فرايندي است كه به كاربران اجازه مي‌دهد تا درباره‌ي آنچه به نظرشان تصميمات نادرست يا نامنصفانه درباره‌ي حذف مطالب است، قضاوت كنند. فيسبوك سرگرم ايجاد هيئت نظارتي براي بازبيني موارد مناقشه‌انگيز تعديل محتوا است. بر اساس پيش‌نويس منشور اين شركت، فيسبوك مي‌خواهد 40 نفر را به عضويت هيئتي جهاني منصوب كند. فعلاً معلوم نيست كه اين هيئت چند مورد را بازبيني خواهد كرد، گرچه فيسبوك گفته است كه هر مورد توسط سه تا پنج نفر از اعضاي اين هيئت بازبيني خواهد شد تا تصميم نهايي را اخذ كنند و علت را براي كاربران توضيح دهند. اما فعلاً كاربران براي اعتراض به تصميم مسئولان تعديل محتوا چندان فرصتي ندارند.

گرچه هر يك از شبكه‌هاي اجتماعي آميزه‌اي از بازبيني سردبيري، شناسايي خودكار و گزارش جمعي را براي نظارت بر محتوا در وبسايت‌هاي خود به كار مي‌برند اما درباره‌ي هر يك از مراحل فرايند تعديل محتوا بايد به چند مسئله اشاره كرد. فهم و اجراي قوانين و مقررات اين شبكه‌ها بايد براي كاربران آسان باشد. افزون بر اين، پاسخ شركت‌ها به موارد نقض اين قوانين بايد منسجم باشد تا نتوان آنها را به سوگيري در اجراي سياست‌ها متهم كرد. در هنگام استفاده از هوش مصنوعي و الگوريتم‌ها براي حذف محتوا بايد سوگيريِ ضمنيِ مهندسان نرم‌افزار را در نظر گرفت تا بتوان بي‌طرفيِ فناوري را تضمين كرد. با توجه به نقش مهم مجريان تعديل محتوا در متمايز كردن نفرت‌پراكني از توهين، شبكه‌هاي اجتماعي بايد به گزارش جمعي و بازبينيِ متعاقب آن بيشتر اهميت دهند.

استنباط عمومي از فرايند تعديل محتوا

كاربران شبكه‌هاي اجتماعي معمولاً از طرز كار فرايند تعديل محتوا خبر ندارند. سارا مايرز وست در تحقيقي استنباط كاربران از نقش شركت‌هاي شبكه‌هاي اجتماعي در تعديل محتواي خود، برداشت آنها از نوع مطالب حذف‌شده، و تأثير اين امر بر اظهار نظر علني مردم را بررسي كرد. پژوهش او نشان داد كه كاربران از چرايي و چگونگي حذف مطالب خود تصور دقيقي ندارند. اكثر آنها عقيده داشتند كه مطالب‌شان به اين علت حذف شده كه كسي مداخله كرده ــ يعني ديگر كاربران از آن مطالب شكايت كرده‌اند ــ در حالي كه در واقع نقش اصلي بر عهده‌ي هوش مصنوعي است. بعضي از كاربران حذف مطالب را ناشي از سوگيري سياسي شركت‌هاي شبكه‌هاي اجتماعي مي‌دانستند.

اين امر، دست‌كم تا حدي، معلول اين واقعيت است كه اظهار نظرهاي به شدت بي‌ادبانه در سايت‌هاي خبريِ محافظه‌كار رايج‌تر است. اخيراً گروهي از پژوهشگران با ارزيابي و مقايسه‌ي شيوع بي‌ادبي در نظرات ثبت‌شده در صفحات فيسبوكيِ رسانه‌هاي خبري آمريكايي دريافتند كه 19 درصد از كل نظرات ثبت‌شده در صفحات فيسبوكيِ رسانه‌هاي خبري محافظه‌كار به شدت بي‌ادبانه بود، در حالي كه اين رقم در مورد صفحات فيسبوكي رسانه‌هاي خبري ليبرال 9 درصد بود.افزون بر اين، تعداد نظرات به شدت بي‌ادبانه در صفحات فيسبوكي رسانه‌هاي خبري محلي سه برابر رسانه‌هاي ملي بود.

تصور رايج درباره‌ي سوگيري سياسي شركت‌هاي شبكه‌هاي اجتماعي توجه ترامپ را نيز به خود جلب كرد و او هم نسبت به سوگيري اين سازمان‌ها ابراز نارضايتي كرد.

ترامپ در واكنش به تصميم فيسبوك و توئيتر مبني بر ممانعت از فعاليت راست‌گرايان افراطي، از جمله الكس جونز، اين شركت‌ها را به رعايت آزادي بيان بي‌قيدوشرط فراخواند. دولت او از كاربران شبكه‌هاي اجتماعي خواست كه اگر فكر كردند توئيتر و فيسبوك آنها را به علت ديدگاه‌هاي سياسي خود تنبيه كرده به طور مستقيم به كاخ سفيد شكايت كنند. ترامپ در مه 2019 براي تسهيل اين فرايند، فرم آنلايني را در توئيتر منتشر كرد.

با توجه به عدم شفافيت سازمان‌هاي شبكه‌هاي اجتماعي پيرامون اين مسئله، عجيب نيست كه كاربران شبكه‌هاي اجتماعي تصور درستي از فرايند تعديل محتوا ندارند. براي مثال، تازه در سال 2018 بود كه فيسبوك با انتشار نسخه‌ي روزآمدي از سياست‌هاي مشروح خود به كاربران توضيح داد كه روند تصميم‌گيري درباره‌ي گزارش نفرت‌پراكني چگونه است. هرچه شبكه‌هاي اجتماعي توضيحات بيشتري درباره‌ي تك‌تك مراحل فرايند تعديل محتوا ارائه دهند بهتر است. همان‌طور كه گفتيم، احتمال سوگيري يا اشتباه در سراسر اين فرايند وجود دارد. آموزش دادن به كاربران به آنها كمك مي‌كند تا از مقررات اعلام‌شده پيروي و در صورت بروز اشتباه با تصميمات مخالفت كنند.

همان‌طور كه گفتيم، فرايند تعديل محتوا به سازمان‌هاي شبكه‌هاي اجتماعي اجازه مي‌دهد تا درباره‌ي دسترسي كاربران به نوشته‌ها، تصاوير و ويديوها تصميم بگيرند. با توجه به نقش محتواي رسانه‌ها در شكل دادن به ايدئولوژي غالب درباره‌ي ويژگي‌هاي هويتي‌اي مثل نژاد، جنسيت يا گرايش جنسي، شبكه‌هاي اجتماعي بايد منابع لازم را به فرايند تعديل محتوا اختصاص دهند.

تعديل محتواي نفرت‌پراكني چقدر مؤثر است؟

به‌رغم كوشش‌هاي فراوان شركت‌هاي شبكه‌هاي اجتماعي براي ممنوعيت و حذف نفرت‌پراكني از سايت‌هاي خود، هنوز نفرت‌پراكني به ميزان چشمگيري در آنها وجود دارد.

وبسايت «نوهوموفوبزدات‌كام»، كه توسط «مؤسسه‌ي مطالعات و خدمات اقليت‌هاي جنسي» در دانشگاه آلبرتا ايجاد شده است، نفرت‌پراكني عليه اقليت‌هاي جنسي در توئيتر را پيگيري مي‌كند. اين وبسايت آمار روزانه‌ي دشنام‌هايي مثل f*gg*t و d*ke را ثبت مي‌كند. در پنج سال گذشته، اين دو دشنام، به ترتيب، ۴۰/۲۹ ميليون بار و ۷/۵ ميليون بار به كار رفته‌اند.

تحقيقات خود من نشان مي‌دهد كه شركت‌هاي شبكه‌هاي اجتماعي براي رفع معايب و نقائص فرايند حذف محتوا هنوز راه درازي در پيش دارند. من و هِيلي روسِل در يكي از پژوهش‌هاي اخير خود 311 نمونه از نفرت‌پراكني در فيسبوك را شناسايي كرديم و گزارش داديم. ما دريافتيم كه فيسبوك تنها 47 درصد از اين مطالب را حذف كرد. تحليل كيفي اين مطالب حاكي از عدم انسجام چشمگير در واكنش‌هاي فيسبوك بود.

براي مثال، 9 مورد از 12 مورد گزارش‌شده‌ي حاوي مقايسه‌ي رنگين‌پوستان با ميمون يا گوريل حذف شد. پنج مورد از ده مورد گزارش‌شده‌ي حاوي ادعاي «تروريست» بودن مسلمانان حذف شد. افزون بر اين، هرچند بر اساس قوانين فيسبوك حملات جنسيتي ممنوع است اما اين شركت در حذف نفرت‌پراكنيِ زن‌ستيزانه عملكرد مناسبي نداشت. فيسبوك تنها 38 درصد از موارد گزارش‌شده‌ي حاوي نفرت‌پراكنيِ جنسيتي را حذف كرد.

اين تحقيق همچنين نشان داد كه فيسبوك نمي‌تواند در فرايند تصميم‌گيري به آساني فحواي كلام را دريابد. فيسبوك چند اظهار نظر آشكارا نژادپرستانه يا زن‌ستيزانه را احتمالاً به علت ناتواني از درك فحواي كلام حذف نكرد. براي مثال، ما اظهار نظري درباره‌ي اپرا وينفري را كه حاوي اصطلاح «پتياره‌ي پنبه‌چين» بود به فيسبوك گزارش داديم اما اين اظهار نظر حذف نشد. اگر تعديل‌كنندگان محتوا از ارتباط ميان برده‌داري، تاريخ پنبه به عنوان محصول فروشيِ ايالت‌هاي جنوبي آمريكا و تجربه‌ي آمريكايي‌هاي آفريقايي‌تبار به عنوان اخلاف برده‌هايي كه به پنبه‌چيني وادار مي‌شدند، آگاه نباشند در اين صورت نمي‌فهمند كه اين اصطلاح چقدر نژادپرستانه است. البته اين امر عجيب نيست زيرا فيسبوك معمولاً انتظار ندارد كه تعديل‌كنندگان محتوا بتوانند براي بررسي محتواي گزارش داده شده فحواي كلام را دريابند.

اين تحقيق به ما نشان داد كه اگر صفحاتي مثل «ماه تاريخ سفيدپوستان آمريكايي»، «آمريكايي‌هاي سفيدپوست عصباني»، «اشخاص مايه‌ي تأسف» و «ترامپ 2020» را نديده و گزارش نداده بوديم، همان 48 درصد از مطالب نفرت‌پراكني كه حذف شد احتمالاً باقي مي‌ماند. بنابراين، بايد پرسيد كه شركت‌هاي شبكه‌هاي اجتماعي چقدر از نفرت‌پراكني در سايت‌هاي خود پول درمي‌آورند.

مطالب مناقشه‌انگيز جلب توجه مي‌كند و مدت حضور كاربران در اين شبكه‌ها را افزايش مي‌دهد. با استناد به اين مشغوليت مي‌توان با اطمينان به آگهي‌دهندگان گفت كه اعضاي گروه موردنظرشان چند بار يك آگهي خاص را خواهند ديد. حذف نكردن نفرت‌پراكني، حتي پس از گزارش دادن كاربران، حاكي از آن است كه شايد شركت‌هاي شبكه‌هاي اجتماعي بيشتر به سود علاقه داشته باشند تا به مردم. فيسبوك، يوتيوب (كه متعلق به گوگل است)، و توئيتر همگي شركت‌هاي سهامي عام‌ هستند و در نتيجه در برابر سهام‌داران مسئول‌اند. هدف آنها پول درآوردن است.

سازمان‌هايي نظير «انجمن ملي ترقي رنگين‌پوستان»، «اتحاديه‌ي مبارزه با افترا» و «مطبوعات آزاد» با توجه به سودآوريِ بالقوه‌ي نفرت‌پراكني براي فيسبوك، دست به دست هم دادند و كارزار #نفرت‌براي‌سودآوري‌رامتوقف‌كنيد به راه انداختند؛ اين كارزار از آگهي‌دهندگان مي‌خواست كه در ژوئيه‌ي 2020 براي انتشار آگهي به فيسبوك پول ندهند. موفقيت اين كارزار خيره‌كننده بود و بيش از 1000 شركت، از جمله استارباكس، تارگِت و وُرايزِن، اعلام كردند كه تا وقتي فيسبوك به تغييراتي نظير حذف گروه‌هاي هوادار برتري سفيدپوستان و مشاركت در بازرسيِ منظم تن ندهد به آن آگهي نخواهند داد. انفعال شركت‌هاي شبكه‌هاي اجتماعي به استمرار نفرت‌پراكني خواهد انجاميد، امري كه پيامدهاي مهمي در زندگي واقعي دارد.

نفرت‌پراكنيِ آنلاين و خشونت آفلاين

در آمريكا، عاملان حملات اخير برتري‌طلبان سفيدپوست به توليد و مصرف مطالب‌ نفرت‌پراكنانه در شبكه‌هاي اجتماعي مشغول بودند. تيراندازي كه در سال 2015 در چارلستون، در ايالت كاروليناي جنوبي، با حمله به يك كليساي اسقفيِ متوديستِ متعلق به آفريقايي‌تبارها 9 روحانيِ سياه‌پوست را در هنگام مراسم دعا و نيايش به قتل رساند پيش از اين حمله عكس‌هايي از خود را در فيسبوك منتشر كرده بود كه در آنها جليقه‌اي مُنَق�'َش به نمادهاي سفيدپوستان برتري‌طلب بر تن داشت. دادستان‌هاي فدرال در محاكمه‌ي اين فرد گفتند كه او از طريق مطالب موجود در اينترنت «به دست خودش افراط‌گرا شده» و اعتقاد يافته كه تحقق برتري سفيدپوستان مستلزم توسل به خشونت است.

حمله‌ي سال 2019 به دو مسجد در نيوزيلند، كه به مرگ 51 نفر انجاميد، با شبكه‌هاي اجتماعي ارتباط داشت. عامل اين حمله با اشاره به پيوداي‌پاي، ستاره‌ي مناقشه‌انگيز يوتيوب، بيانيه‌ي 74‌ صفحه‌اي او را در توئيتر و اِيت‌چَن منتشر كرد، و سپس اين كشتار را به طور زنده در فيسبوك و توئيتر پخش كرد. پيش از آن كه شركت‌هاي شبكه‌هاي اجتماعي به خود بيايند، ويديوهاي اين قتل‌عام در فيسبوك، رديت، توئيتر و يوتيوب دست به دست شده بود.

اين مثال‌ها نشان مي‌دهد كه افراط‌گرايان از شبكه‌هاي اجتماعي به عنوان ابزاري براي انتشار پيام خود استفاده مي‌كنند اما حتي در ميان افراد ميانه‌رو نيز نفرت‌پراكني در شبكه‌هاي اجتماعي به گسترش كليشه‌ها و ديدگاه‌هاي تعصب‌آميز دامن مي‌زند، امري كه مي‌تواند به انواع گوناگوني از بدرفتاري، از پرخاشگري جزئي تا تبعيض، بينجامد. با توجه به تأثيرات منفي گسترده‌ي نفرت‌پراكني، بايد براي كاستن از تأثير آن در شبكه‌هاي اجتماعي راه‌حل‌هايي يافت و در عين حال نقش مهم اين شبكه‌ها در سازمان‌دهيِ جمعي براي تغيير اجتماعي را پذيرفت.

حل مشكل

به استثناي آلمان و فرانسه، دولت‌ها سازمان‌هاي شبكه‌هاي اجتماعي را در قبال اظهارنظرهاي كاربران اين سايت‌ها مسئول نمي‌دانند. بنابراين، اين شركت‌ها عمدتاً بايد خودشان بر خود نظارت كنند. در نتيجه، اين سازمان‌ها اغلب به شيوه‌اي نامنسجم به مطالب مشكل‌آفرين واكنش نشان مي‌دهند، امري كه مي‌تواند به آتش‌افروزي دامن بزند.

پس از قتل جورج فلويد به دست مأموران پليس مينياپوليس، تظاهرات عليه خشونت پليس سراسر دنيا را فرا گرفت. در بعضي از تظاهرات، درگيري‌هاي خشونت‌آميزي ميان معترضان و پليس رخ داد. ترامپ در واكنش به اين رويدادها در توئيتي نوشت: «اين اوباش دارند به ياد و خاطره‌ي جورج فلويد اهانت مي‌كنند، و من اجازه نخواهم داد كه چنين اتفاقي بيفتد. همين حالا با آقاي فرماندار تيم والز حرف زدم و به او گفتم كه ارتش تا آخرِ كار با اوست. اگر مشكلي پيش بيايد، بر اوضاع مسلط خواهيم شد اما وقتي غارت شروع شود، تيراندازي شروع خواهد شد. ممنونم!»

توئيتر اعلام كرد كه چون اين توئيت قوانين آنها عليه خشونت‌ستايي را نقض كرده، براي حفظ «منافع عمومي» امكان پسنديدن، پاسخ دادن يا ريتوئيت كردن آن را از كاربران سلب كرده اما آن را حذف نكرده و همچنان قابل ‌مشاهده است.

فيسبوك نه اين مطلب را حذف كرد و نه به آن برچسب زد. در نتيجه، بعضي از كاربران خشمگين شدند و پرسيدند كه چرا فيسبوك به رئيس جمهور، بر خلاف ديگران، اجازه داده است كه قوانين استفاده از آن را نقض كند. اين اتفاق توجه مردم را به قدرت فيسبوك در محافظت از تعريف خاصي از آزادي بيان جلب كرد، تعريفي كه اظهارنظرهاي زيان‌باري را كه نفرت‌پراكني را تشديد و حقوق مدني را تهديد مي‌كند، مجاز مي‌شمارد.

در ژوئيه‌ي 2020، فيسبوك نتيجه‌ي بازرسي خود از حقوق مدني را منتشر كرد. 100 سازمان حقوق مدني در تهيه‌ي اين گزارش نقش داشتند. بر اساس اين گزارش، فيسبوك هنوز به شدت محتاج بهبود سياست‌ها و اقدامات خود پيرامون شناسايي و حذف نفرت‌پراكني است. براي مثال، فيسبوك فاقد نظام دقيقي براي ارزيابي ميزان نفرت‌پراكني عليه گروه‌هاي خاص است.

اگر سازمان‌هاي شبكه‌هاي اجتماعي بخواهند قاطعانه‌تر با نفرت‌پراكني مقابله كنند، مي‌توانند با توجه به تحقيقات اخير از چند گزينه استفاده كنند. در درجه‌ي اول، اين سازمان‌ها مي‌توانند در فرايند حذف بيش از پيش به فحواي كلام توجه كنند. پژوهش‌هاي اخير در اين حوزه نشان مي‌دهد كه به‌رغم گزارش كاربران، اين سازمان‌ها ميزان چشمگيري از مطالب ناقض مقررات خود را حذف نمي‌كنند. ارائه‌ي راهنمايي‌هاي لازم به تعديل‌كنندگان محتوا مي‌تواند در اخذ تصميم‌هاي منسجم‌تر و درست‌تر درباره‌ي حذف مطالب به آنها كمك كند.

اين سازمان‌ها همچنين بايد به صورتي شفاف‌تر با نفرت‌پراكني در سايت‌هاي خود مقابله كنند. بر اساس قوانين آلمان، شبكه‌هاي اجتماعيِ داراي بيش از يك ميليون كاربر موظف‌اند كه با ارائه‌ي گزارش‌هايي بگويند كه كاربران از چه مطالبي به اتهام نفرت‌پراكني شكايت و اين شركت‌ها كدام يك از اين مطالب را حذف كرده‌اند. ارائه‌ي چنين گزارش‌هايي در سطح جهاني به افراد، نهادهاي دولتي و سازمان‌هاي غيردولتي كمك مي‌كند تا ماهيت مشكل را بهتر بفهمند و راه‌حل‌هاي جامع‌تري براي آن بيابند. تلاش براي افزايش شفافيت مي‌تواند نگراني درباره‌ي سودجويي شبكه‌هاي اجتماعي از نفرت‌پراكني را كاهش دهد.

يك راه‌حل ديگر اين است كه كاربران اين شبكه‌هاي اجتماعي را ترك كنند و در عوض از طريق پيام‌رسان‌هايي مثل واتس‌اپ يا اسنپ‌چت با يكديگر ارتباط برقرار كنند. اما اين كار براي بسياري از كاربران ممكن نيست. براي مثال، فارغ‌التحصيلان جديد اغلب براي يافتن شغلي در حوزه‌ي انتخابيِ خود يا براي حفظ تماس با خانواده‌ي خود كه دور از آنها زندگي مي‌كنند به شبكه‌هاي اجتماعي احتياج دارند. افزون بر اين، ترك شبكه‌هاي اجتماعي به افزايش قدرت كساني مي‌انجامد كه از اين شبكه‌ها براي اهداف پليد خود استفاده مي‌كنند، و ديگران را از مزايا و محاسن اين شبكه‌ها ــ از جمله جمع‌آوري اخبار و معاشرت ــ محروم مي‌كند.

راه‌حل مشكل، ترك شبكه‌هاي اجتماعي نيست. در عوض، بايد با استفاده از فشار افكار عمومي يا تدابير قانوني، سازمان‌هاي شبكه‌هاي اجتماعي را به تخصيص منابع بيشتر براي حل اين مشكل ترغيب كرد. شراكت ميان اين سازمان‌ها و نهادهاي ناظري مثل اتحاديه‌ي اروپا يا دولت‌ها مي‌تواند به نتايج مثبتي بينجامد. به هر حال، كاربران، ناظران، دولت‌ها و ديگر نهادها بايد هوشيار بمانند و از هيچ كوششي براي به حداقل رساندن نفرت‌پراكني در شبكه‌هاي اجتماعي دريغ نكنند.

برگردان: عرفان ثابتي
كيتلين رينگ كارلسون دانشيار دپارتمان ارتباطات در دانشگاه سياتل است. آنچه خوانديد برگردان گزيده‌هايي از اين نوشته با عنوان اصليِ زير است:
Caitlin Ring Carlson (2021) Hate Speech, MIT Press.
منبع: aasoo