شارا - شبكه اطلاع رساني روابط عمومي ايران : استفاده از هوش مصنوعي براي تحليل حضور زنان در اخبار
پنجشنبه، 3 آذر 1401 - 21:06 کد خبر:50864
خوب است به ياد داشته باشيم كه دستگاه مي تواند داده ها را تهيه كند و در بررسي اندازه خوب بودن يا نبودن كار به ما كمك كند، اما براي اقدام كردن، اتاق هاي خبر و خود خبرنگاران بايد از نقطه اي آغاز كنند و براي رسيدگي به حضور اندك زنان در اخبار، اراده به خرج دهند.

شبكه اطلاع‌رساني روابط‌عمومي ايران (شارا)-|| هوش مصنوعي (كه در انگليسي به اختصار (AI) ناميده مي شود) در سال هاي اخير به طور گسترده اي در خبرنگاري مورد استفاده قرار گرفته است؛ از توليد محتواي خودكار گرفته تا كمك به تلاش هاي راستي آزمايي. 

طي اين سال ها، فرصت هايي كه الگوريتم ها به سازمان هاي رسانه اي ارائه مي كنند، شفافتر شده است. 

در كنار كاربردهاي ديگر، هوش مصنوعي مي تواند در بهبود حضور زنان در اخبار نقش داشته باشد. يك ربات اينترنتي يا باتِ Financial Times به نام She said He said، يكي از نخستين نمونه ها در اين عرصه بود. اين ربات كه در سال ۲۰۱۸ معرفي شد در تشخيص تنوع منابع در گزارش دهي، به اين رسانه كه مقر آن در لندن است، كمك كرد. 

به همين گونه سازمان‌ هاي خبري در سراسر جهان به روش هاي مختلف از فناوري‌ هوش مصنوعي براي كمك به تجزيه و تحليل و شناسايي سوگيري‌ ها در گزارش‌ هاي شان، تشخيص سخنان نفرت‌ انگيز عليه زنان و موارد ديگر استفاده كرده‌ اند.

در ادامه برخي از مثال هاي استفاده از هوش مصنوعي را در سازمان هاي خبري مي خوانيد:


تجزيه و تحليل سوگيري در رسانه ها

Sahiti Sarva، مهندسي كه در زمينه استفاده از علم داده در براي درك سياست (خط مشي) تخصص دارد، يكي از نويسندگان يك مقاله تصويري در سال ۲۰۲۱ به نام وقتي زنان تيتر خبر را مي سازند (When Women Make Headlines) است كه در آن، ماهيت حضور زنان در اخبار بررسي شده بود. Sarva و گروهش براي اين طرح، تيترها (سرخط ‌هاي) خبري بيش از ده سالِ ۵۰ نشريه را در هند، ايالات متحده، بريتانيا و آفريقاي جنوبي تحليل و تجزيه كردند. او رويكرد اين گروه را در يك كارگاه مجازي كه اوايل امسال با ميزباني برنامه JournalismAI مدرسه اقتصاد لندن (London School of Economics) برگزار شد، توضيح داد: «ما تمام تيترها (سرخط‌ هايي) را كه حاوي برچسب هايي مترادف با زنان، دختر، مونث و كلماتي مشابه آنها بودند جدا كرديم و ۳۸۲ هزار و ۱۳۹ تيتر خبر انگليسي به دست آورديم.»

البته كه يافته هاي اين بررسي، حاوي داده هاي زيادي بود. Sarva در مصاحبه اي براي اين مطلب مي گويد: «شما فكر مي كنيد كه هوش مصنوعي [كارتان را] آسانتر خواهد ساخت»، اما پيش از آن كه بتوانيد الگوريتمي را اجرا كنيد، كارهاي بسياري‌ست كه بايد انجام دهيد. مثلاً پاك سازي، حذف كلمات بي فايده و يافتن بسته هاي كد درست براي استفاده. به گفته او «در تصميم‌گيري براي اين كه از كدام داده ها استفاده خواهيد كرد، بايد خلاق باشيد.»

در كارگاه JournalismAI (هوش مصنوعي براي خبرنگاري) Sarva توضيح داد: «ما كارمان را ادامه داديم و فهرستي ايجاد كرديم كه آنچه را سوگيري جنسيتي در تيترها خوانده مي شود، محاسبه مي كند؛ از جمله تركيبي از زبان جنسيتي مثل بازيگرِ زن، دختر و همسر (زن) و همچنين كليشه هاي رفتاري و اجتماعي درباره جنسيت مثل حمايت عاطفي و مراقبت.»

زماني كه گروه، اين فهرست ها يا قاموس ها را تهيه كرد از يك روش يادگيري ماشيني به نام «تحليل احساسات» بهره گرفت تا بداند كه حضور زنان در تيتر خبر چگونه به نظر مي رسد. Sarva مي گويد: «ما دريافتيم كه وقتي زنان در سرخط خبرها باشند، گزارش معمولاً بسيار احساسي‌ست. يعني بسيار احساسي‌تر از سرخط‌ هاي عادي ديگري كه مي خوانيم و با گذشت زمان، شمار آنها بيشتر شده است. علت آن شايد اين باشد كه وقتي زنان در سرخط خبر باشند، احتمال آن كه آن گزارش بيش از آن كه نيروبخش باشد، خشن باشد، دو برابر است.»


نظارت بر گفتمان زن ستيزانه

زنان به عنوان چهره هاي سرشناس، مكرراً در رسانه هاي اجتماعي هدف حمله قرار مي گيرند. عاملان اين حملات چه كساني هستند؟ دو خبرنگار از رسانه هاي AzMina از برزيل و La Nación از آرژانتين و دو سازمانِ CLIP و DataCrítica از آمريكاي لاتين براي يافتن پاسخ اين سوال به هوش مصنوعي رو آوردند. آنها يكجا با هم يك اپليكيشن يا برنامه وب براي پرده برداري از سخنان نفرت انگيز عليه زنان در توييتر ساختند.

Bárbara Libório از نشريه AzMina در همان كارگاه هوش مصنوعي براي خبرنگاري گفت: «با آگاهي افزايش سخنان نفرت انگيز به خصوص عليه زنان، ما مي خواهيم در اين طرح با سرعت و قاطعيت، هر زماني كه يك حمله زن ستيزانه از سوي يك سياستمدار آغاز مي شود، بر آن نظارت داشته باشيم.» اين برنامه اينترنتي حملاتي را يافت كه از سوي چهره هاي مشهور به خصوص سياستمداران انجام شده بود. Libório مي گويد: «[حملات اين افراد] آغاز موج هاي اصلي سخنان نفرت انگيز بودند؛ زيرا طرفداران آنها تصميم مي گرفتند كه به اين زنان با سرعت بيشتري حمله كنند.»

او در ادامه مي گويد اگر بخواهيد براي تشخيص پيام هاي زن ستيزانه الگويي داشته باشيد، هوش مصنوعي بايد بياموزد كه سخنان نفرت انگيز عليه زنان چيستند. به عنوان گام نخست در اين روند گروه Libório يك پايگاه داده از نمونه ها ساختند و توييت ها را به عنوان زن ستيزانه يا غير از آن علامت گذاري كردند.

پس از آن كه هوش مصنوعي اين روند را فرا گرفت، او و گروهش كارآيي آن را در تشخيص سخنان نفرت انگيز عليه زنان ارزيابي كردند. آنها يك سيستم نمره دهي ساختند و آن را به زبان هاي پرتغالي و اسپانيايي آزمايش كردند. با آماده شدن مدل، آنها يك برنامه اينترنتي ساختند تا در تجزيه و تحليل متن ها و فايل ها به كاربران كمك كند. Libório اميدوار است كه بتوانند مدل اوليه كارشان را با ابتكارات ديگري كه بخواهند از خشونت جنسيتي در رسانه هاي اجتماعي الگوبرداري كنند، به اشتراك بگذارند. 

نقطه اي براي آغاز

Sabrina Argoub، مدير برنامه هاي JournalismAI مي گويد: «فن آوري هوش مصنوعي مي تواند براي حمايت از انجام كار بهتر براي خبرنگاران كمك بزرگي باشد.» به گفته او وقتي صحبت از حضور زنان در اخبار باشد، مي توان از هوش مصنوعي براي بهبود شفافيت و پاسخگويي و همچنين افزايش آگاهي استفاده كرد. طرح AIJO كه ميزان نقل قول زنان و مردان و يا ميزان به تصوير كشيدن آنها را در اخبار مقايسه مي كند، نمونه اي از آن است. 

با اين حال Argoub تاكيد مي كند كه هوش مصنوعي، درمان همه مشكلات نيست. موافق بودن و هم‌سو بودن اتاق هاي خبر و روزنامه نگاران براي به دست آمدن پيشرفت در اين زمينه ضروري‌ست. 

او مي گويد: «خوب است به ياد داشته باشيم كه دستگاه مي تواند داده ها را تهيه كند و در بررسي اندازه خوب بودن يا نبودن كار به ما كمك كند، اما براي اقدام كردن، اتاق هاي خبر و خود خبرنگاران بايد از نقطه اي آغاز كنند و براي رسيدگي به حضور اندك زنان در اخبار، اراده به خرج دهند.»

 

نوشته Aldana Vales
Nov 17, 2022

منبع: ijnet