درباره شارا | تماس | جستجوی پیشرفته | پیوندها | موبایل | RSS
 خانه    تازه ها    پایگاه اخبار    پایگاه اندیشه    پایگاه کتاب    پایگاه اطلاعات    پایگاه بین الملل    پایگاه چندرسانه ای    پایگاه امکانات  
شنبه، 1 اردیبهشت 1403 - 02:04   

متا لامای ۳ و به‌روزرسانی هوش مصنوعی را منتشر کرد

  متا لامای ۳ و به‌روزرسانی هوش مصنوعی را منتشر کرد


ادامه ادامه مطلب یک

متا تولید تصاویر هوش مصنوعی در زمان واقعی را به واتس‌اپ می‌آورد!

  متا تولید تصاویر هوش مصنوعی در زمان واقعی را به واتس‌اپ می‌آورد!


ادامه ادامه مطلب دو

برندگان جوایز جهانی عکاسی سونی 2024 معرفی شدند!

  برندگان جوایز جهانی عکاسی سونی 2024 معرفی شدند!


ادامه ادامه مطلب سه

مسابقه عکس جهانی مطبوعات 2024: برندگان مشخص شدند

  مسابقه عکس جهانی مطبوعات 2024: برندگان مشخص شدند


ادامه ادامه مطلب چهار

   آخرین مطالب روابط عمومی  
  کثرت‌گرایی رسانه‌ای و حق آگاهی مردم
  باج دادن به باجگیران رسانه‌ای: اشتباهی که نباید مرتکب شوید
  متا لامای ۳ و به‌روزرسانی هوش مصنوعی را منتشر کرد
  ابزار هوش مصنوعی جدید مایکروسافت یک ماشین کابوس عمیق است
  متا تولید تصاویر هوش مصنوعی در زمان واقعی را به واتس‌اپ می‌آورد!
  کارولین هاید، مجری بلومبرگ، می‌گوید سابقه روابط‌عمومی به او کمک کرده است
  هوش مصنوعی و فرسایش شناخت انسان
  برندگان جوایز جهانی عکاسی سونی 2024 معرفی شدند!
  اپل به دستور دولت چین، واتس‌اپ و تردز را از اپ استور چین حذف کرد
  مسابقه عکس جهانی مطبوعات 2024: برندگان مشخص شدند
ادامه آخرین مطالب روابط عمومی
- اندازه متن: + -  کد خبر: 36029صفحه نخست » ارتباطات و روزنامه نگاریجمعه، 27 خرداد 1401 - 11:00
چگونه با اخبار جعلی مقابله کنیم؟
رجینا رینی/ ترجمه: جویا آروین - فناوری ما را به عصری رسانده که مشخصه‌اش اطلاعات غلط است. اما فیلسوفان، و نیز نگاهی دقیق‌تر به رفتارهای اجتماعی‌ِ خودمان، می‌توانند به ما کمک کنند این عصر را به سلامت طی کنیم.
  

شبکه اطلاع رسانی روابط عمومی ایران (شارا)- فناوری ما را به عصری رسانده که مشخصه‌اش اطلاعات غلط (misinformation) است. اما فیلسوفان، و نیز نگاهی دقیق‌تر به رفتارهای اجتماعی‌ِ خودمان، می‌توانند به ما کمک کنند این عصر را به سلامت طی کنیم.

گرفتاری‌ای به نام «فیک نیوز» (اخبار جعلی/دروغ‌پراکنی) را فناوری پدید آورده است و ممکن است به این گمان وسوسه شویم که فناوری همچنین می‌تواند این گرفتاری را چاره کند و تنها کاری که باید کرد این است که الگوریتم مناسب را [روشی گام به گام برای حل مسئله را] بیابیم و از طریق کدها مشکل را برطرف کنیم. اما این رهیافت درس‌های ارزشمندی را که شناخت‌شناسی—شاخه‌ای از فلسفه که می‌پردازد به این پرسش که چگونه شناخت کسب می‌کنیم—به ما داده نادیده می‌انگارد.

برای اینکه بفهمیم چگونه مسئله‌ی فیک‌‌نیوز را چاره کنیم بگذارید با مقایسه‌ای با شایعه بیاغازیم. فرض کنید در یکی از دورهمی‌های عصرگاهی یکی از دوستان‌تان با شایعه‌ای درباره‌ی یک سیاستمدار محلی همه را شوکه کند. داستانی که او تعریف می‌کند چنان شرم‌آور است که شما مطمئن نیستید درست باشد. اما اینجا دوست خوب شما دارد درستیِ خبر را ضمانت می‌کند، و با این کار دارد از وجهه و اعتبارش مایه می‌گذارد. پس شاید باید آن را باور کنید.

این نمونه‌ای است از چیزی که فیلسوفان «گواهی» می‌نامند. همانند گواهی یا شهادت در دادگاه است اما به آن اندازه رسمی نیست و بسیار متداول‌تر از آن است. هروقت چیزی را باور ‌کنیم چون دیگری گفته، از طریق گواهی باور کرده‌ایم. آنچه درباره‌ی جهان پیرامون‌مان می‌دانیم اغلب شناخت غیرمستقیم یا دست‌دوم است که از طریق گواهی به ما می‌رسد. هر چه باشد هریک از ما نمی‌تواند به‌تنهایی درباره‌ی همه‌ چیز پژوهش کند، یا نقشه‌ی شهرها در دوردست‌ را تهیه کند.

این‌ها همه بر هنجارهای گواهی متکی است. وقتی شخصاً اظهارنظری می‌کنید، حتا اگر صرفاً خبری را که از جای دیگر گرفته‌اید بازگو می‌کنید، شما مسئولیت آن را برعهده می‌گیرید و از اعتبار معرفتیِ خود، یعنی اعتبارتان در مقام یک منبع اطلاعات، مایه می‌گذارید. چرا وقتی چیزی با مردم در میان می‌گذارید شما را باور می‌کنند؟ تا اندازه‌ای به این دلیل که آنان شما را آزموده و قابل اعتماد یافته‌اند و می‌توانند گمان کنند که شما مسئولیت حرف‌تان را در صورتی که دروغ یا نادرست باشد برعهده خواهید گرفت. اتکاپذیریِ شناخت دست‌دوم یا غیرمستقیم از این هنجارها مایه می‌گیرد.

اما رسانه‌های اجتماعی هنجارهایی برای گواهی دارند که ناآشنا و غیرمعمول هستند. در فیسبوک و توییتر و رسانه‌های دیگری چون اینها، مردم اغلب هرآنچه می‌گویند خود باور ندارند، و ما هم همیشه از آنان انتظار نداریم فقط چیزهایی بگویند که خود باور دارند. چنان‌که یک شعار خودمانی درباره‌ی توییتر می‌گوید: «وقتی توییتی بازتوییت می‌شود این به معنای تأیید آن نیست.». وقتی معلوم شد دانلد ترامپ آمارهای غلط درباره‌ی ارتباط میان نژاد و جرم و جنایت را بازتوییت کرده است او به فاکس‌نیوز گفت «خیلی مهم نیست. آیا انتظار دارید خودم درستیِ هر آماری را بسنجم؟ فقط یک بازتوییت بود. توییت اصلی کار کسِ دیگری بود.». می‌دانیم که مردم در رسانه‌های اجتماعی همیشه از این کارها می‌کنند و خبرها را بی‌آنکه درستی‌شان را دربیاورند همرسانی می‌کنند، ولی با این حال بسیاری از ما باز به حرف‌های آنان توجه می‌کنیم. نمی‌توانیم مطالب‌شان را نادیده بگیریم بلکه وسوسه می‌شویم اطلاعاتی را که همرسانی می‌کنند بخوانیم—به‌ویژه وقتی آن اطلاعات باورهای سیاسیِ ما را از نو تأیید می‌کند.

اگر بخواهیم به نبرد با فیک نیوز و دروغ‌پراکنی برویم لازم است همان هنجارهایی را برگیریم و بر شبکه‌های اجتماعی اعمال کنیم که در دورهمی‌ها ما را وا می‌دارد کمابیش صادق باشیم. منتها مشکل این است که رسانه‌های اجتماعی همانند این است که هر شب با ۵۰۰ نفر از نزدیک‌ترین دوستان به مهمانی بروید. ممکن است در چنین مهمانی‌هایی خبرها و اطلاعات بسیار زیادی به دست شما برسد، اما بعید است در میانه‌ی همهمه‌ها و سروصداها به خاطرتان بماند که کدام خبر را چه کسی به شما داده و اگر بعداً معلوم شود اطلاعات غلطی دریافت کرده‌اید چه کسی را باید مسئول بدانید. اطلاعاتی که در چنین وضعیت‌هایی رد و بدل می‌شود بیش از آن اندازه‌ای است که ذهن ما بتواند منبع هرکدام را به خاطر بیاورد. در رسانه‌های اجتماعی هم وضع به همین سان است. عنوان خبری را می‌خوانید—گاهی حتا محتوای خبر را هم نمی‌خوانید—و شوکه می‌شوید و بر روی شکلک عصبانی کلیک می‌کنید و پایین‌تر می‌روید تا مطلب بعدی را بخوانید. همواره خبرهای دیگری هست و عصبانیت‌های دیگر. شما واکنش نشان می‌دهید و به مطلب بعدی می‌روید و به همین سان این کار را تکرار می‌کنید.

مشکل فقط این نیست که شمار خبرها و اطلاعات بسیار زیاد است؛ مشکل دیگر این است که شمار کسانی که اطلاعات را همرسانی می‌کنند نیز بسیار زیاد است. هر کاربری در فیسبوک به‌طور میانگین صدها دوست فیسبوکی دارد و بسیاری از آنان را در محیط بیرون از اینترنت نمی‌شناسد. هیچ راهی نداریم که بدانیم دوستان فیسبوکی‌مان تا چه اندازه قابل اعتماد هستند. ممکن است بدانید که یکی از نزدیکان‌تان سوگیریِ خاصی در مسائل سیاسی دارد و برای همین حواس‌تان به مطالب او باشد. اما چگونه می‌توانید درباره‌ی مطالبی که دیگرانی که کم‌تر آشنا هستند همرسانی می‌کنند مواظب باشید.
 

برای اینکه این مسئله را چاره کنیم—یا دست‌کم وضع را کمی به‌تر کنیم—لازم است هنجارهای ثابتی برای گواهی وضع کنیم و جا بیندازیم، هنجارهایی که بر طبق آنها بتوانیم یکدیگر را در رسانه‌های اجتماعی مسئول بدانیم. لازمه‌ی این کار این است که، در میانه‌ی سیلاب اطلاعات، بتوانیم به سابقه‌ی صدها کاربر در رسانه‌های اجتماعی از نظر قابل اعتماد بودن دسترسی داشته باشیم. خوشبختانه ابزاری برای این کار هست.

فیسبوک خود ویژگی‌هایی دارد که هنجارهای بهتری برای گواهی را پشتیبانی می‌کند. اغلبِ حساب‌ها در فیسبوک از نزدیک به شبکه‌های زندگیِ اجتماعیِ کاربران در دنیای واقعی مرتبط هستند. و برخلاف کسانی که به‌طور ناشناس بر روی دیگر تارنماها نظر می‌دهند، کاربران فیسبوک وقتی دروغ‌شان برملا شود نمی‌توانند هویت خود را پنهان کنند. پس کاربران دلیل خوبی دارند که نگرانِ وِجهه و آوازه‌ی خود باشند—دست‌کم اگر دیگران بتوانند از سابقه‌ی آنان مطلع باشند آنگاه آنان باید مواظب باشند که به دروغ‌گویی و غیرقابل اعتماد بودن معروف نشوند.

 

سامانه‌ای هست که می‌تواند به ما کمک کند و بر پایه‌ی کاری است که فیسبوک برای پیش‌گیری از دروغ‌پراکنی انجام می‌دهد. فیسبوک در حال حاضر از سازمان‌های مستقلی که در گروه‌های سیاسیِ گوناگون برای راستی‌سنجی (fact-checking) پایه‌گذاری شده‌اند می‌خواهد که اطلاعات غلط و گمراه‌کننده را شناسایی کنند. هرگاه کاربری بخواهد مطلبی که به‌عنوان خبر جعلی شناسایی شده همرسانی کند با بازشُویی روبه‌رو می‌شوند که توضیح می‌دهد خبر چه مشکلی دارد و از او می‌خواهد تأیید کند که آیا با این حال قصد دارد خبر را همرسانی کند. هیچ‌یک از کاربران از همرسانیِ مطالبی که اعتبارشان مخدوش است منع نمی‌شوند؛ فقط به آنان گفته می‌شود آنچه همرسانی می‌کنند ممکن است غلط یا گمراه‌کننده باشد.

از دسامبر ۲۰۱۶ فیسبوک به‌طور آشکار از این سامانه استفاده می‌کند. فیسبوک همچنین در نهان آمار میزان نشان‌دار شدنِ مطالب به‌عنوان خبر جعلی را نیز نگه می‌دارد و از این طریق اتکاپذیریِ کاربران از نظر معرفتی را محاسبه می‌کند. در ماه آگوست واشینگتن‌پست گزارش داد که فیسبوک مخفیانه محاسبه می‌کند که گزارش کاربران درباره‌ی خبر جعلی تا چه اندازه با نتایج راستی‌سنج‌های مستقل مطابقت دارد. فیسبوک این اطلاعات را به کاربران نمی‌دهد و فقط برای مصارف داخلی استفاده می‌کند تا بتواند استفاده‌ی نادرست از سامانه‌ی نشان‌دار کردن را شناسایی کند. یعنی من نمی‌توانم نمره‌ی خودم یا نمره‌ی هیچ‌یک از دوستانم را از نظر اعتبار معرفتی بدانم.

 

این سامانه و نهان‌کاری درباره‌ی آن کمی زننده به نظر می‌رسد—و همین باعث شده که اعتماد عمومی به فیسبوک به‌طور جدی و به‌حق آسیب ببینید—اما به گمان من نتیجه‌ی کار فیسبوک ارزشمندی انجام داده است. در نوشتاری که پارسال در مجله‌ی مؤسسه‌ی کندی در زمینه‌ی اخلاق منتشر شد، من سامانه‌ی دیگری پیشنهاد کردم. تفاوت اصلی میان سامانه‌ای که من پیشنهاد کردم و سامانه‌ای که فیسبوک به کار گرفته شفافیت است: فیسبوک باید در این زمینه اطلاعات گردآوری کند و در اختیار کاربران بگذارد که هر کاربر چند بار خبرهایی را همرسانی کرده با اینکه فیسبوک به او هشدار داده که اعتبارشان مخدوش است.

 

فیسبوک به‌جای آنکه این داده‌ها را به کار گیرد تا نمره‌ی کاربران را به‌طور مخفیانه تعیین کند باید یک نشان‌گر برای اتکاپذیری روی هریک از پست‌ها و کامنت‌ها بگذارد. تصور کنید یک نقطه‌ی رنگیِ کوچک در کنار نام کاربر باشد همانند نشان آبی‌رنگی که فیسبوک و توییتر به حساب‌های مطمئن می‌دهد. برای مثال، یک نقطه‌ی خاکستری‌رنگ دال بر اینکه کاربر خبرهایی با اعتبار مخدوش را همرسانی نکرده است، یک نقطه‌ی زردرنگ دال بر اینکه کاربر گاهی چنین کرده، و یک نقطه‌ی قرمزرنگ دال بر اینکه کاربر اغلب چنین کرده است. با چنین نشان‌هایی هرکس در یک نگاه می‌توانند دریابند که دوستانش تا چه اندازه اتکاپذیر هستند.

در این پیشنهاد همه چیز شفاف است و سانسوری در کار نیست. لازم نیست فیسبوک الگوریتم‌هایی به کار گیرد تا نگذارد کاربرانی که اتکاپذیر نیستند مطلبی را همرسانی کنند: کاربران همه می‌توانند هرآنچه می‌خواهند همرسانی کنند خواه مخدوش خواه معتبر. کاربران خواهند توانست از فیسبوک همان‌طور استفاده کنند که الان استفاده می‌کنند، اما وقتی با مطلب تازه‌ای روبه‌رو شدند امکان انتخاب خواهند داشت. پیش از آنکه مطلب برانگیزاننده‌ای را بخوانند که دوستی در فیسبوک همرسانی کرده، کاربران می‌توانند نگاهی به نشان‌گر اتکاپذیری بیندازند و شاید وقتی مطلبی از کسی دیدند که نشان قرمزرنگ دارد از خواندنش منصرف شوند. و کسی که نشان خاکستری‌رنگ دارد یک منبع ارزشمند است، منبعی که فقط در موارد غیرعادی باید آن را نادیده گرفت. آوازه و اعتبار در زندگیِ واقعی هم درست به همین سان است.

ایده‌ای که طرح شد از فناوری استفاده می‌کند، اما فناوریِ مورد نیاز پیشاپیش در دسترس است. هدف از این سامانه همیاریِ کاربر است و از همان هنجارهایی برای گواهی استفاده می‌کند که پیش از پیدایش رسانه‌های اجتماعی وجود داشتند. در پایان، چاره کردن مسئله‌ی فیک نیوز و خبرهای جعلی فقط برنامه‌نویسی‌های هوشمندانه نیست، بلکه مستلزم این است که هریک از ما در مقام شهروندان دیجیتال مسئولیت‌‌پذیر باشیم و از اعتبار و وجهه‌ی معرفتی‌مان مایه بگذاریم.

منبع: نیویورک تایمز - زمانه

 

 

 

 

 

 

 

   
  

اخبار مرتبط:

اضافه نمودن به: Share/Save/Bookmark

نظر شما:
نام:
پست الکترونیکی:
نظر
 
  کد امنیتی:
 
   پربیننده ترین مطالب روابط عمومی  

  اهمیت توسعه ارتباطات نوآورانه


  باج دادن به باجگیران رسانه‌ای: اشتباهی که نباید مرتکب شوید


  استقبال از شکست: چرا ما خجالت می‌کشیم اما نباید


  انواع مختلف شهرت


  مدیریت رشد سریع کسب‌وکار


  ارتباط موثر، کلید محافظت از مردم و جامعه در برابر بحران‌های محیطی


  رازهای روابط‌عمومی


  چگونه آگاهی زیست‌محیطی را ارتقا دهیم


  هوش مصنوعی و فرسایش شناخت انسان


  روابط‌عمومی و عجز در تهیه خبر


 
 
 
مقالات
گفتگو
گزارش
آموزش
جهان روابط عمومی
مدیریت
رویدادها
روابط عمومی ایران
کتابخانه
تازه های شبکه
آخرین رویدادها
فن آوری های نو
تبلیغات و بازاریابی
ایده های برتر
بادپخش صوتی
گزارش تصویری
پیشنهادهای کاربران
اخبار بانک و بیمه
نیازمندی ها
خدمات
خبرنگار افتخاری
بخش اعضا
دانلود کتاب
پیوندها
جستجوی پیشرفته
موبایل
آر اس اس
بخشنامه ها
پیشکسوتان
لوح های سپاس
پیام های تسلیت
مناسبت ها
جملات حکیمانه
پایان نامه ها
درباره شارا
تماس با ما
Shara English
Public Relation
Social Media
Marketing
Events
Mobile
Content
Iran Pr
About Us - Contact US - Search
استفاده از مطالب این سایت با درج منبع مجاز است
تمام حقوق مادی و معنوی این سایت متعلق به شارا است
info@shara.ir
  خبر فوری: معرفی کتاب «هوش مصنوعی روابط‌عمومی در عمل» منتشر شد