درباره شارا | تماس | جستجوی پیشرفته | پیوندها | موبایل | RSS
 خانه    تازه ها    پایگاه اخبار    پایگاه اندیشه    پایگاه کتاب    پایگاه اطلاعات    پایگاه بین الملل    پایگاه چندرسانه ای    پایگاه امکانات  
چهارشنبه، 25 فروردین 1400 - 21:58   

فراخوان جشنواره و نخستین همایش روابط‌عمومی در سال 1400

  فراخوان جشنواره و نخستین همایش روابط‌عمومی در سال 1400


ادامه ادامه مطلب یک

ویروس کرونا در فضاهای بسته در کمین است نه در هوای آزاد

  ویروس کرونا در فضاهای بسته در کمین است نه در هوای آزاد


ادامه ادامه مطلب دو

کدام کشورهای اروپایی در استفاده از فناوری‌های هوش مصنوعی پیشروترند؟

  کدام کشورهای اروپایی در استفاده از فناوری‌های هوش مصنوعی پیشروترند؟


ادامه ادامه مطلب سه

رسانه‌ یا روابط عمومی؟

  رسانه‌ یا روابط عمومی؟


ادامه ادامه مطلب چهار

   آخرین مطالب روابط عمومی  
  رسانه های برتر دنیا در سال 2021
  توسط شورای هماهنگی روابط عمومی کرمان؛ جشنواره "چراغ روشن رابطه" برگزار می شود
  اشتباهات روابط عمومی، تکراری اما حل شدنی!
  تجربیات آستانه‌ای
  مدیرکل دفتر صنایع معدنی وزارت صمت: تلاش وزارت صمت راه اندازی هرچه سریعتر پروژه نورد گرم 2 است
  تاکید رئیس روابط عمومی شهرداری منطقه ۲۰ بر توسعه روش های ارتباطی روابط عمومی با بهره گیری از شبکه های نوین اجتماعی
  تبیین برنامه راهبردی مرکز روابط عمومی وزارت صمت در سال ۱۴۰۰
  با سواد رسانه ای رویکرد جدیدی جایگزین فیلترینگ می شود
  دستورالعمل الزامات ارتقای سواد فضای مجازی
  قش نوآوری در برنامه‌های وفاداری/ نمونه‌هایی از برنامه‌های مبتکرانه در حوزه وفاداری مشتری
ادامه آخرین مطالب روابط عمومی
- اندازه متن: + -  کد خبر: 36865صفحه نخست » فناوری نوسه شنبه، 9 بهمن 1397 - 22:51
الگوریتم‌های تبعیض‌آمیز: چهار نمونه از پیش‌داوری‌های هوش مصنوعی
دنیل کاسینز — سارا یاوری - یک مطالعه در سال ۲۰۱۵ نشان داد که در قسمت جستجوی تصاویر گوگل برای واژه‌ی «مدیرعامل»، تنها ۱۱ درصد از کسانی که نشان داده می‌شدند زن بودند، با این‌که ۲۷ درصد از مدیران عامل در آمریکا زن هستند. چند ماه بعد، آنوپام داتا[۹] از دانشگاه کارنگی ملونِ پتسبورگ طی تحقیقی به این موضوع پی برد که سیستم آن‌لاین تبلیغات گوگل، مشاغل با درآمد بالا را خیلی بیشتر به مردان نشان می‌داد تا به زنان.
  

شبکه اطلاع رسانی روابط عمومی ایران (شارا)-|| هوش مصنوعی قرار است زندگی را برای همه‌ی ما آسان‌تر کند، این پدیده اما مستعد افزایش سوگیری‌های جنسیت‌زده و نژادپرستانه نیز است.

زندگی مدرن بر پایه‌ی الگوریتم‌های هوشمند جریان دارد. برنامه‌های کامپیوتری خودارتقادهنده که داده‌ها را می‌بلعند و بستر انقلاب هوش مصنوعی هستند همین حالا هم نتایج جستجوی گوگل، فید خبری فیس‌بوک و پیشنهادهای خرید آنلاین را تعیین می‌کنند.

 

حتی بیشتر از این، تصمیم می‌گیرند با چه سهولتی وام و یا یک مصاحبه‌ی کاری بگیریم، احتمال توقیف ماشین و گشته شدن توسط پلیس در راه خانه، و هم‌چنین این‌که اگر مرتکب جرمی شویم با چه مجازات‌هایی روبرو خواهیم شد.

پس بر این اساس باید در تصمیم‌گیری‌هایشان بری از خطا باشند، درست است؟ خیر، اشتباه است. داده‌های ورودی منحرف‌شده، منطق اشتباه یا تنها پیش‌داوری‌های برنامه‌نویسان آن‌ها به این معنی هستند که هوش‌های مصنوعی هم به‌راحتی سوگیری‌های انسانی را بازتولید و حتی تشدید می‌کنند. پنج مثالی که در ادامه می‌آیند موید همین نکته هستند.

۱. تبعیض نژادی در الگوریتم کامپِس
کامپس[۱] الگوریتمی‌ست که با پیش‌بینی احتمال ارتکاب مجدد جرم برای هدایت روند صدور حکم به‌طور گسترده در آمریکا استفاده می‌شود. احتمالا در بدآوازه‌ترین نمونه‌ی پیش‌داوری هوش مصنوعی، در ماه مه سال ۲۰۱۶ سازمان خبری غیرانتفاعی پروپوبلیکا[۲] گزارش داد که کامپس از نظر نژادی جانبدارانه است. طبق تحلیل پروپوبلیکا، سیستم ریسک ارتکاب مجدد جرم توسط متهمان سیاه‌پوست را بیشتر در نظر گرفته و عکس این حالت را برای متهمان سفیدپوست متصور می‌شود. اِکویونت[۳]، شرکت توسعه‌دهنده‌ی نرم‌افزار، این مسئله را نمی‌پذیرد.

تشخیص واقعیت، یا این‌که جهت‌گیری از کجا ممکن است نشات بگیرد، دشوار است، چرا که الگوریتم در مالکیت انحصاری توسعه‌دهندگانش بوده و برای بررسی دقیق در دسترس نیست.

 

اما در هر صورت، اگر مطالعه‌ای که در ژانویه‌ی سال ۲۰۱۸ در همین وب‌سایت منتشر شد را در نظر بگیریم، وقتی نوبت به پیش‌بینی دقیق این‌که احتمال ارتکاب مجدد جرم از جانب چه کسی بیشتر است می‌رسد، این الگوریتم بهتر از آدم‌های آموزش‌ندیده‌ای که به‌صورت تصادفی انتخاب شده‌اند عمل نمی‌کند.

۲. پیش‌داوری‌های الگوریتم پرِدپال
پرِدپال[۴] که در چندین ایالت آمریکا از آن استفاده می‌شود، الگوریتمی‌ست که با هدف کمک به کاهش سوگیری‌های انسانی در حفظ نظم، برای پیش‌بینی زمان و مکان وقوع جرم طراحی شده است. اما در سال ۲۰۱۶، گروه تحلیل داده‌های حقوق بشری[۵] به این پی برد که نرم‌افزار می‌تواند پلیس را به این سمت هدایت کند که بعضی از محله‌ها را به شکلی ناعادلانه هدف بگیرد.

 

هنگامی که محققین شبیه‌سازی‌ای از الگوریتم پرِدپال را در مورد جرائم مربوط به مواد مخدر در اوکلند کالیفرنیا ترتیب دادند، الگوریتم شبیه‌سازی‌شده مرتباً افسران پلیس را به سمت محله‌هایی می‌فرستاد که در آن‌ها تعداد زیادی از اقلیت‌های نژادی بودند، بدون توجه به میزان حقیقی جرم و جنایت در آن نواحی.

مدیرعامل پرِدپال در پاسخ اشاره می‌کند که داده‌های جرائم مواد مخدر از رسیدن به آستانه‌ی بی‌طرفی بازمانده و بنابراین در دنیای واقعی به‌منظور اجتناب از پیش‌داوری، از این نرم‌افزار برای پیش‌بینی جرائم مربوط به مواد مخدر استفاده نمی‌شود. با این‌حال سورِش وِنکاتاسوبرامانیان[۶] استاد دانشگاه یوتا و همکارانش ثابت کردند از آن‌جایی که نرم‌افزار بیشتر از گزارش‌های ضبط‌شده توسط پلیس یاد می‌گیرد تا از نرخ جرم واقعی، پرِدپال یک «حلقه‌ی بازخورد» می‌سازد که می‌تواند سوگیری‌های نژادی را تشدید کند.

۳. تبعیض نژادی – جنسیتی در نرم‌افزارهای تشخیص چهره
نرم‌افزار تشخیص چهره که روز به روز بیشتر در نهادهای مجری قانون استفاده می‌شود نیز خاستگاه بالقوه‌ی دیگری‌ست برای سوگیری‌های نژادی و جنسیتی. جوی باولام‌وینی[۷] در دانشگاه اِم‌آی‌تی به این مسئله پی برد که سه تا از جدیدترین هوش‌های مصنوعی تشخیص جنسیت، متعلق به آی‌بی‌اِم، مایکروسافت و شرکت چینی مگ‌وی[۸]، می‌توانستند در ۹۹ درصد موارد جنسیت یک نفر را از روی عکس تشخیص بدهند – اما فقط برای مردان سفیدپوست.

 

در مورد زنانِ با پوست تیره، دقت به تنها ۳۵ درصد کاهش می‌یافت. چیزی که خطر تشخیص اشتباه زنان و اقلیت‌ها را افزایش می‌دهد. این مورد نیز احتمالاً به داده‌هایی که الگوریتم‌ها بر اساس آن‌ها پرورانده شده‌اند برمی‌گردد: اگر به هر نحوی مردان سفیدپوست را بیشتر از زنان سیاه‌پوست دربرمی‌گیرد، در تشخیص مردان سفیدپوست موفق‌تر است.

 

آی‌بی‌اِم بلافاصله اعلام کرد که سیستمش را با مجموعه‌ای جدید از داده‌ها دوباره تعلیم داده و مایکروسافت گفت قدم‌هایی در جهت بهبود دقت برداشته است.

۴. تبعیض جنسیتی در تبلیغات گوگل
یک مطالعه در سال ۲۰۱۵ نشان داد که در قسمت جستجوی تصاویر گوگل برای واژه‌ی «مدیرعامل»، تنها ۱۱ درصد از کسانی که نشان داده می‌شدند زن بودند، با این‌که ۲۷ درصد از مدیران عامل در آمریکا زن هستند. چند ماه بعد، آنوپام داتا[۹] از دانشگاه کارنگی ملونِ پتسبورگ طی تحقیقی به این موضوع پی برد که سیستم آن‌لاین تبلیغات گوگل، مشاغل با درآمد بالا را خیلی بیشتر به مردان نشان می‌داد تا به زنان.

گوگل به این نکته اشاره کرد که متصدیان تبلیغات می‌توانند مشخص کنند تبلیغاتشان فقط به بعضی از کاربرها و یا در بعضی از وب‌سایت‌ها نشان داده شوند.

 

شرکت به مشتریانش اجازه می‌دهد که آگهی‌هایشان را بر اساس جنسیت هدف‌گیری کنند. اما داتا و همکارانش این ایده را نیز به ذهن متبادر می‌کنند که الگوریتم گوگل می‌توانسته تعیین کند که مردان به خودی خود برای مناصب اجرایی مناسب‌تر هستند، این چیزی‌ است که از رفتار کاربرانش آموخته: اگر تنها کسانی که آگهی‌های مربوط به مشاغل پردرآمد را می‌بینند و روی آن کلیک می‌کنند مردان هستند، الگوریتم خواهد آموخت که آن آگهی‌ها را فقط به مردان نشان بدهد.

پی نوشت:
[۱] COMPAS
[۲] ProPublica
[۳] Equivant
[۴] PredPol
[۵] Human Rights Data Analysis Group
[۶] Suresh Venkatasubramanian
[۷] Joy Buolamwini
[۸] Megvii
[۹] Anupam Datta

منبع:
https://www.newscientist.com/article/2166207-discriminating-algorithms-5-times-ai-showed-prejudice/
منبع: میدان

 

 

 

 

 

   
  

اخبار مرتبط:

اضافه نمودن به: Share/Save/Bookmark

نظر شما:
نام:
پست الکترونیکی:
نظر
 
  کد امنیتی:
 
   پربیننده ترین مطالب روابط عمومی  

  رنج مضاعف رسانه های محلی از مصائب فضای مجازی


  ویروس کرونا در فضاهای بسته در کمین است نه در هوای آزاد


  کدام کشورهای اروپایی در استفاده از فناوری‌های هوش مصنوعی پیشروترند؟


  اشتباهات روابط عمومی، تکراری اما حل شدنی!


  رئیس کل بیمه مرکزی در جمع مدیران روابط عمومی صنعت بیمه: بیان دستاوردهای صنعت بیمه به تقویت گفتمان مردمی منتهی می‌شود


  اولین کنفرانس بین المللی بازاریابی صنعتی برگزار می شود


  مدیرکل روابط‌عمومی استانداری سمنان: عقب‌ماندگی‌های حوزه روابط عمومی در سمنان جبران شود


  رسانه‌ یا روابط عمومی؟


  دستورالعمل الزامات ارتقای سواد فضای مجازی


  تبیین برنامه راهبردی مرکز روابط عمومی وزارت صمت در سال ۱۴۰۰


 
 
 
مقالات
گفتگو
گزارش
آموزش
جهان روابط عمومی
مدیریت
رویدادها
روابط عمومی ایران
کتابخانه
تازه های شبکه
آخرین رویدادها
فن آوری های نو
تبلیغات و بازاریابی
ایده های برتر
بادپخش صوتی
گزارش تصویری
پیشنهادهای کاربران
اخبار بانک و بیمه
نیازمندی ها
خدمات
خبرنگار افتخاری
بخش اعضا
دانلود کتاب
پیوندها
جستجوی پیشرفته
موبایل
آر اس اس
بخشنامه ها
پیشکسوتان
لوح های سپاس
پیام های تسلیت
مناسبت ها
جملات حکیمانه
پایان نامه ها
درباره شارا
تماس با ما
Shara English
Public Relation
Social Media
Marketing
Events
Mobile
Content
Iran Pr
About Us - Contact US - Search
استفاده از مطالب این سایت با درج منبع مجاز است
تمام حقوق مادی و معنوی این سایت متعلق به شارا است
info@shara.ir
  خبر فوری: فراخوان جشنواره و نخستین همایش روابط‌عمومی در سال 1400