درباره شارا | تماس | جستجوی پیشرفته | پیوندها | موبایل | RSS
 خانه    تازه ها    پایگاه اخبار    پایگاه اندیشه    پایگاه کتاب    پایگاه اطلاعات    پایگاه بین الملل    پایگاه چندرسانه ای    پایگاه امکانات  
جمعه، 10 فروردین 1403 - 10:17   

ساخت قدرتمندترین مدل هوش مصنوعی منبع باز جهان: DBRX

  ساخت قدرتمندترین مدل هوش مصنوعی منبع باز جهان: DBRX


ادامه ادامه مطلب یک

4.5 میلیون برابر اینترنت سریعتر؟ دانشگاه استون این امکان را فراهم می‌کند

  4.5 میلیون برابر اینترنت سریعتر؟ دانشگاه استون این امکان را فراهم می‌کند


ادامه ادامه مطلب دو

ان بی سی پس از واکنش‌های شدید، استخدام رونا مک‌دانیل را لغو کرد

  ان بی سی پس از واکنش‌های شدید، استخدام رونا مک‌دانیل را لغو کرد


ادامه ادامه مطلب سه

انویدیا در مرکز جهان هوش مصنوعی قرار دارد

  انویدیا در مرکز جهان هوش مصنوعی قرار دارد


ادامه ادامه مطلب چهار

   آخرین مطالب روابط عمومی  
  کمپین‌های داده
  تاثیر ادراک بر تصمیم‌گیری در شرایط پرخطر
  اولین مدل زبان بزرگ هوش مصنوعی «منصفانه آموزش دیده» اینجاست
  جستجوی عمیق بینگ به طور رسمی برای همه کاربران فعال شد
  هوش مصنوعی گوگل می‌تواند چندین کتاب را جذب کند. با این همه داده چه خواهد کرد؟
  به دنبال تغییر نام تجاری هستید؟
  فناوری سلامت پوشیدنی: روند نوظهور با پتانسیل عظیم
  انویدیا در مرکز جهان هوش مصنوعی قرار دارد
  چرا هیچ کس دیگر نمی‌خواهد مدیر میانی باشد
  آژانس‌های روابط‌عمومی جهانی برای راه‌اندازی کمپین بحران آب و هوایی UNDP/ICCO همکاری می‌کنند
ادامه آخرین مطالب روابط عمومی
- اندازه متن: + -  کد خبر: 36865صفحه نخست » فناوری نو و هوش مصنوعیسه شنبه، 9 بهمن 1397 - 22:51
الگوریتم‌های تبعیض‌آمیز: چهار نمونه از پیش‌داوری‌های هوش مصنوعی
دنیل کاسینز — سارا یاوری - یک مطالعه در سال ۲۰۱۵ نشان داد که در قسمت جستجوی تصاویر گوگل برای واژه‌ی «مدیرعامل»، تنها ۱۱ درصد از کسانی که نشان داده می‌شدند زن بودند، با این‌که ۲۷ درصد از مدیران عامل در آمریکا زن هستند. چند ماه بعد، آنوپام داتا[۹] از دانشگاه کارنگی ملونِ پتسبورگ طی تحقیقی به این موضوع پی برد که سیستم آن‌لاین تبلیغات گوگل، مشاغل با درآمد بالا را خیلی بیشتر به مردان نشان می‌داد تا به زنان.
  

شبکه اطلاع رسانی روابط عمومی ایران (شارا)-|| هوش مصنوعی قرار است زندگی را برای همه‌ی ما آسان‌تر کند، این پدیده اما مستعد افزایش سوگیری‌های جنسیت‌زده و نژادپرستانه نیز است.

زندگی مدرن بر پایه‌ی الگوریتم‌های هوشمند جریان دارد. برنامه‌های کامپیوتری خودارتقادهنده که داده‌ها را می‌بلعند و بستر انقلاب هوش مصنوعی هستند همین حالا هم نتایج جستجوی گوگل، فید خبری فیس‌بوک و پیشنهادهای خرید آنلاین را تعیین می‌کنند.

 

حتی بیشتر از این، تصمیم می‌گیرند با چه سهولتی وام و یا یک مصاحبه‌ی کاری بگیریم، احتمال توقیف ماشین و گشته شدن توسط پلیس در راه خانه، و هم‌چنین این‌که اگر مرتکب جرمی شویم با چه مجازات‌هایی روبرو خواهیم شد.

پس بر این اساس باید در تصمیم‌گیری‌هایشان بری از خطا باشند، درست است؟ خیر، اشتباه است. داده‌های ورودی منحرف‌شده، منطق اشتباه یا تنها پیش‌داوری‌های برنامه‌نویسان آن‌ها به این معنی هستند که هوش‌های مصنوعی هم به‌راحتی سوگیری‌های انسانی را بازتولید و حتی تشدید می‌کنند. پنج مثالی که در ادامه می‌آیند موید همین نکته هستند.

۱. تبعیض نژادی در الگوریتم کامپِس
کامپس[۱] الگوریتمی‌ست که با پیش‌بینی احتمال ارتکاب مجدد جرم برای هدایت روند صدور حکم به‌طور گسترده در آمریکا استفاده می‌شود. احتمالا در بدآوازه‌ترین نمونه‌ی پیش‌داوری هوش مصنوعی، در ماه مه سال ۲۰۱۶ سازمان خبری غیرانتفاعی پروپوبلیکا[۲] گزارش داد که کامپس از نظر نژادی جانبدارانه است. طبق تحلیل پروپوبلیکا، سیستم ریسک ارتکاب مجدد جرم توسط متهمان سیاه‌پوست را بیشتر در نظر گرفته و عکس این حالت را برای متهمان سفیدپوست متصور می‌شود. اِکویونت[۳]، شرکت توسعه‌دهنده‌ی نرم‌افزار، این مسئله را نمی‌پذیرد.

تشخیص واقعیت، یا این‌که جهت‌گیری از کجا ممکن است نشات بگیرد، دشوار است، چرا که الگوریتم در مالکیت انحصاری توسعه‌دهندگانش بوده و برای بررسی دقیق در دسترس نیست.

 

اما در هر صورت، اگر مطالعه‌ای که در ژانویه‌ی سال ۲۰۱۸ در همین وب‌سایت منتشر شد را در نظر بگیریم، وقتی نوبت به پیش‌بینی دقیق این‌که احتمال ارتکاب مجدد جرم از جانب چه کسی بیشتر است می‌رسد، این الگوریتم بهتر از آدم‌های آموزش‌ندیده‌ای که به‌صورت تصادفی انتخاب شده‌اند عمل نمی‌کند.

۲. پیش‌داوری‌های الگوریتم پرِدپال
پرِدپال[۴] که در چندین ایالت آمریکا از آن استفاده می‌شود، الگوریتمی‌ست که با هدف کمک به کاهش سوگیری‌های انسانی در حفظ نظم، برای پیش‌بینی زمان و مکان وقوع جرم طراحی شده است. اما در سال ۲۰۱۶، گروه تحلیل داده‌های حقوق بشری[۵] به این پی برد که نرم‌افزار می‌تواند پلیس را به این سمت هدایت کند که بعضی از محله‌ها را به شکلی ناعادلانه هدف بگیرد.

 

هنگامی که محققین شبیه‌سازی‌ای از الگوریتم پرِدپال را در مورد جرائم مربوط به مواد مخدر در اوکلند کالیفرنیا ترتیب دادند، الگوریتم شبیه‌سازی‌شده مرتباً افسران پلیس را به سمت محله‌هایی می‌فرستاد که در آن‌ها تعداد زیادی از اقلیت‌های نژادی بودند، بدون توجه به میزان حقیقی جرم و جنایت در آن نواحی.

مدیرعامل پرِدپال در پاسخ اشاره می‌کند که داده‌های جرائم مواد مخدر از رسیدن به آستانه‌ی بی‌طرفی بازمانده و بنابراین در دنیای واقعی به‌منظور اجتناب از پیش‌داوری، از این نرم‌افزار برای پیش‌بینی جرائم مربوط به مواد مخدر استفاده نمی‌شود. با این‌حال سورِش وِنکاتاسوبرامانیان[۶] استاد دانشگاه یوتا و همکارانش ثابت کردند از آن‌جایی که نرم‌افزار بیشتر از گزارش‌های ضبط‌شده توسط پلیس یاد می‌گیرد تا از نرخ جرم واقعی، پرِدپال یک «حلقه‌ی بازخورد» می‌سازد که می‌تواند سوگیری‌های نژادی را تشدید کند.

۳. تبعیض نژادی – جنسیتی در نرم‌افزارهای تشخیص چهره
نرم‌افزار تشخیص چهره که روز به روز بیشتر در نهادهای مجری قانون استفاده می‌شود نیز خاستگاه بالقوه‌ی دیگری‌ست برای سوگیری‌های نژادی و جنسیتی. جوی باولام‌وینی[۷] در دانشگاه اِم‌آی‌تی به این مسئله پی برد که سه تا از جدیدترین هوش‌های مصنوعی تشخیص جنسیت، متعلق به آی‌بی‌اِم، مایکروسافت و شرکت چینی مگ‌وی[۸]، می‌توانستند در ۹۹ درصد موارد جنسیت یک نفر را از روی عکس تشخیص بدهند – اما فقط برای مردان سفیدپوست.

 

در مورد زنانِ با پوست تیره، دقت به تنها ۳۵ درصد کاهش می‌یافت. چیزی که خطر تشخیص اشتباه زنان و اقلیت‌ها را افزایش می‌دهد. این مورد نیز احتمالاً به داده‌هایی که الگوریتم‌ها بر اساس آن‌ها پرورانده شده‌اند برمی‌گردد: اگر به هر نحوی مردان سفیدپوست را بیشتر از زنان سیاه‌پوست دربرمی‌گیرد، در تشخیص مردان سفیدپوست موفق‌تر است.

 

آی‌بی‌اِم بلافاصله اعلام کرد که سیستمش را با مجموعه‌ای جدید از داده‌ها دوباره تعلیم داده و مایکروسافت گفت قدم‌هایی در جهت بهبود دقت برداشته است.

۴. تبعیض جنسیتی در تبلیغات گوگل
یک مطالعه در سال ۲۰۱۵ نشان داد که در قسمت جستجوی تصاویر گوگل برای واژه‌ی «مدیرعامل»، تنها ۱۱ درصد از کسانی که نشان داده می‌شدند زن بودند، با این‌که ۲۷ درصد از مدیران عامل در آمریکا زن هستند. چند ماه بعد، آنوپام داتا[۹] از دانشگاه کارنگی ملونِ پتسبورگ طی تحقیقی به این موضوع پی برد که سیستم آن‌لاین تبلیغات گوگل، مشاغل با درآمد بالا را خیلی بیشتر به مردان نشان می‌داد تا به زنان.

گوگل به این نکته اشاره کرد که متصدیان تبلیغات می‌توانند مشخص کنند تبلیغاتشان فقط به بعضی از کاربرها و یا در بعضی از وب‌سایت‌ها نشان داده شوند.

 

شرکت به مشتریانش اجازه می‌دهد که آگهی‌هایشان را بر اساس جنسیت هدف‌گیری کنند. اما داتا و همکارانش این ایده را نیز به ذهن متبادر می‌کنند که الگوریتم گوگل می‌توانسته تعیین کند که مردان به خودی خود برای مناصب اجرایی مناسب‌تر هستند، این چیزی‌ است که از رفتار کاربرانش آموخته: اگر تنها کسانی که آگهی‌های مربوط به مشاغل پردرآمد را می‌بینند و روی آن کلیک می‌کنند مردان هستند، الگوریتم خواهد آموخت که آن آگهی‌ها را فقط به مردان نشان بدهد.

پی نوشت:
[۱] COMPAS
[۲] ProPublica
[۳] Equivant
[۴] PredPol
[۵] Human Rights Data Analysis Group
[۶] Suresh Venkatasubramanian
[۷] Joy Buolamwini
[۸] Megvii
[۹] Anupam Datta

منبع:
https://www.newscientist.com/article/2166207-discriminating-algorithms-5-times-ai-showed-prejudice/
منبع: میدان

 

 

 

 

 

   
  

اخبار مرتبط:

اضافه نمودن به: Share/Save/Bookmark

نظر شما:
نام:
پست الکترونیکی:
نظر
 
  کد امنیتی:
 
   پربیننده ترین مطالب روابط عمومی  

  روزنامه‌های محلی: هنوز ارزشمند، اما نیاز به حمایت دارند


  چرا هیچ کس دیگر نمی‌خواهد مدیر میانی باشد


  به دنبال تغییر نام تجاری هستید؟


  رسانه‌های اجتماعی مغز ما را تخلیه می‌کنند و بر تصمیم‌گیری ما تأثیر می‌گذارند


  نتایج یک مطالعه: روابط‌عمومی تأثیر قابل توجهی بر رشد کسب‌وکار دارد


  رسانه سمی


  چگونه از بحران هویت در میانه شغلی جلوگیری کنیم


  روابط‌عمومی برای استارت‌آپ‌ها


  چگونه روابط‌عمومی می‌تواند به توسعه هویت در جامعه داخلی کمک کند؟


  رزومه خلاقانه‌ای که به شغل دلخواه در گوگل انجامید


 
 
 
مقالات
گفتگو
گزارش
آموزش
جهان روابط عمومی
مدیریت
رویدادها
روابط عمومی ایران
کتابخانه
تازه های شبکه
آخرین رویدادها
فن آوری های نو
تبلیغات و بازاریابی
ایده های برتر
بادپخش صوتی
گزارش تصویری
پیشنهادهای کاربران
اخبار بانک و بیمه
نیازمندی ها
خدمات
خبرنگار افتخاری
بخش اعضا
دانلود کتاب
پیوندها
جستجوی پیشرفته
موبایل
آر اس اس
بخشنامه ها
پیشکسوتان
لوح های سپاس
پیام های تسلیت
مناسبت ها
جملات حکیمانه
پایان نامه ها
درباره شارا
تماس با ما
Shara English
Public Relation
Social Media
Marketing
Events
Mobile
Content
Iran Pr
About Us - Contact US - Search
استفاده از مطالب این سایت با درج منبع مجاز است
تمام حقوق مادی و معنوی این سایت متعلق به شارا است
info@shara.ir
  خبر فوری: معرفی کتاب «هوش مصنوعی روابط‌عمومی در عمل» منتشر شد