درباره شارا | تماس | جستجوی پیشرفته | پیوندها | موبایل | RSS
 خانه    تازه ها    پایگاه اخبار    پایگاه اندیشه    پایگاه کتاب    پایگاه اطلاعات    پایگاه بین الملل    پایگاه چندرسانه ای    پایگاه امکانات  
جمعه، 31 فروردین 1403 - 21:40   

متا لامای ۳ و به‌روزرسانی هوش مصنوعی را منتشر کرد

  متا لامای ۳ و به‌روزرسانی هوش مصنوعی را منتشر کرد


ادامه ادامه مطلب یک

متا تولید تصاویر هوش مصنوعی در زمان واقعی را به واتس‌اپ می‌آورد!

  متا تولید تصاویر هوش مصنوعی در زمان واقعی را به واتس‌اپ می‌آورد!


ادامه ادامه مطلب دو

برندگان جوایز جهانی عکاسی سونی 2024 معرفی شدند!

  برندگان جوایز جهانی عکاسی سونی 2024 معرفی شدند!


ادامه ادامه مطلب سه

مسابقه عکس جهانی مطبوعات 2024: برندگان مشخص شدند

  مسابقه عکس جهانی مطبوعات 2024: برندگان مشخص شدند


ادامه ادامه مطلب چهار

   آخرین مطالب روابط عمومی  
  کثرت‌گرایی رسانه‌ای و حق آگاهی مردم
  باج دادن به باجگیران رسانه‌ای: اشتباهی که نباید مرتکب شوید
  متا لامای ۳ و به‌روزرسانی هوش مصنوعی را منتشر کرد
  ابزار هوش مصنوعی جدید مایکروسافت یک ماشین کابوس عمیق است
  متا تولید تصاویر هوش مصنوعی در زمان واقعی را به واتس‌اپ می‌آورد!
  کارولین هاید، مجری بلومبرگ، می‌گوید سابقه روابط‌عمومی به او کمک کرده است
  هوش مصنوعی و فرسایش شناخت انسان
  برندگان جوایز جهانی عکاسی سونی 2024 معرفی شدند!
  اپل به دستور دولت چین، واتس‌اپ و تردز را از اپ استور چین حذف کرد
  مسابقه عکس جهانی مطبوعات 2024: برندگان مشخص شدند
ادامه آخرین مطالب روابط عمومی
- اندازه متن: + -  کد خبر: 39976صفحه نخست » سه شنبه، 5 شهریور 1398 - 00:14
آمازون و مایکروسافت با ساختن روبات های قاتل دنیا را به خطر می اندازند
آمازون و مایکروسافت، غول های بزرگ فناوری، با دستیابی به تکنولوژی هوش مصنوعی کُشنده و ساخت روبات های قاتل، جهان را در معرض خطر قرار خواهند داد.
  

 شبکه اطلاع رسانی روابط عمومی ایران (شارا)-|| آمازون و مایکروسافت، غول های بزرگ فناوری، با دستیابی به تکنولوژی هوش مصنوعی کُشنده و ساخت روبات های قاتل، جهان را در معرض خطر قرار خواهند داد.
 
 به گزارش زومیت به نقل از خبرگزاری فرانسه (AFP)، براساس نتایج نظرسنجی از افراد مهم و تأثیرگذار حوزه فناوری درباره سلاح های مستقل کشنده و مرگ بار، آمازون و مایکروسافت و اینتل سه غول بزرگ و برتر فناوری، با ساخت روبات های قاتل، جهان را در معرض خطر قرار می دهند. سازمان غیردولتی هلندی پکس (Dutch NGO Pax) شرکت ها را با سه معیار رتبه بندی کرده است. این سه معیار عبارتند از:
 
 • آیا در حال توسعه فناوری مرتبط با هوش مصنوعی مرگبار هستند؟
 • آیا مشغول انجام پروژه های نظامی مرتبط هستند؟
 • آیا به منع مشارکت در پروژه های مربوط به آینده متعهد شده اند یا خیر؟
 
 فرانک اسلیپر، نویسنده اصلی گزارش منتشرشده، گفت: چرا شرکت هایی مانند مایکروسافت و آمازون انکار نمی کنند در حال حاضر مشغول تولید چنین سلاح های بسیار بحث برانگیزی هستند که بدون دخالت مستقیم انسان می توانند به کشتن افراد تصمیم بگیرند؟
 
 استفاده از هوش مصنوعی در سیستم های تسلیحاتی که به طور مستقل به آنها اجازه انتخاب و حمله به هدف داده می شود، بحث های اخلاقی زیادی در سال های اخیر برانگیخته است. منتقدان هشدار می دهند چنین اقداماتی می تواند امنیت بین المللی را به خطر بیندازد و پس از اختراع باروت و بمب اتمی، به انقلاب سوم در ساخت جنگ افزارها منجر شود. روز چهارشنبه گذشته، هیاتی از کارشناسان دولتی درباره سیاست های مربوط به سلاح های مستقل کشنده جلسه ای در مقر سازمان ملل در ژنو ترتیب دادند تا درباره سلاح های متعارف خاص بحث و تبادل نظر کنند.
 
 برخلاف آمازون و مایکروسافت، گوگل که سال گذشته «اصول راهنما و پایه ای جلوگیری از استفاده از هوش مصنوعی در سیستم های تسلیحاتی» را منتشر کرده بود، در سوی دیگر این رده بندی به همراه سافت بانک ژاپن در زمره شرکت هایی با «بهترین عملکرد» قرار گرفته است. این در حالی است که ۲۲ شرکت در وضعیت «نگرانی متوسط» و ۲۱شرکت دیگر در وضعیت «نگرانی شدید» قرار داشتند.
 
 در این فهرست، نام دو شرکت بزرگ و نام آشنا، آمازون و مایکروسافت به چشم می خورد که هر دو با پیشنهاد ۱۰ میلیارد دلاری پنتاگون برای تأمین زیرساخت های خدمات ابری برای ارتش ایالات متحده مواجه شده اند. از دیگر شرکت های بزرگ فناوری که در دسته «نگرانی شدید» قرار دارند، می توان به پلنتیر (Palantir) اشاره کرد. این شرکت در سازمان سرمایه گذاری موردحمایت سیا ریشه دارد و ۸۰۰ میلیون دلاری برای ساخت سیستم هوش مصنوعی به آن اعطا شده است که می تواند به سربازان کمک کند به طور هم زمان منطقه نبرد را تحلیل کنند.
 
 استوارت راسل، استاد علوم کامپیوتر در دانشگاه برکلی، به خبرگزاری AFP گفت: سلاح های مستقل به ناچار به سلاح های مقیاس کشتار جمعی تبدیل خواهند شد؛ زیرا اگر به دخالت انسان در این حلقه نیاز نباشد، تنها با وجود یک فرد می توان یک میلیون سلاح یا 100میلیون اسلحه شلیک کرد.
 
 او افزود: واقعیت این است که سلاح های مستقل را شرکت ها و نه دولت ها تولید خواهند کرد. به همین دلیل، این شرکت ها با به راه انداختن کمپین هایی برای جلوگیری از متداول شدن سلاح های خودکار، می توانند نقش تعیین کننده ای ایفا کنند.
 
 توسعه هوش مصنوعی برای اهداف نظامی بحث و اعتراض های بسیاری در این صنعت به وجود آورده است. سال گذشته گوگل از تمدید قرارداد پنتاگون به نام پروژه هوش مصنوعی Maven امتناع کرد؛ پروژه ای که از یادگیری ماشین برای تمایز افراد و اشیا در فیلم های پهپادی استفاده می کرد. همچنین، این غول دنیای جست وجو به برنامه وزارت دفاع آمریکا موسوم به «برنامه زیرساخت های دفاعی شرکت های مشترک» (JEDI) خاتمه داد؛ درحالی که آمازون و مایکروسافت امیدوار بودند از این برنامه برای قرارداد خدمات ابری خود استفاده کنند.
 
 در این گزارش آمده است کارکنان مایکروسافت نیز با قرارداد ارتش آمریکا برای استفاده از هدست واقعیت افزوده و هولولنز (HoloLens) به منظور «افزایش قابلیت مرگ آوری» در میدان نبرد مخالفت کرده اند.
 
 سلاح های خودکار چگونه خواهند بود؟
 به گفته راسل، «هر آنچه درحال حاضر به نوعی جنگ افزار محسوب می شود، قابلیت تبدیل به سلاح خودکار را دارد؛ چراکه افراد و شرکت ها در حال کار روی نسخه های مستقل و خودمختار، اعم از تانک ها یا هواپیماهای جنگنده یا زیردریایی هستند.
 
 باوجوداین، نگرانی های بیشتر درباره ظهور دسته های جدید سلاح های مستقل هنوز وجود ندارند. این سلاح های جدید شامل پهپادهای کوچک مسلح هستند که در فیلم کوتاه «پهپادهای قاتل» (Slaughterbots) سال ۲۰۱۷ به نمایش گذاشته شد.
 
 راسل بیان کرد: می توان یک میلیون از آنها را در کانتینر یا هواپیمای باری بفرستید. این پهپادها ظرفیت مخربی به اندازه بمب هسته ای دارند؛ هرچند از نظر فیزیکی خرابی به بار نمی آورند و حتی به ساختمان ها آسیب نمی زنند.
 
 با استفاده از فناوری تشخیص چهره، هواپیماهای بدون سرنشین می توانند «تنها قوم یا جنسیت خاصی را از بین ببرند» یا با استفاده از اطلاعات رسانه های اجتماعی، می توان همه افراد دارای دیدگاه سیاسی خاص را از بین برد.
 
 راسل در پایان گفت قدم بعدی باید در قالب ممنوعیت بین المللی برای تولید و استفاده از هوش مصنوعی کشنده برداشته شود. می توان به طور خلاصه گفت توسعه و استقرار و حتی استفاده از تکنولوژی هوش مصنوعی که می تواند به کشتن انسان تصمیم بگیرد، باید متوقف شود.
 

 

 

 

 

   
  

اضافه نمودن به: Share/Save/Bookmark

نظر شما:
نام:
پست الکترونیکی:
نظر
 
  کد امنیتی:
 
   پربیننده ترین مطالب روابط عمومی  

  اهمیت توسعه ارتباطات نوآورانه


  باج دادن به باجگیران رسانه‌ای: اشتباهی که نباید مرتکب شوید


  استقبال از شکست: چرا ما خجالت می‌کشیم اما نباید


  انواع مختلف شهرت


  مدیریت رشد سریع کسب‌وکار


  رازهای روابط‌عمومی


  ارتباط موثر، کلید محافظت از مردم و جامعه در برابر بحران‌های محیطی


  چگونه آگاهی زیست‌محیطی را ارتقا دهیم


  روابط‌عمومی و عجز در تهیه خبر


  هوش مصنوعی و فرسایش شناخت انسان


 
 
 
مقالات
گفتگو
گزارش
آموزش
جهان روابط عمومی
مدیریت
رویدادها
روابط عمومی ایران
کتابخانه
تازه های شبکه
آخرین رویدادها
فن آوری های نو
تبلیغات و بازاریابی
ایده های برتر
بادپخش صوتی
گزارش تصویری
پیشنهادهای کاربران
اخبار بانک و بیمه
نیازمندی ها
خدمات
خبرنگار افتخاری
بخش اعضا
دانلود کتاب
پیوندها
جستجوی پیشرفته
موبایل
آر اس اس
بخشنامه ها
پیشکسوتان
لوح های سپاس
پیام های تسلیت
مناسبت ها
جملات حکیمانه
پایان نامه ها
درباره شارا
تماس با ما
Shara English
Public Relation
Social Media
Marketing
Events
Mobile
Content
Iran Pr
About Us - Contact US - Search
استفاده از مطالب این سایت با درج منبع مجاز است
تمام حقوق مادی و معنوی این سایت متعلق به شارا است
info@shara.ir
  خبر فوری: معرفی کتاب «هوش مصنوعی روابط‌عمومی در عمل» منتشر شد