شبکه اطلاعرسانی روابطعمومی ایران (شارا) || در مقاله “چه میشد اگر همه ما بتوانیم هوش مصنوعی را کنترل کنیم؟” که توسط کوین روز برای نیویورکتایمز نوشته شده است، نویسنده آزمایش جدیدی را توسط آنتروپیک، سازنده چتبات کلود، بررسی میکند. در این آزمایش، شرکت از حدود 1000 آمریکایی خواست تا قوانینی را برای چتربات خود بنویسند. نتایج میتواند الگویی برای انواع آینده حکمرانی هوش مصنوعی باشد.
برخی از نگرانیهای اصلی عبارتند از:
خطر تبعیض: مردم نگران بودند که هوش مصنوعی میتواند برای تبعیض علیه گروههای خاص استفاده شود.
خطر سو استفاده: مردم نگران بودند که هوش مصنوعی میتواند برای مقاصد مضر مانند تروریسم یا انتشار اطلاعات نادرست استفاده شود.
خطر از دست دادن کنترل: مردم نگران بودند که هوش مصنوعی میتواند به قدری قدرتمند شود که از کنترل انسان خارج شود.
برخی از قوانینی که توسط شرکتکنندگان در آزمایش پیشنهاد شد عبارتند از:
– ربات چت باید به طور شفاف و صادقانه عمل کند.
– ربات چت نباید از اطلاعات شخصی شرکتکنندگان بدون رضایت آنها استفاده کند.
– ربات چت نباید برای اهداف مضر مانند انتشار اطلاعات نادرست یا ایجاد تعصب استفاده شود.
این قوانین نسبتاً مبهم هستند و تفسیر آنها ممکن است دشوار باشد. با این حال، آنها نقطه شروع خوبی برای بحث در مورد اینکه چگونه باید هوش مصنوعی را کنترل کرد.
در نهایت، شرکت از نتایج آزمایش برای آموزش چتربات خود استفاده کرد. با این حال، مقاله نشان میدهد که مردم نگرانیهای جدی در مورد هوش مصنوعی دارند و این نگرانیها باید مورد توجه قرار گیرند.
در اینجا چند راه برای کاهش خطرات هوش مصنوعی وجود دارد:
شفافیت و پاسخگویی: مردم باید بتوانند نحوه کار هوش مصنوعی و نحوه استفاده از آن را درک کنند. شرکتها باید برای پاسخگویی به نحوه استفاده از هوش مصنوعی خود پاسخگو باشند.
مقررات: دولتها باید قوانینی را وضع کنند که از استفاده مضر از هوش مصنوعی جلوگیری کند.
آموزش و آگاهی: مردم باید در مورد پتانسیل خطرات هوش مصنوعی آموزش ببینند.
برخی از نکات برجسته مقاله عبارتند از:
– یکی از شدیدترین بحثها در دره سیلیکون این است که چه کسی باید هوش مصنوعی را کنترل کند و چه کسی باید قوانینی را که سیستمهای هوش مصنوعی قدرتمند باید از آن پیروی کنند، وضع کند.
– آنتروپیک یک راه میانه عجیب و غریب ارایه میدهد: اگر یک شرکت هوش مصنوعی به گروهی از شهروندان عادی اجازه دهد قوانینی را بنویسند و یک ربات چت را آموزش دهد تا از آنها پیروی کند، چه؟
– نتایج آزمایش آنتروپیک نشان داد که مردم نگرانیهای زیادی در مورد هوش مصنوعی دارند، از جمله تبعیض، سوء استفاده و خطرات امنیتی.
– مردم همچنین معتقدند که هوش مصنوعی باید برای خیر بشریت استفاده شود و باید برای محافظت از حقوق بشر طراحی شود.
من فکر میکنم آزمایش آنتروپیک یک ایده جالب است. این یک راه برای درگیر کردن مردم در بحث هوش مصنوعی و کمک به اطمینان از اینکه سیستمهای هوش مصنوعی بهگونهای طراحی و استفاده میشوند که برای بشریت مفید باشد.
با این حال، من معتقدم که این آزمایش تنها یک قدم کوچک در مسیر حکمرانی هوش مصنوعی است. مهم است که به یاد داشته باشید که مردم دارای پیش داوری ها و سوگیریهای خود هستند. بنابراین، مهم است که قوانین هوش مصنوعی توسط یک گروه متنوع از افراد و سازمانها توسعه یابد، از جمله کارشناسان هوش مصنوعی، متخصصان اخلاق و نمایندگان جامعه مدنی.
من مشتاقم ببینم که این آزمایش در آینده چگونه توسعه مییابد. من معتقدم که این میتواند یک ابزار ارزشمند برای کمک به اطمینان از اینکه هوش مصنوعی بهگونهای توسعه و استفاده میشود که برای همه مفید باشد.
کوین روز
مجله نیویورکتایمز
انتهای پیام/
<div id=”div_eRasanehTrustseal_24429″></div>
<script src=”https://trustseal.e-rasaneh.ir/trustseal.js”></script>
<script>eRasaneh_Trustseal(24429, false);</script>
با کلیک روی لینک زیر به کانال روشهای ما بپیوندید:
نظر بدهید