چه می‌شد اگر همه ما بتوانیم هوش مصنوعی را کنترل کنیم؟

دولت‌ها باید قوانینی را وضع کنند که از استفاده مضر از هوش مصنوعی جلوگیری کند.

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || در مقاله “چه می‌شد اگر همه ما بتوانیم هوش مصنوعی را کنترل کنیم؟” که توسط کوین روز برای نیویورک‌تایمز نوشته شده است، نویسنده آزمایش جدیدی را توسط آنتروپیک، سازنده چت‌بات کلود، بررسی می‌کند. در این آزمایش، شرکت از حدود 1000 آمریکایی خواست تا قوانینی را برای چت‌ربات خود بنویسند. نتایج می‌تواند الگویی برای انواع آینده حکمرانی هوش مصنوعی باشد.

برخی از نگرانی‌های اصلی عبارتند از:
خطر تبعیض: مردم نگران بودند که هوش مصنوعی می‌تواند برای تبعیض علیه گروه‌های خاص استفاده شود.
خطر سو استفاده: مردم نگران بودند که هوش مصنوعی می‌تواند برای مقاصد مضر مانند تروریسم یا انتشار اطلاعات نادرست استفاده شود.
خطر از دست دادن کنترل: مردم نگران بودند که هوش مصنوعی می‌تواند به قدری قدرتمند شود که از کنترل انسان خارج شود.

برخی از قوانینی که توسط شرکت‌کنندگان در آزمایش پیشنهاد شد عبارتند از:
– ربات چت باید به طور شفاف و صادقانه عمل کند.
– ربات چت نباید از اطلاعات شخصی شرکت‌کنندگان بدون رضایت آنها استفاده کند.
– ربات چت نباید برای اهداف مضر مانند انتشار اطلاعات نادرست یا ایجاد تعصب استفاده شود.

این قوانین نسبتاً مبهم هستند و تفسیر آنها ممکن است دشوار باشد. با این حال، آنها نقطه شروع خوبی برای بحث در مورد اینکه چگونه باید هوش مصنوعی را کنترل کرد.

در نهایت، شرکت از نتایج آزمایش برای آموزش چت‌ربات خود استفاده کرد. با این حال، مقاله نشان می‌دهد که مردم نگرانی‌های جدی در مورد هوش مصنوعی دارند و این نگرانی‌ها باید مورد توجه قرار گیرند.

در اینجا چند راه برای کاهش خطرات هوش مصنوعی وجود دارد:
شفافیت و پاسخگویی: مردم باید بتوانند نحوه کار هوش مصنوعی و نحوه استفاده از آن را درک کنند. شرکت‌ها باید برای پاسخگویی به نحوه استفاده از هوش مصنوعی خود پاسخگو باشند.
مقررات: دولت‌ها باید قوانینی را وضع کنند که از استفاده مضر از هوش مصنوعی جلوگیری کند.
آموزش و آگاهی: مردم باید در مورد پتانسیل خطرات هوش مصنوعی آموزش ببینند.

برخی از نکات برجسته مقاله عبارتند از:
– یکی از شدیدترین بحث‌ها در دره سیلیکون این است که چه کسی باید هوش مصنوعی را کنترل کند و چه کسی باید قوانینی را که سیستم‌های هوش مصنوعی قدرتمند باید از آن پیروی کنند، وضع کند.
– آنتروپیک یک راه میانه عجیب و غریب ارایه می‌دهد: اگر یک شرکت هوش مصنوعی به گروهی از شهروندان عادی اجازه دهد قوانینی را بنویسند و یک ربات چت را آموزش دهد تا از آنها پیروی کند، چه؟
– نتایج آزمایش آنتروپیک نشان داد که مردم نگرانی‌های زیادی در مورد هوش مصنوعی دارند، از جمله تبعیض، سوء استفاده و خطرات امنیتی.
– مردم همچنین معتقدند که هوش مصنوعی باید برای خیر بشریت استفاده شود و باید برای محافظت از حقوق بشر طراحی شود.

من فکر می‌کنم آزمایش آنتروپیک یک ایده جالب است. این یک راه برای درگیر کردن مردم در بحث هوش مصنوعی و کمک به اطمینان از اینکه سیستم‌های هوش مصنوعی به‌گونه‌ای طراحی و استفاده می‌شوند که برای بشریت مفید باشد.

با این حال، من معتقدم که این آزمایش تنها یک قدم کوچک در مسیر حکمرانی هوش مصنوعی است. مهم است که به یاد داشته باشید که مردم دارای پیش داوری ها و سوگیری‌های خود هستند. بنابراین، مهم است که قوانین هوش مصنوعی توسط یک گروه متنوع از افراد و سازمان‌ها توسعه یابد، از جمله کارشناسان هوش مصنوعی، متخصصان اخلاق و نمایندگان جامعه مدنی.

من مشتاقم ببینم که این آزمایش در آینده چگونه توسعه می‌یابد. من معتقدم که این می‌تواند یک ابزار ارزشمند برای کمک به اطمینان از اینکه هوش مصنوعی به‌گونه‌ای توسعه و استفاده می‌شود که برای همه مفید باشد.

کوین روز

مجله نیویورک‌تایمز

انتهای پیام/

<div id=”div_eRasanehTrustseal_24429″></div>
<script src=”https://trustseal.e-rasaneh.ir/trustseal.js”></script>
<script>eRasaneh_Trustseal(24429, false);</script>

با کلیک روی لینک زیر به کانال روش‌های ما بپیوندید:

https://telegram.me/sharaPR