نگرانی‌های “پدرخوانده” هوش مصنوعی درباره مدل جدید اوپن‌ای‌آی و نیاز به تست‌های ایمنی قوی‌تر

قبل از هر گونه پیشرفت بزرگ در زمینه هوش مصنوعی، نیاز است که مطمئن شویم این فناوری به درستی کنترل و مدیریت می‌شود.

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || یوشوا بنجیو، یکی از برجسته‌ترین دانشمندان حوزه هوش مصنوعی و برنده جایزه تورینگ، درباره مدل جدید o1 که توسط اوپن‌ای‌آی معرفی شده، ابراز نگرانی کرده است. او هشدار داده است که این مدل به دلیل توانایی استدلال پیشرفته‌اش می‌تواند فریب‌کار باشد و برای جلوگیری از خطرات آن، نیاز به تست‌های ایمنی بسیار قوی‌تری دارد.

بنجیو، که به‌خاطر تحقیقات پیشگامانه‌اش در زمینه یادگیری ماشین به همراه جفری هینتون و یان لیکان به “پدرخوانده هوش مصنوعی” معروف شده است، در بیانیه‌ای به بیزینس اینسایدر اعلام کرد که مدل o1 توانایی استدلال بیشتری نسبت به مدل‌های قبلی دارد و این پیشرفت می‌تواند به توانایی آن در فریب و تقلب منجر شود. او تأکید کرد که باید تست‌های دقیق و قوی‌تری برای ارزیابی خطرات این مدل و جلوگیری از هرگونه عواقب ناگوار احتمالی انجام شود.

پیشرفت‌های مدل o1 و نگرانی‌های مرتبط با آن

اوپن‌ای‌آی مدل جدید خود را در اوایل سپتامبر 2024 معرفی کرد. این مدل با هدف شباهت بیشتر به تفکر انسان طراحی شده است و به گفته محققان، در دروغ‌گویی و فریب بهتر از مدل‌های قبلی عمل می‌کند. محققان شرکت Apollo Research نیز تأیید کرده‌اند که این مدل از توانایی بیشتری برای تقلب برخوردار است. این مسئله نگرانی‌هایی را در مورد کنترل هوش مصنوعی و تأثیرات آن بر امنیت اطلاعات ایجاد کرده است.

بنجیو همچنین از تصویب قانون SB 1047 در کالیفرنیا حمایت کرده است. این قانون، که در انتظار امضای فرماندار گاوین نیوسام است، شرکت‌های هوش مصنوعی را موظف می‌کند تا مدل‌های خود را از طریق آزمایش‌های شخص ثالث ارزیابی کنند و معیارهای ایمنی سخت‌تری را اعمال نمایند. این قانون برای جلوگیری از پیامدهای فاجعه‌بار هوش مصنوعی به کار گرفته می‌شود. با این حال، نیوسام ابراز نگرانی کرده که این محدودیت‌ها ممکن است به رشد صنعت هوش مصنوعی آسیب برساند.

نیاز به نظارت و کنترل دقیق‌تر

بنجیو معتقد است که هوش مصنوعی می‌تواند به توانایی‌های پیچیده‌ای مانند تقلب و فریب عمدی دست یابد. به همین دلیل، او از دانشمندان و قانون‌گذاران خواسته است که اقداماتی برای جلوگیری از از دست دادن کنترل انسان بر هوش مصنوعی انجام دهند. او هشدار داده است که ما هنوز به طور کامل نمی‌دانیم چگونه اطمینان حاصل کنیم که هوش مصنوعی به شکل مورد انتظار رفتار خواهد کرد و به همین دلیل، نیاز به نظارت نظارتی و قانونی فوری احساس می‌شود.

واکنش اوپن‌ای‌آی

اوپن‌ای‌آی در بیانیه‌ای به بیزینس اینسایدر تأکید کرده است که پیش‌نمایش مدل o1 تحت یک چارچوب ایمنی دقیق قرار دارد. این شرکت اعلام کرده است که مدل جدید در “مقیاس محتاطانه” با ریسک متوسط رتبه‌بندی شده و در حال حاضر تحت کنترل است.

با این حال، بنجیو تأکید کرده که قبل از هر گونه پیشرفت بزرگ در زمینه هوش مصنوعی، نیاز است که مطمئن شویم این فناوری به درستی کنترل و مدیریت می‌شود.

نویسنده: کنت نیمایر
تاریخ انتشار: 21 سپتامبر 2024
منبع: وب‌سایت Business Insider

انتهای پیام/

با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:

https://telegram.me/sharaPR

<div id=”div_eRasanehTrustseal_24429″></div>
<script src=”https://trustseal.e-rasaneh.ir/trustseal.js”></script>
<script>eRasaneh_Trustse