علی فرهادی یک پروژه هوش مصنوعی متن باز را رهبری می‌کند

علی فرهادی، دانشمند کامپیوتر 42 ساله، مدیر اجرایی موسسه آلن برای هوش مصنوعی، در حال انجام یک حرکت جسورانه در تحقیقات هوش مصنوعی است. او معتقد است که هوش مصنوعی مولد، که به چت ربات‌هایی مانند چت جی‌پی‌تی و بارد قدرت می‌دهد، باید به صورت متن باز باشد تا خطرات آن کاهش و نوآوری افزایش یابد.

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || علی فرهادی، دانشمند کامپیوتر 42 ساله، مدیر اجرایی موسسه آلن برای هوش مصنوعی، در حال انجام یک حرکت جسورانه در تحقیقات هوش مصنوعی است. او معتقد است که هوش مصنوعی مولد، که به چت ربات‌هایی مانند چت جی‌پی‌تی و بارد قدرت می‌دهد، باید به صورت متن باز باشد تا خطرات آن کاهش و نوآوری افزایش یابد.


موسسه آلن یک ابتکار بلندپروازانه را برای ساخت یک جایگزین هوش مصنوعی آزادانه برای غول‌های فناوری مانند گوگل و استارت‌آپ‌هایی مانند اوپن‌ای‌آی آغاز کرده است. در یک فرآیند صنعتی به نام متن باز، سایر محققان اجازه خواهند داشت که این سیستم جدید و داده‌های وارد شده به آن را مورد بررسی دقیق قرار دهند و از آن استفاده کنند.


آقای فرهادی معتقد است که این رویکرد بهترین راه برای اطمینان از اینکه هوش مصنوعی مولد برای خیر و نه برای شر مورد استفاده قرار می‌گیرد. او می‌گوید که مدل‌های تجاری بسته، که توسط شرکت‌های فناوری بزرگ توسعه یافته‌اند خطر سوء استفاده را افزایش می‌دهد.


موسسه آلن اولین گام را با انتشار مجموعه داده‌های عظیمی برای آموزش مدل‌های هوش مصنوعی برداشته است که از داده‌های در دسترس عموم از وب، کتاب‌ها، مجلات دانشگاهی و کد رایانه ساخته شده است. مجموعه داده‌ها برای حذف اطلاعات شناسایی زبان سمی مانند عبارات نژادپرستانه و ناپسند تنظیم شده است.


موسسه آلن برنامه‌ریزی کرده است تا مدل زبان باز/ متن باز (OLMo)، یک برنامه بزرگ هوش مصنوعی مولد را در سال 2024 منتشر کند. این برنامه بر روی مجموعه داده‌های متن باز موسسه آلن آموزش دیده است و به صورت متن باز در دسترس خواهد بود.


آقای فرهادی می‌گوید که این پروژه چالش‌های زیادی دارد، از جمله نیاز به قدرت محاسباتی زیادی برای آموزش مدل‌های هوش مصنوعی بزرگ. با این حال، او معتقد است که مزایای هوش مصنوعی مولد متن باز ارزش تلاش را دارد.

حامیان مدل‌های هوش مصنوعی متن باز معتقدند که این بهترین راه برای اطمینان از اینکه این فناوری به طور مسئولانه مورد استفاده قرار می‌گیرد. آنها می‌گویند که مدل‌های تجاری بسته خطر سوء استفاده را افزایش می‌دهد و نوآوری را محدود می‌کند.


منتقدان مدل‌های هوش مصنوعی متن باز می‌گویند که مدل‌های متن باز می‌توانند برای اهداف مخرب مانند تولید اطلاعات نادرست و سلاح‌های خودکار استفاده شوند.
 

تحلیل

 

آقای فرهادی در مورد رویکرد خود برای توسعه هوش مصنوعی مولد در مؤسسه هوش مصنوعی الن، استدلال‌های خوبی ارایه می‌دهد. او معتقد است که شفافیت و باز بودن بهترین راه برای اطمینان از اینکه این فناوری برای خیر مورد استفاده قرار می‌گیرد.

مدل‌های تجاری بسته، که کد و داده‌های آنها توسط شرکت‌های فناوری بزرگ مخفی نگه داشته می‌شود، خطر سوء استفاده را افزایش می‌دهد. این مدل‌ها می‌توانند برای تولید محتوای مضر، مانند اخبار جعلی یا تبلیغات هدفمند، استفاده شوند. همچنین می‌توان از آنها برای ایجاد هویت‌های جعلی یا حملات سایبری استفاده کرد.

در ادامه به برخی از مزایای رویکرد آقای فرهادی اشاره شده است:

بهبود شفافیت: مدل‌های هوش مصنوعی مولد متن باز به جامعه امکان می‌دهد تا نحوه عملکرد آنها را درک کند و خطرات احتمالی آنها را شناسایی کند.


کاهش خطر سوء استفاده: مدل‌های متن باز به محققان و کارشناسان امکان می‌دهد تا آنها را برای سوء استفاده شناسایی کنند و راه‌هایی برای کاهش این خطرات ارایه دهند.


ترویج نوآوری: مدل‌های متن باز به توسعه‌دهندگان و محققان امکان می‌دهد تا آنها را برای اهداف جدید و نوآورانه استفاده کنند.

البته، دل‌های هوش مصنوعی مولد متن باز چالش‌هایی نیز دارد. یکی از چالش‌ها این است که ممکن است منجر به انتشار اطلاعات حساس شود. چالش دیگر این است که ممکن است دشوار باشد تا جامعه به طور کامل نحوه عملکرد این مدل‌ها را درک کند.

با این حال، مزایای رویکرد آقای فرهادی به نظر می‌رسد که بیشتر از چالش‌های آن است. مدل‌های هوش مصنوعی مولد متن باز بهترین راه برای اطمینان از اینکه این فناوری برای خیر مورد استفاده قرار می‌گیرد.

در ادامه برخی از راه‌هایی که مؤسسه هوش مصنوعی الن می‌تواند برای مدل‌های هوش مصنوعی مولد متن باز تلاش کند آورده شده است:

انتشار کد و داده‌های مدل‌ها: این امر به جامعه امکان می‌دهد تا نحوه عملکرد مدل‌ها را بررسی کند و خطرات احتمالی آنها را شناسایی کند.
آموزش عموم مردم در مورد هوش مصنوعی مولد: این امر به مردم کمک می‌کند تا در مورد نحوه عملکرد این مدل‌ها و خطرات احتمالی آنها آگاه شوند.
توسعه ابزارها و روش‌هایی برای شناسایی سوء استفاده از هوش مصنوعی مولد: این امر به جامعه کمک می‌کند تا از سوء استفاده از این فناوری جلوگیری کند.

 

نویسنده: استیو لور
تاریخ: 19 اکتبر 2023

منبع: NY Times

 

انتهای پیام/