شبکه اطلاعرسانی روابطعمومی ایران (شارا) || علی فرهادی، دانشمند کامپیوتر 42 ساله، مدیر اجرایی موسسه آلن برای هوش مصنوعی، در حال انجام یک حرکت جسورانه در تحقیقات هوش مصنوعی است. او معتقد است که هوش مصنوعی مولد، که به چت رباتهایی مانند چت جیپیتی و بارد قدرت میدهد، باید به صورت متن باز باشد تا خطرات آن کاهش و نوآوری افزایش یابد.
موسسه آلن یک ابتکار بلندپروازانه را برای ساخت یک جایگزین هوش مصنوعی آزادانه برای غولهای فناوری مانند گوگل و استارتآپهایی مانند اوپنایآی آغاز کرده است. در یک فرآیند صنعتی به نام متن باز، سایر محققان اجازه خواهند داشت که این سیستم جدید و دادههای وارد شده به آن را مورد بررسی دقیق قرار دهند و از آن استفاده کنند.
آقای فرهادی معتقد است که این رویکرد بهترین راه برای اطمینان از اینکه هوش مصنوعی مولد برای خیر و نه برای شر مورد استفاده قرار میگیرد. او میگوید که مدلهای تجاری بسته، که توسط شرکتهای فناوری بزرگ توسعه یافتهاند خطر سوء استفاده را افزایش میدهد.
موسسه آلن اولین گام را با انتشار مجموعه دادههای عظیمی برای آموزش مدلهای هوش مصنوعی برداشته است که از دادههای در دسترس عموم از وب، کتابها، مجلات دانشگاهی و کد رایانه ساخته شده است. مجموعه دادهها برای حذف اطلاعات شناسایی زبان سمی مانند عبارات نژادپرستانه و ناپسند تنظیم شده است.
موسسه آلن برنامهریزی کرده است تا مدل زبان باز/ متن باز (OLMo)، یک برنامه بزرگ هوش مصنوعی مولد را در سال 2024 منتشر کند. این برنامه بر روی مجموعه دادههای متن باز موسسه آلن آموزش دیده است و به صورت متن باز در دسترس خواهد بود.
آقای فرهادی میگوید که این پروژه چالشهای زیادی دارد، از جمله نیاز به قدرت محاسباتی زیادی برای آموزش مدلهای هوش مصنوعی بزرگ. با این حال، او معتقد است که مزایای هوش مصنوعی مولد متن باز ارزش تلاش را دارد.
حامیان مدلهای هوش مصنوعی متن باز معتقدند که این بهترین راه برای اطمینان از اینکه این فناوری به طور مسئولانه مورد استفاده قرار میگیرد. آنها میگویند که مدلهای تجاری بسته خطر سوء استفاده را افزایش میدهد و نوآوری را محدود میکند.
منتقدان مدلهای هوش مصنوعی متن باز میگویند که مدلهای متن باز میتوانند برای اهداف مخرب مانند تولید اطلاعات نادرست و سلاحهای خودکار استفاده شوند.
تحلیل
آقای فرهادی در مورد رویکرد خود برای توسعه هوش مصنوعی مولد در مؤسسه هوش مصنوعی الن، استدلالهای خوبی ارایه میدهد. او معتقد است که شفافیت و باز بودن بهترین راه برای اطمینان از اینکه این فناوری برای خیر مورد استفاده قرار میگیرد.
مدلهای تجاری بسته، که کد و دادههای آنها توسط شرکتهای فناوری بزرگ مخفی نگه داشته میشود، خطر سوء استفاده را افزایش میدهد. این مدلها میتوانند برای تولید محتوای مضر، مانند اخبار جعلی یا تبلیغات هدفمند، استفاده شوند. همچنین میتوان از آنها برای ایجاد هویتهای جعلی یا حملات سایبری استفاده کرد.
در ادامه به برخی از مزایای رویکرد آقای فرهادی اشاره شده است:
بهبود شفافیت: مدلهای هوش مصنوعی مولد متن باز به جامعه امکان میدهد تا نحوه عملکرد آنها را درک کند و خطرات احتمالی آنها را شناسایی کند.
کاهش خطر سوء استفاده: مدلهای متن باز به محققان و کارشناسان امکان میدهد تا آنها را برای سوء استفاده شناسایی کنند و راههایی برای کاهش این خطرات ارایه دهند.
ترویج نوآوری: مدلهای متن باز به توسعهدهندگان و محققان امکان میدهد تا آنها را برای اهداف جدید و نوآورانه استفاده کنند.
البته، دلهای هوش مصنوعی مولد متن باز چالشهایی نیز دارد. یکی از چالشها این است که ممکن است منجر به انتشار اطلاعات حساس شود. چالش دیگر این است که ممکن است دشوار باشد تا جامعه به طور کامل نحوه عملکرد این مدلها را درک کند.
با این حال، مزایای رویکرد آقای فرهادی به نظر میرسد که بیشتر از چالشهای آن است. مدلهای هوش مصنوعی مولد متن باز بهترین راه برای اطمینان از اینکه این فناوری برای خیر مورد استفاده قرار میگیرد.
در ادامه برخی از راههایی که مؤسسه هوش مصنوعی الن میتواند برای مدلهای هوش مصنوعی مولد متن باز تلاش کند آورده شده است:
انتشار کد و دادههای مدلها: این امر به جامعه امکان میدهد تا نحوه عملکرد مدلها را بررسی کند و خطرات احتمالی آنها را شناسایی کند.
آموزش عموم مردم در مورد هوش مصنوعی مولد: این امر به مردم کمک میکند تا در مورد نحوه عملکرد این مدلها و خطرات احتمالی آنها آگاه شوند.
توسعه ابزارها و روشهایی برای شناسایی سوء استفاده از هوش مصنوعی مولد: این امر به جامعه کمک میکند تا از سوء استفاده از این فناوری جلوگیری کند.
نویسنده: استیو لور
تاریخ: 19 اکتبر 2023
منبع: NY Times
انتهای پیام/
|
نظر بدهید