شبکه اطلاعرسانی روابطعمومی ایران (شارا) || یک گزارش جدید از نیویورکر جزئیات بیشتری در مورد آنچه که منجر به اخراج سام آلتمن، مدیر عامل اوپنایآی، شد ارائه میدهد.
به گزارش شارا، آلتمن سعی کرد یکی از اعضای هیئت مدیره اوپنایآی، هلن تونر را اخراج کند. این اقدام منجر به عصبانیت سایر اعضای هیئت مدیره شد و آنها را متقاعد کرد که آلتمن را از سمت خود برکنار کنند.
گزارش نیویورکر میگوید که آلتمن و تونر بر سر مقالهای که تونر در مورد اوپنایآی نوشته بود، اختلاف نظر داشتند. تونر در مقاله خود اوپنایآی را به دلیل «برافروختن شعلههای تبلیغاتی هوش مصنوعی» مورد انتقاد قرار داد. آلتمن با تونر در مورد مقاله صحبت کرد و به او گفت که از هیئت مدیره عصبانی است.
آلتمن سپس شروع به نزدیک شدن به سایر اعضای هیئت مدیره کرد و به آنها گفت که تونر باید برکنار شود. او به آنها گفت که تونر به اوپنایآی آسیب می رساند و باید از سمت خود برکنار شود.
برخی از اعضای هیئت مدیره به آلتمن اعتماد کردند و موافقت کردند که تونر باید برکنار شود. با این حال، سایر اعضای هیئت مدیره مشکوک شدند که آلتمن در حال بازیدادن آنهاست. آنها شروع به مقایسه یادداشتهای خود از مکالمات با آلتمن کردند و متوجه شدند که او دروغ میگوید.
هیئت مدیره اوپنایآی در نهایت تصمیم گرفت که آلتمن را از سمت خود برکنار کند. آنها معتقد بودند که آلتمن در حال تضعیف اعتماد به اوپنایآی است و باید از سمت خود برکنار شود.
آلتمن در ابتدا از تصمیم هیئت مدیره شکایت کرد، اما در نهایت تسلیم شد و استعفا داد.
پیشرفت مرموز هوش مصنوعی و هیاهوی پیرامون اوپنای
در روزهای اخیر، اخبار مربوط به اوپنای و هیاهوی پیرامون رهبری این شرکت، توجه بسیاری را به خود جلب کرده است. به تازگی، گزارش شده است که دانشمندان اوپنای نامه هشداری را به هیئت مدیره این شرکت ارسال کرده اند که در آن از خطرات احتمالی یک پیشرفت جدید در هوش مصنوعی هشدار داده اند.
این پیشرفت جدید، پروژه Q* نام دارد و یک مدل هوش مصنوعی است که میتواند به طور مستقل مسائل ریاضی را حل کند. این بدان معناست که هوش مصنوعی میتواند جایگزین انواع کارهای سطح بالای انسانی در یک لحظه شود.
دانشمندان اوپنای نگران هستند که این پیشرفت میتواند منجر به عواقب غیرقابل پیش بینی شود. آنها معتقدند که این پیشرفت میتواند منجر به بیکاری گسترده، نابرابری و حتی تهدید برای امنیت ملی شود.
هیئت مدیره اوپنای نیز نگران این پیشرفت بوده است. آنها معتقدند که این پیشرفت باید با احتیاط بیشتری توسعه یابد و در دسترس عموم قرار نگیرد.
این نگرانی ها منجر به تنش هایی در اوپنای شد. سرانجام، دانشمندان این شرکت نامه ای به کارکنان اوپنای ارسال کردند و در آن از آنها خواستند که از هیئت مدیره این شرکت حمایت کنند.
این نامه منجر به واکنش شدید کارکنان اوپنای شد. آنها هیئت مدیره را به کنار گذاشتن اهداف اصلی اوپنای متهم کردند و خواستار برکناری آن شدند.
در نهایت، هیئت مدیره اوپنای برکنار شد و آلتمن، مدیر عامل سابق اوپنای، به کار خود بازگشت.
این وقایع نشان میدهد که توسعه هوش مصنوعی میتواند چالشهای اخلاقی و اجتماعی زیادی را ایجاد کند. لازم است که توسعه هوش مصنوعی با احتیاط و با توجه به عواقب احتمالی آن انجام شود.
خطرات احتمالی پیشرفت Q*
پیشرفت Q* میتواند خطرات احتمالی زیادی را ایجاد کند. از جمله این خطرات میتوان به موارد زیر اشاره کرد:
بیکاری گسترده: این پیشرفت میتواند منجر به بیکاری گسترده در مشاغلی شود که نیاز به حل مسائل ریاضی دارند. این مشاغل شامل مشاغلی در زمینه مهندسی، علوم، مالی و پزشکی میشوند.
نابرابری: این پیشرفت میتواند منجر به افزایش نابرابری شود. افرادی که به این فناوری دسترسی دارند، میتوانند از آن برای کسب درآمد و افزایش قدرت خود استفاده کنند.
تهدید برای امنیت ملی: این پیشرفت میتواند مورد استفاده برای توسعه سلاح های خودکار یا سایر فناوری های مخرب قرار گیرد.
راه حل های احتمالی
برای کاهش خطرات احتمالی پیشرفت Q*، میتوان راه حل های زیر را در نظر گرفت:
توسعه این فناوری با احتیاط: لازم است که توسعه این فناوری با احتیاط و با توجه به عواقب احتمالی آن انجام شود.
کنترل دسترسی به این فناوری: لازم است که دسترسی به این فناوری کنترل شود تا از سوء استفاده از آن جلوگیری شود.
توسعه راهکارهای اخلاقی برای استفاده از این فناوری: لازم است که راهکارهای اخلاقی برای استفاده از این فناوری توسعه یابد تا از عواقب منفی آن جلوگیری شود.
توسعه هوش مصنوعی یک فرآیند پیچیده و چالش برانگیز است. لازم است که این فرآیند با دقت و با توجه به عواقب احتمالی آن انجام شود.
منبع: bright.nl
انتهای پیام/
نظر بدهید