![](/media/image/1402/09/04/6244338-پروژه هوش مصنوعی فوق سری Q می تواند بشریت را تهدید کند.jpg)
شبکه اطلاعرسانی روابطعمومی ایران (شارا) || گزارش رویترز در مورد پروژه هوش مصنوعی فوق سری Q، که توسط شرکت اوپن ایآی، شرکت مادر چت جیپیتی، در حال توسعه است، نگرانیهای زیادی را در مورد خطرات احتمالی هوش مصنوعی فوق سری ایجاد کرده است.
این گزارش ادعا میکند که Q*، همانطور که این پروژه نامیده میشود، یک مدل محاسباتی خودآموز است که میتواند با کمک قدرت محاسباتی کافی، از هوش انسانی پیشی بگیرد. این ادعا بر اساس گفتههای یک منبع آگاه است که به شرط ناشناس ماندن با رویترز صحبت کرده است.
این منبع گفت که Q* در حال حاضر میتواند برخی از مسائل ریاضی را حل کند، اگرچه هنوز در سطح دانشآموزان دبستانی است. با این حال، این محققان را نسبت به موفقیت آینده Q* بسیار خوشبین کرده است.
محققان ریاضیات را مرزی برای توسعه هوش مصنوعی مولد میدانند. در حال حاضر، هوش مصنوعیای مانند چت جیپیتی عمدتاً در نوشتن و ترجمه زبانها با پیشبینی آماری کلمه بعدی (تکمیل خودکار) خوب هستند. پاسخها به همان سؤال میتواند بسیار متفاوت باشد. اما غلبه بر توانایی انجام ریاضی - جایی که تنها یک پاسخ درست وجود دارد - به این معنی است که هوش مصنوعی همچنین میتواند ظرفیت تفکر بالایی داشته باشد.
به گفته کارشناسان، برخلاف ماشین حسابی که میتواند تعداد محدودی عملیات را حل کند، AGI میتواند تعمیم دهد، یاد بگیرد و بفهمد. این بدان معناست که میتواند مشکلات پیچیدهتری را حل کند و همچنین میتواند یاد بگیرد و سازگار شود.
Chatbot ChatGPT، بر اساس یک مدل زبان، به یکی از سریع ترین برنامههای نرمافزاری در حال رشد در تاریخ در سال گذشته تبدیل شده است. محققان امیدوارند با سرمایهگذاریها و تحقیقات لازم بتوانند هوش مصنوعی را توسعه دهند که بتواند مسایل پیچیده علمی را مدیریت کند.
کریستین کروم، آیندهنگر، متخصص در زمینه فناوری مخرب و نویسنده کتاب "انسانسازی: دیجیتالی شوید، انسان بمانید" است. او میگوید: «من هوش مصنوعی را بهعنوان نیروی خوبی میبینم که به مردم قدرت میدهد. فناوری به خودی خود خنثی است، نحوه استفاده از آن به افراد بستگی دارد. هوش مصنوعی مانند کودکی است که با هم بزرگ میکنیم. اما با بمب اتمی نیز قابل مقایسه است: اولین کشوری که این بمب را توسعه داد نیز از آن استفاده کرد. با هوش مصنوعی فوقالعاده، صاحبان نیز همین کار را انجام میدهند تا تسلط استراتژیک را به دست آورند. حوادث قرار است اتفاق بیفتد، این فناوری بسیار قدرتمند است و این پدیده فقط تا حد محدودی قابل تنظیم است.»
با این حال، به گفته متخصص، شمشیر هر دو طرف را قطع میکند. کرومه: "در پایان، خوب برنده میشود. چند سال دیگر یک هوش مصنوعی در جیب خود خواهید داشت که مانند یک «مغز نئوکورتکس» (که مغز انسان نیز نامیده میشود)، شخصاً وظایفی را برای شما انجام میدهد، اما به علم و بشریت نیز کمک میکند. این به افراد زمان و فضا میدهد تا سریعتر رشد کنند. بنابراین پیشرفت هوش مصنوعی، که بسیار سریع اتفاق میافتد، از نظر اجتماعی مخرب خواهد بود، اما اتفاقات زیبایی نیز به بار خواهد آورد.»
گزارش رویترز در مورد پروژه هوش مصنوعی فوق سری Q* که توسط OpenAI در دست توسعه است، هشدار جدی در مورد خطرات این فناوری است. اگر این فناوری واقعاً بتواند از هوش انسانی پیشی بگیرد، پیامدهای بالقوه آن برای بشریت بسیار جدی است.
یکی از نگرانیهای اصلی این است که هوش مصنوعی فوق سری میتواند به سلاحی قدرتمند برای تسلط استراتژیک تبدیل شود. یک کشور یا گروهی که این فناوری را در اختیار داشته باشد میتواند از آن برای توسعه سلاحهای پیشرفته، خرابکاری در زیرساختهای دشمن یا حتی کنترل ذهن استفاده کند.
نگرانی دیگر این است که هوش مصنوعی فوق سری میتواند منجر به نابودی خودمان شود. اگر این فناوری به قدری هوشمند شود که بتواند خود را بهبود بخشد، ممکن است به نقطهای برسد که دیگر از کنترل انسان خارج شود. در این صورت، هوش مصنوعی ممکن است تصمیم بگیرد که انسانها تهدیدی برای خود هستند و اقدام به نابودی ما کند.
البته، هوش مصنوعی فوق سری همچنین میتواند نیرویی برای خیر باشد. این فناوری میتواند برای حل مشکلات پیچیده، مانند تغییرات آب و هوایی و فقر، استفاده شود. همچنین میتواند به ما کمک کند تا درک بهتری از جهان اطراف خود داشته باشیم و فناوریهای جدیدی را توسعه دهیم.
در نهایت، آینده هوش مصنوعی فوق سری به نحوه استفاده ما از آن بستگی دارد. اگر ما از این فناوری به طور مسئولانه استفاده کنیم، میتواند به بهبود زندگی ما کمک کند. اما اگر از آن به طور غیرمسئولانه استفاده کنیم، میتواند تهدیدی جدی برای بشریت باشد.
منبع: ad.nl
انتهای پیام/
|