شبکه اطلاعرسانی روابطعمومی ایران (شارا) || ابزارهای تولید محتوای هوش مصنوعی که به طور فزایندهای مقرون به صرفه و در دسترس هستند، منجر به افزایش ویدیوها، تصاویر و صداهای جعلی در رسانههای اجتماعی شده است. آیا میتوانید واقعیت را از جعلی تشخیص دهید؟
آیا تا به حال ویدیوی دیپفیک دیدهاید؟ و مهمتر از آن، آیا میتوانید تفاوت بین این تصاویر، ویدیوها و کلیپ های صوتی که توسط هوش مصنوعی تولید شدهاند و موارد واقعی را تشخیص دهید؟
با توجه به اینکه بیش از ۲ میلیارد رایدهنده در ۵۰ کشور برای انتخابات ملی سال ۲۰۲۴ آماده میشوند، این سوال – و توانایی چنین دیپفیکهایی برای گمراه کردن رایدهندگان در مورد صندوقهای رای – هرگز مهمتر از این نبوده است.
با استفاده از میدجرنی، یک آزمایشگاه تحقیقاتی هوش مصنوعی که فناوری آن میتواند تصاویر واقعی را بر اساس متنی که کاربر به سادگی در پلتفرم آنلاین آن ارائه میدهد، ایجاد کند، پولیتیکو مجموعهای از تصاویر واقعی – و همچنین تصاویر تولید شده توسط هوش مصنوعی را جمعآوری کرد.
به گفته مقامات این شرکت فناوری که پولیتیکو با آنها صحبت کرده است، آزمایشهای جهانی متعدد نشان داده است که به طور متوسط، مردم میتوانند در حدود ۶۰ درصد مواقع تقلبهای دیجیتال را از تصاویر واقعی تشخیص دهند.
در حالی که این فناوری هنوز در حال توسعه است، توانایی هر کسی – از جمله خبرنگاران پولیتیکو – برای ایجاد چنین تصاویر واقعی با چند کلیک روی صفحه کلید، سیاستمداران، سیاستگذاران و کارشناسان اطلاعات نادرست را نگران کرده است.
اگر هوش مصنوعی چنین قدرتی را به دست افرادی بدهد که فقط به لپ تاپ، اتصال به اینترنت و ۵۰ دلار برای دسترسی به این ابزارهای قدرتمند نیاز دارند، ممکن است شاهد سیل محتوای سیاسی عمیق فیک در فیدهای رسانههای اجتماعی مردم در ماه های آینده باشیم.
منبع انگلیسی: POLITICO
منبع فارسی: شارا – شبکه اطلاعرسانی روابطعمومی ایران
با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:
https://telegram.me/sharaPR
انتهای پیام/
|
نظر بدهید