شبكه اطلاع رساني روابط عمومي ايران (شارا)-|| محققان MIT در يك مطالعه كه در طول سالهاي 2006 تا 2017 انجام شده دريافتند كه «دروغ بهطور قابل توجهي سريعتر، عميقتر و گستردهتر از حقيقت در تمام دستههاي اطلاعات منتشر شده است». داستانهاي دروغين 70 درصد احتمال بيشتري براي بازتوئيت نسبت به حقايق دارند و البته با سرعت شش برابر از حقيقت هم منتشر ميشوند. (نينوايي و شميراني، ۱۳۹۷)
با وجود فرصتهاي بسيار هوش مصنوعي، بايد منتظر چالشهاي آن نيز بود. از اين جمله توليد سريع و ساده آثاري مبتني بر جعل عميق است. جهان آينده با خطر بزرگي به نام «جعل عميق» روبرو خواهد بود كه طي اين تكنيك تركيب تصاوير، امكان توليد ويدئوهاي جعلي از افراد و اشخاص در حال انجام اموري كه هرگز در واقعيت رخ نداده اند افزايش مي يابد. اين خطر سلبريتي ها و شخصيتهاي سياسي و ... را به راحتي مي تواند هدف قرار دهد. از جمله نگراني هاي بزرگ فعلي، تأثيراتي است كه ديپ فيكها مي توانند در روند يا نتايج انتخابات در جهان داشته باشند.
جورجيو پاتريني كه شركت Deep Trace را با هدف تشخيص ويدئوهاي جعل عميق در سال 2018 در هلند تأسيس كرده معتقد است: در حال حاضر جعل عميق به عنوان يك موج ضد امنيت در شبكه جهاني اينترنت شناخته ميشود، چرا كه افراد يا گروههاي سودجو با ارائه ويدئوهاي ساختگي ميتوانند تأثيرات منفي در جامعه هدف ايجاد كنند. طبق آمار جمعآوري شده توسط اين شركت، در حال حاضر بيش از ۸۰۰۰ ويدئوي جعل عميق از بازيگران معروف زن در اينترنت منتشر شده است. (ايسنا، 1397)
فناوري مبتني بر هوش مصنوعي، ظرفيت ايجاد تحولي عظيم در صنعت عكاسي جهان را دارد. فناوري جديد علاوه بر توانايي ايجاد تصاوير پرتره، ميتواند تصاوير جعلي از هر چيزي اعم از حيوانات، خانه، خودرو و غيره توليد كند كه در جهان واقعيت اصلا وجود خارجي ندارند و غيرواقعي بوده و به صورت مصنوعي و جعلي توليد مي شوند. چنين فناوريهايي ميتواند جنبههاي مثبت و منفي داشته باشد. شايد روزي فرا برسد كه عكاسان حرفهاي براي گرفتن عكسهاي فوقالعاده زيبا از طبيعت، مجبور نشوند به دامن طبيعت بروند و همه اتفاقات ازطريق اپليكيشنهاي مبتني بر هوش مصنوعي و روي سيستم كامپيوتري به انجام برسد. (شاهيد، 1397)
نرم افزارهاي هوش مصنوعي قادر هستند كه يك دنياي كاملاً ديجيتالي را از روي يك طرح و اسكچ ساده جعل و بازآفريني كرده و نيز براساس تصاوير واقعي، به طراحي واقعيت مجازي اقدام كنند. اينگونه حركتها، وعده انقلابي در فضاي كامپيوترهاي گرافيكي و متخصصان جلوه هاي ويژه و همچنين هنرمندان فعال در زمينه صداها مي دهد تا آنها بتوانند با استفاده از آن ايده هايشان را پرورش دهند و گسترده سازند. البته استفاده از اين ابزار، براي توليد شواهد صوتي و تصويري قلابي كه اعتماد جامعه را از بين مي برند هم استفاده مي شود. برايان كاتانزارو نايب رئيس بخش يادگيري عميق Deep Learning انويديا اعتراف مي كند كه از پروژه آنها ممكن است سوءاستفاده هم بشود: «اين تكنولوژي است كه از آن مي توان براي كارهاي بسيار زيادي استفاده كرد.» (بنتك، 1397)
به همان نسبت كه هوش مصنوعي قادر به توليد آثاري مبتني بر ديپ فيك يا جعل عميق است از سويي، همين امكان، قادر به شناسايي تصاوير جعلي و فتوشاپ شده است.
تصاوير بسياري همچون عكس هاي تبليغاتي، عكس هاي ويروسي يا تصاوير بد نام كننده از سياستمداران يا افراد مشهور و همينطور تصاوير شواهد پزشكي قانوني كه توسط قانون استفاده مي شود و...، مي توانند به راحتي فتوشاپ شوند يا تغييراتي در آن ها اعمال شود كه شايد تشخيص آنها براي افراد به راحتي ممكن نباشد. در اين شرايط، هوش مصنوعي، براي شناسايي هرزنامه ها (اطلاعات دروغ)، نشان دادن جعلي بودن كارت اعتباري در معاملات و همينطور يادگيري نحوه بحث و درك گفتار انساني بسيار مفيد و كارآمد است. همچنين اين فناوري مي تواند نشانه هايي از ويرايش در تصوير را مشخص كند و ضمن تشخيص آثار دستكاري شده و جعلي، بين تكنيكهاي دستكاري نيز تمايز قائل شود. (حاتم، 1397)
يكي از چالشهاي موجود امكان شناسايي تصاوير واقعي از تصاوير طراحي شده توسط هوش مصنوعي است. جوين وست و كارل برگستروم از اساتيد دانشگاه واشينگتن و از موسسان سايت WhichFaceIsReal.com، در تلاش براي ايجاد اين تشخيص از طريق سايت خود هستند. وست و برگستروم بر اين باورند كه با وجود فناوري خلق چهره به وسيله هوش مصنوعي، امكان سوء استفاده از آن نيز همواره وجود دارد و به عنوان مثال جنايتكاران ميتوانند از اين فناوري براي ساخت تصويري از چهره يك انسان غيرواقعي استفاده كرده و با انتشار آن در فضاي مجازي، يك متهم خيالي را معرفي كرده و توجه رسانهها و مردم را از واقعيت منحرف كنند.
از نظر آنها ممكن است امكان تشخيص صحت ديپ فيكها يا ويدئوهاي مبتني بر جعل عميق با كمي جستجو در موتورهاي جستجو قابل تشخيص شوند ولي براي تصاوير توليد شده توسط هوش مصنوعي ممكن است به راحتي اين امكان نباشد، كما اينكه هر روز نيز امكان اين تشخيص سخت تر مي شود. (محمودزاده، 1397)
روبينا مدان فيليون مدير بخش ارتباط با مخاطب در سازمان رسانهاي Intercept معتقد است تقارن ناميمون اوجگيري اقتدارگرايان عوامگرا و نژادپرستان افراطي با افزايش توليدات رسانهاي مبتني بر ديپ فيك، خسراني هولناك به دنبال دارد چراكه افكار عمومي ديگر نميتواند آنچه را كه ميبيند و ميشنود، به قطع و يقين باور كند و از سوي ديگر حاكمان و رهبران سياسي نيز پوشش منفي عملكرد خود را كه مبتني بر شواهد است، به بهانه اين مهم به سهولت كتمان ميكنند و چنين است كه واقعيت، اعتبار و روايي خود را در مسلخ اين روش فناورانه، ذبحشده ميبيند. (فلسفي، 1398: 5)
برگستروم مي گويد: ما نميگوييم مردم هيچ چيز را باور نكنند، بلكه پيام ما اين است كه زودباور نباشيد. (محمودزاده، 1397)
در حال حاضر محققان در حال ساختن و كار كردن روي ابزاري هستند كه بتواند جعليات عميق را تشخيص داده و شناسايي كند. منابع رسانهاي ميتوانند از كارشناسان فناوريهاي مرتبط براي بررسي اخبار جعلي كمك بگيرند و استانداردهايي را به منظور تأييد يك ويدئو يا تصوير منتشرشده در نظر بگيرند. در اين چارچوب فيليون معتقد است الگوريتمهايي براي كمك به تشخيص توليدات مبتني بر ديپ فيك وجود دارد كه پژوهشگران بهواسطه آنها راههايي براي تشخيص فيلمها، عكسها و اصوات جعلي يافتهاند. اظهار اميدواري وي به راهكارهايي مانند آنچه والاستريت ژورنال براي آموزش خبرنگاران خود در نظر گرفته، اشاره دارد كه فنوني چون استفاده از گوگل ايميجز و تينآي را براي راستي آزمايي عكس همچنين بهرهمندي از نرمافزارهاي ويرايش ويدئويي براي مشاهده فريم به فريم فيلمها جهت بررسي و تشخيص دقيق چگونگي باز و بسته شدن چشمها، حركات اطراف دهان و لب، فراز و فرود و لحنِ صدا، نور و سايه و حركات طبيعي و غيرطبيعي اندامها را با تمسك به منطق فازي شامل ميشود. (فلسفي، 1398: 5)
سازمانهاي تأييد محتوا مثل آسوشيتدپرس و استوريفول در زمينه تأييد ويدئوها و اخبار به صورت رسمي فعاليت ميكنند. البته هر روز نيز ابزار جديدي براي تاييد صحت و بررسي جعلي نبودن فايلهاي تصويري منتشر ميشود. براي مثال، ابزارهاي جديدي از جمله TruePic و Serelay از بلاكچين براي احراز هويت عكس استفاده ميكنند. صرفنظر از تكنولوژي مورد استفاده، انسان در اتاق خبر در مركز اين روند قرار دارد.
سعيد رجيو، كارشناس ارشد بررسي اخبار جعلي معتقد است كه به هر صورت فناوري بهتنهايي نميتواند راهحل كشف و از بين بردن اخبار جعلي باشد، بلكه اين تركيب هوش مصنوعي، فناوري و نيروي انساني است كه ميتواند باعث كشف اخبار جعلي شود. (نينوايي و شميراني، ۱۳۹۷)
علي رغم بهره گيري از هوش مصنوعي، گرفتن تأييد صحت محتوا از مراكز تشخيص صحت يا عدم صحت اخبار و تصاوير، افزايش سوادهاي نوين براي عموم جامعه، فعالان حوزه رسانه اي و بصري ضروري است.