شارا - شبكه اطلاع رساني روابط عمومي ايران : هوش مصنوعي و زهر و پادزهر جعل عميق
جمعه، 28 تیر 1398 - 08:27 کد خبر:39327
به همان نسبت كه هوش مصنوعي قادر به توليد آثاري مبتني بر ديپ فيك يا جعل عميق است از سويي، همين امكان، قادر به شناسايي تصاوير جعلي و فتوشاپ شده است.



شبكه اطلاع رساني روابط عمومي ايران (شارا)-|| محققان MIT در يك مطالعه كه در طول سال‌هاي 2006 تا 2017 انجام شده دريافتند كه «دروغ به‌طور قابل توجهي سريع‌تر، عميق‌تر و گسترده‌تر از حقيقت در تمام دسته‌هاي اطلاعات منتشر شده است». داستان‌هاي دروغين 70 درصد احتمال بيشتري براي بازتوئيت نسبت به حقايق دارند و البته با سرعت شش برابر از حقيقت هم منتشر مي‌شوند. (نينوايي و شميراني، ۱۳۹۷)


با وجود فرصتهاي بسيار هوش مصنوعي، بايد منتظر چالشهاي آن نيز بود. از اين جمله توليد سريع و ساده آثاري مبتني بر جعل عميق است. جهان آينده با خطر بزرگي به نام «جعل عميق» روبرو خواهد بود كه طي اين تكنيك تركيب تصاوير، امكان توليد ويدئوهاي جعلي از افراد و اشخاص در حال انجام اموري كه هرگز در واقعيت رخ نداده اند افزايش مي يابد. اين خطر سلبريتي ها و شخصيتهاي سياسي و ... را به راحتي مي تواند هدف قرار دهد. از جمله نگراني هاي بزرگ فعلي، تأثيراتي است كه ديپ فيكها مي توانند در روند يا نتايج انتخابات در جهان داشته باشند.


جورجيو پاتريني كه شركت Deep Trace را با هدف تشخيص ويدئوهاي جعل عميق در سال 2018 در هلند تأسيس كرده معتقد است: در حال حاضر جعل عميق به عنوان يك موج ضد امنيت در شبكه جهاني اينترنت شناخته مي‌شود، چرا كه افراد يا گروه‌هاي سودجو با ارائه ويدئوهاي ساختگي مي‌توانند تأثيرات منفي در جامعه هدف ايجاد كنند. طبق آمار جمع‌آوري شده توسط اين شركت، در حال حاضر بيش از ۸۰۰۰ ويدئوي جعل عميق از بازيگران معروف زن در اينترنت منتشر شده است. (ايسنا، 1397)


فناوري مبتني بر هوش مصنوعي، ظرفيت ايجاد تحولي عظيم در صنعت عكاسي جهان را دارد. فناوري جديد علاوه‌ بر توانايي ايجاد تصاوير پرتره، مي‌تواند تصاوير جعلي از هر چيزي اعم از حيوانات، خانه، خودرو و غيره توليد كند كه در جهان واقعيت اصلا وجود خارجي ندارند و غيرواقعي بوده و به صورت مصنوعي و جعلي توليد مي شوند. چنين فناوري‌هايي مي‌تواند جنبه‌هاي مثبت و منفي داشته باشد. شايد روزي فرا برسد كه عكاسان حرفه‌اي براي گرفتن عكس‌هاي فوق‌العاده زيبا از طبيعت، مجبور نشوند به دامن طبيعت بروند و همه‌ اتفاقات ازطريق اپليكيشن‌هاي مبتني بر هوش مصنوعي و روي سيستم كامپيوتري به‌ انجام برسد. (شاهيد، 1397)


نرم افزارهاي هوش مصنوعي قادر هستند كه يك دنياي كاملاً ديجيتالي را از روي يك طرح و اسكچ ساده جعل و بازآفريني كرده و نيز براساس تصاوير واقعي، به طراحي واقعيت مجازي اقدام كنند. اينگونه حركتها، وعده انقلابي در فضاي كامپيوترهاي گرافيكي و متخصصان جلوه هاي ويژه و همچنين هنرمندان فعال در زمينه صداها مي دهد تا آنها بتوانند با استفاده از آن ايده هايشان را پرورش دهند و گسترده سازند. البته استفاده از اين ابزار، براي توليد شواهد صوتي و تصويري قلابي كه اعتماد جامعه را از بين مي برند هم استفاده مي شود. برايان كاتانزارو نايب رئيس بخش يادگيري عميق Deep Learning انويديا اعتراف مي كند كه از پروژه آنها ممكن است سوءاستفاده هم بشود: «اين تكنولوژي است كه از آن مي توان براي كارهاي بسيار زيادي استفاده كرد.» (بنتك، 1397)


به همان نسبت كه هوش مصنوعي قادر به توليد آثاري مبتني بر ديپ فيك يا جعل عميق است از سويي، همين امكان، قادر به شناسايي تصاوير جعلي و فتوشاپ شده است.


تصاوير بسياري همچون عكس هاي تبليغاتي، عكس هاي ويروسي يا تصاوير بد نام كننده از سياستمداران يا افراد مشهور و همينطور تصاوير شواهد پزشكي قانوني كه توسط قانون استفاده مي شود و...، مي توانند به راحتي فتوشاپ شوند يا تغييراتي در آن ها اعمال شود كه شايد تشخيص آنها براي افراد به راحتي ممكن نباشد. در اين شرايط، هوش مصنوعي، براي شناسايي هرزنامه ها (اطلاعات دروغ)، نشان دادن جعلي بودن كارت اعتباري در معاملات و همينطور يادگيري نحوه بحث و درك گفتار انساني بسيار مفيد و كارآمد است. همچنين اين فناوري مي تواند نشانه هايي از ويرايش در تصوير را مشخص كند و ضمن تشخيص آثار دستكاري شده و جعلي، بين تكنيكهاي دستكاري نيز تمايز قائل شود. (حاتم، 1397)


يكي از چالشهاي موجود امكان شناسايي تصاوير واقعي از تصاوير طراحي شده توسط هوش مصنوعي است. جوين وست و كارل برگستروم از اساتيد دانشگاه واشينگتن و از موسسان سايت WhichFaceIsReal.com، در تلاش براي ايجاد اين تشخيص از طريق سايت خود هستند. وست و برگستروم بر اين باورند كه با وجود فناوري خلق چهره به وسيله هوش مصنوعي، امكان سوء استفاده از آن نيز همواره وجود دارد و به عنوان مثال جنايتكاران مي‌توانند از اين فناوري براي ساخت تصويري از چهره يك انسان غيرواقعي استفاده كرده و با انتشار آن در فضاي مجازي، يك متهم خيالي را معرفي كرده و توجه رسانه‌ها و مردم را از واقعيت منحرف كنند.


از نظر آنها ممكن است امكان تشخيص صحت ديپ فيكها يا ويدئوهاي مبتني بر جعل عميق با كمي جستجو در موتورهاي جستجو قابل تشخيص شوند ولي براي تصاوير توليد شده توسط هوش مصنوعي ممكن است به راحتي اين امكان نباشد، كما اينكه هر روز نيز امكان اين تشخيص سخت تر مي شود. (محمودزاده، 1397)


روبينا مدان فيليون مدير بخش ارتباط با مخاطب در سازمان رسانه‌اي Intercept معتقد است تقارن ناميمون اوج‌گيري اقتدارگرايان عوام‌گرا و نژادپرستان افراطي با افزايش توليدات رسانه‌اي مبتني بر ديپ فيك، خسراني هولناك به دنبال دارد چراكه افكار عمومي ديگر نمي‌تواند آنچه را كه مي‌بيند و مي‌شنود، به قطع و يقين باور كند و از سوي ديگر حاكمان و رهبران سياسي نيز پوشش منفي عملكرد خود را كه مبتني بر شواهد است، به بهانه اين مهم به سهولت كتمان مي‌كنند و ‌چنين است كه واقعيت، اعتبار و روايي خود را در مسلخ اين روش فناورانه، ذبح‌شده مي‌بيند. (فلسفي، 1398: 5)


برگستروم مي گويد: ما نمي‌گوييم مردم هيچ چيز را باور نكنند، بلكه پيام ما اين است كه زودباور نباشيد. (محمودزاده، 1397)


در حال حاضر محققان در حال ساختن و كار كردن روي ابزاري هستند كه بتواند جعليات عميق را تشخيص داده و شناسايي كند. منابع رسانه‌اي مي‌توانند از كارشناسان فناوري‌هاي مرتبط براي بررسي اخبار جعلي كمك بگيرند و استانداردهايي را به منظور تأييد يك ويدئو يا تصوير منتشرشده در نظر بگيرند. در اين چارچوب فيليون معتقد است الگوريتم‌هايي براي كمك به تشخيص توليدات مبتني بر ديپ فيك وجود دارد كه پژوهشگران به‌واسطه آن‌ها راه‌هايي براي تشخيص فيلم‌ها، عكس‌ها و اصوات جعلي يافته‌اند. اظهار اميدواري وي به راه‌كارهايي مانند آنچه وال‌استريت ژورنال براي آموزش خبرنگاران خود در نظر گرفته، اشاره دارد كه فنوني چون استفاده از گوگل ايميجز و تين‌آي را براي راستي آزمايي عكس همچنين بهره‌مندي از نرم‌افزارهاي ويرايش ويدئويي براي مشاهده فريم به فريم فيلم‌ها جهت بررسي و تشخيص دقيق چگونگي باز و بسته شدن چشم‌ها، حركات اطراف دهان و لب، فراز و فرود و لحنِ صدا، نور و سايه و حركات طبيعي و غيرطبيعي اندام‌ها را با تمسك به منطق فازي شامل مي‌شود. (فلسفي، 1398: 5)


سازمان‌هاي تأييد محتوا مثل آسوشيتدپرس و استوري‌فول در زمينه تأييد ويدئوها و اخبار به صورت رسمي فعاليت مي‌كنند. البته هر روز نيز ابزار جديدي براي تاييد صحت و بررسي جعلي نبودن فايل‌هاي تصويري منتشر مي‌شود. براي مثال، ابزارهاي جديدي از جمله TruePic و Serelay از بلاك‌چين براي احراز هويت عكس استفاده مي‌كنند. صرف‌نظر از تكنولوژي مورد استفاده، انسان در اتاق خبر در مركز اين روند قرار دارد.


سعيد رجيو، كارشناس ارشد بررسي اخبار جعلي معتقد است كه به هر صورت فناوري به‌تنهايي نمي‌تواند راه‌حل كشف و از بين بردن اخبار جعلي باشد، بلكه اين تركيب هوش مصنوعي، فناوري و نيروي انساني است كه مي‌تواند باعث كشف اخبار جعلي شود. (نينوايي و شميراني، ۱۳۹۷)


علي رغم بهره گيري از هوش مصنوعي، گرفتن تأييد صحت محتوا از مراكز تشخيص صحت يا عدم صحت اخبار و تصاوير، افزايش سوادهاي نوين براي عموم جامعه، فعالان حوزه رسانه اي و بصري ضروري است.