درباره شارا | تماس | جستجوی پیشرفته | پیوندها | موبایل | RSS
 خانه    تازه ها    پایگاه اخبار    پایگاه اندیشه    پایگاه کتاب    پایگاه اطلاعات    پایگاه بین الملل    پایگاه چندرسانه ای    یایگاه امکانات  
پنجشنبه، 21 آذر 1398 - 13:58   

فراخوان اولین رویداد تجربه محور روابط عمومی ایران

  فراخوان اولین رویداد تجربه محور روابط عمومی ایران


ادامه ادامه مطلب یک

شخصیت سال مجله «تایم»

  شخصیت سال مجله «تایم»


ادامه ادامه مطلب دو

کارگاههای آموزشی ارتباطات بصری

  کارگاههای آموزشی ارتباطات بصری


ادامه ادامه مطلب سه

جای خالی آموزش بیمه به کودکان در رسانه های جمعی

  جای خالی آموزش بیمه به کودکان در رسانه های جمعی


ادامه ادامه مطلب چهار

   آخرین مطالب روابط عمومی  
  نمونه دعوتنامه: آیین تجلیل
  آشنایی با 10 بهترین اختراعات سال 2019
  ایجاد نظام اطلاعاتی کامپیوتری مشترک برای نهادهای بخش عمومی سوئد
  با واتساپ خداحافظی کنید اگر یکی از این 6 میلیون نفر هستید
  اخلاقی قائم‌مقام مدیرعامل بانک سپه شد/ مأموریت مهم چقازردی برای قائم‌مقام جدید بانک سپه
  شخصیت سال مجله «تایم»
  روابط‌عمومی شهرداری‌های استان یزد نیازمند یک برنامه هدفمند هستند
  نشست هیات رییسه شورای هماهنگی روابط عمومی های استان یزد
  تغییر در مدیریت ارتباط با رسانه‌های روابط عمومی صداوسیما
  جای خالی آموزش بیمه به کودکان در رسانه های جمعی
ادامه آخرین مطالب روابط عمومی
- اندازه متن: + -  کد خبر: 40774صفحه نخست » ارتباطات و روزنامه نگاریسه شنبه، 21 آبان 1398 - 16:43
به عصر "دیپ فیک‌" ها خوش آمدید
به عصر "دیپ فیک‌" ها خوش آمدید. روزگاری که در آن نه باید به گوش اعتماد کرد و نه به چشم، یا دست‌کم به گوش و چشم آموخت که اصل را از جعل تشخیص دهند. ویدیوی باراک اوباما که در مثال آمد، تنها نمونه‌ای از محتوایی است که به آن "دیپ‌فیک" (یا جعل عمیق) می‌گویند.
  

شبکه اطلاع رسانی روابط عمومی ایران (شارا)-|| روزگاری بود که می‌گفتند: تا با چشم خودت ندیده‌ای یا با گوش خودت نشنیده‌ای، باور نکن. اما آیا این گفته در مورد انسان امروزی در یکی از نقش‌هایش به عنوان کاربر اینترنت و بیننده و شنونده محتوایی که روزانه در شبکه‌ها منتشر می‌شود هم درست است؟ برای نمونه وقتی که چشم می‌بیند که باراک اوباما، رئیس جمهور آمریکا در تصویر، مقابل دوربین به بیننده زل زده و گوش می‌شنود که همین رئیس جمهور پیشین، دونالد ترامپ را یک احمق می‌نامد.

به عصر "دیپ فیک‌" ها خوش آمدید. روزگاری که در آن نه باید به گوش اعتماد کرد و نه به چشم، یا دست‌کم به گوش و چشم آموخت که اصل را از جعل تشخیص دهند. ویدیوی باراک اوباما که در مثال آمد، تنها نمونه‌ای از محتوایی است که به آن "دیپ‌فیک" (یا جعل عمیق) می‌گویند.

دیپ فیک چیست؟
دیپ‌فیک‌ به ویدیوهای دستکاری شده می‌گویند؛ ویدیوهایی که در آنها می‌توان سر شخصی را که در فیلم دیده می‌شود با دیگری عوض کرد، حرف‌هایی توی دهانش گذاشت که تا به حال نزده و حالاتی به بدن او داد که تا به حال از او دیده نشده است.

دیپ فیک‌ها یکی از از دستاوردهای هوش مصنوعی هستند که می‌توانند برای نمونه حرکات و چهره یک نفر را دست‌کاری کنند و حرف‌های ناگفته توی دهانش بگذارند. این ویدیوهای جعلی که با بهره‌گیری از Deep Learning (یادگیری ژرف) و حجم عظیمی از داده‌ها و شبکه عصبی مصنوعی ساخته می‌شوند، نتیجه محاسبات پیچیده‌ای هستند که برای نمونه می‌توانند از دو ویدیو (دو منبع تصویری)، یک ویدیوی جعلی تازه خلق کنند. البته همان‌گونه که اشاره شد، این دستکاری تنها به ویدیو خلاصه نمی‌شود؛ با این تکنولوژی می‌توان صداها را هم دستکاری کرد به گونه‌ای که شخصی جمله‌ای را بر زبان بیاورد که هیچ‌گاه نگفته است.

دیپ فیک‌ها یکی از از دستاوردهای هوش مصنوعی هستند که می‌توانند برای نمونه حرکات و چهره یک نفر را دست‌کاری کنند و حرف‌های ناگفته توی دهانش بگذارند. این ویدیوهای جعلی که با بهره‌گیری از Deep Learning (یادگیری ژرف) و حجم عظیمی از داده‌ها و شبکه عصبی مصنوعی ساخته می‌شوند، نتیجه محاسبات پیچیده‌ای هستند که برای نمونه می‌توانند از دو ویدیو (دو منبع تصویری)، یک ویدیوی جعلی تازه خلق کنند. البته همان‌گونه که اشاره شد، این دستکاری تنها به ویدیو خلاصه نمی‌شود؛ با این تکنولوژی می‌توان صداها را هم دستکاری کرد به گونه‌ای که شخصی جمله‌ای را بر زبان بیاورد که هیچ‌گاه نگفته است.

دیپ فیک چگونه متولد شد؟
سال ۲۰۱۴ یان گودفلو، یکی از پژوهشگران نامدار عرصه یادگیری ژرف و هوش مصنوعی در آمریکا، سیستم شبکه‌های رقابتی مولد را که به اختصار GAN نام دارند، به دنیای تکنولوژی معرفی کرد؛ GANها از جمله می‌توانستند به عنوان ابزاری مفید در سیستم‌های هوش مصنوعی برای تولید عکس‌ها و ویدیوهایی که حالا آنها را دیپ فیک می‌نامیم، به کار روند.

خدمت و خیانت دیپ‌فیک‌ها به سیاست و سیاستمداران
آنچه این روزها به بحث‌ها و نگرانی‌های زیادی در مورد دیپ‌فیک‌ها دامن زده است، پتانسیل سوء‌استفاده از آن برای مثال در حوزه‌های سیاسی و امنیتی است. مشکل اساسی به نظر بسیاری از کارشناسان از آنجایی شروع می‌شود که حرف‌های جنجالی در دهان سیاستمداران گذاشته شود. از دیگر سوءاستفاده‌هایی که می‌توان برای این تکنولوژی تصور کرد، بهره‌گیری ازاین "جعل" برای زهرچشم گرفتن و خاموش کردن فعالان سیاسی و مدنی یا خبرنگاران است.

در این میان یکی از موضوع‌هایی که بویژه به نگرانی سیاستمداران دامن زده، نزدیک‌شدن به انتخابات آمریکا و سوء‌استفاده از دیپ فیک در فضای پیشاانتخاباتی این کشور است. سال ۲۰۱۶ آنچه که بر انتخابات ریاست جمهوری آمریکا سایه افکند، موضوع انتشار اطلاعات اشتباه، فیک نیوز (اخبار جعلی)، بود و ظن تلاش برای دستکاری اطلاعات. اکنون پیش از انتخابات ۲۰۲۰ آمریکا و در فضایی که هر جرقه‌ای می‌تواند آتش دودستگی را در این کشور شعله‌ور کند، بیم و نگرانی از دیپ فیک‌ها و نقش احتمالی آنها در انحراف افکار عمومی برجسته می‌شود.

تلاش برای مقابله با دیپ‌فیک‌ها از راه تشخیص اصل از جعل
نگرانی آنها جدی است، تا آنجا که دست به کار شده‌اند. آژانس پروژه‌های پیشرفته دفاعی وزارت دفاع آمریکا (Darpa) میلیون‌ها دلار بودجه برای پژوهش در مورد راه‌های تشخیص دیپ فیک اختصاص داده است. این مرکز تحقیقاتی تنها نیست؛ فیس بوک و گوگل هم برای رسیدن به متدهایی که چنین محتوایی را از اصل تشخیص و تمییز دهد، هزینه می‌کنند.

آژانس‌های خبری مانند رویترز از همین حالا برای مبارزه و تشخیص دیپ‌فیک‌ها خودشان را مجهز می‌کنند. رویترز با تنظیم "فکتن‌چکر" سعی می‌کند خود را مجهز کند. اما مسئول بخش یوجی سی و راست‌آزمایی یوجی سی رویترز می‌گوید، دیپ فیک‌های بسیار خوب حتی حرفه‌ای ها را هم به اشتباه می‌اندازند.

هائو لی، پروفسور دانشگاه کالیفرنیای جنوبی که یکی از زمینه‌های فعالیتش هوش مصنوعی است، در مصاحبه‌ای با روزنامه آلمانی دی‌تسایت می‌گوید، احتمال اینکه به زودی با پیشرفت فناوری دیپ‌فیک‌هایی تولید شوند که نه انسان و نه ماشین قادر به تشخیص اصل یا جعل بودن آن‌ها نباشند، زیاد است. یعنی به گفته این پژوهشگر، در آینده‌ای نه چندان دور، نه چشم ما و نه متخصصان قادر به تشخیص دستکاری نخواهند بود. این متخصص برای اثبات پیش‌بینی خود به سرعت رشد این تکنولوژی اشاره می‌کند و پیشرفتی کیفی که در فاصله زمانی کوتاهی در این ویدیوها دیده می‌شود.

وقتی که به "اصل" هم دیگر اعتماد نمی‌کنیم
اما خطر دیپ فیک‌ها تنها این نیست که نتوانیم ویدیو و محتوای جعلی را تشخیص دهیم. نگرانی وقتی بزرگتر می‌شود که "اصل" را ببینیم و بشنویم ولی گمان بر "جعل" بودن آن ببریم. اتفاقی که در کمتر از یک سال پیش افتاد.

در دسامبر سال ۲۰۱۸ در کشور گابُن در فیس بوک ویدیویی پست شد که در آن، رئیس جمهور این کشور، علی بونگو سخنرانی می‌کرد. ماه‌ها بود که بونگو در تلویزیون و مراسم دیگر ظاهر نشده بود و بسیاری مردم احتمال بیماری شدید یا حتی احتمال مرگ او را می‌دادند. با انتشار این ویدیو، رقیبان سیاسی، آن را دیپ فیک نامیدند و همین موضوع یکی از علت‌های کودتای ارتش در چند هفته بعد از انتشار ویدیو شد.

این تنها نمونه‌ای است از آنچه دیپ‌فیک می‌تواند در دنیای سیاست به بار بیاورد؛ یک احتمال و دست به کار شدن، بدون راستی‌آزمایی احتمال و محتوا.

@@@@ شارا را در کانال تلگرام دنبال کنید

قربانی زنان‌اند و شهروندان عادی
با این وجود هستند متخصصان و کارشناسانی که می‌گویند، شاید "دیپ فیک" پدیده‌ای نو باشد، اما "جعل" پدیده‌ی امروز نیست؛ دستکاری کردن سطحی تا پیچیده عکس با فوتوشاپ تا نشاندن متنی که با عکس مرتبط نبوده، در پای تصویر ... مثال‌ها زیاد است از آنچه کارشناسان آن را "چیپ فیک:دستکاری سطحی" می‌نامند و معتقدند، تا بوده همین بوده.

این کارشناسان خطر دیپ فیک را نه آنگونه که تبلیغ می‌شود، متوجه سیاستمداران، خبرنگاران، و در کل آدم‌های مشهور می‌دانند که معتقدند، کاربران عادی و به ویژه زنان قربانی اصلی دیپ فیک‌ها هستند و باید برای مقابله با آن به فکر چاره بود؛ زنانی که قربانی انتقام می‌شوند و سرشان روی بدن یک پورن‌استار قرار می‌گیرد و فیلمشان منتشر می‌شود یا دانش‌آموزانی که با این روش موبینگ می‌شوند یا شهروندان عادی که از این طریق از آنها اخاذی می‌شود.

کم نیستند کارشناسانی که در مورد نگرانی بزرگی که در مورد سوء‌استفاده سیاسی از دیپ فیک وجود دارد، بر این باورند که، برای پروپاگاندا و تخریب، روش‌های دیگر آسان‌تر و باورپذیرترند تا تعویض برای نمونه سر ترامپ با سارکوزی.

هرچند خطر دیپ فیک را نباید دست کم گرفت اما برای نمونه برای تخریب رقیب سیاسی در یک کارزار انتخاباتی، حتما نباید دست به دامن دیپ فیک شد، می‌توان به دوربین زل زد و در برابر میلیون‌ها بیننده، دروغ گفت.

 

منبع: وله

 

 

 

 

   
  

اضافه نمودن به: Share/Save/Bookmark

نظر شما:
نام:
پست الکترونیکی:
نظر
 
  کد امنیتی:
 
   پربیننده ترین مطالب روابط عمومی  

  با واتساپ خداحافظی کنید اگر یکی از این 6 میلیون نفر هستید


  7 تا از بهترین کتاب های جدید روابط عمومی که در سال ۲۰۲۰ باید خوانده شود


  چرا ایجاد ارتباط شخصی با مخاطب در روابط عمومی اهمیت دارد؟


  جای خالی آموزش بیمه به کودکان در رسانه های جمعی


  روابط عمومی ها باید سخنگوی دستگاه های اجرایی و زبان گویای مردم باشند


  روابط عمومی در اندیشه های ساروخانی


  ایجاد نظام اطلاعاتی کامپیوتری مشترک برای نهادهای بخش عمومی سوئد


  آشنایی با 10 بهترین اختراعات سال 2019


  رئیس سازمان مدیریت و برنامه ریزی کردستان: روابط عمومی ها آموزش را جدی بگیرند


  ایده پردازی و تجربه محوری: شناختن و آغوش گرفتن روابط عمومی در حال تغییر


 
 
 
مقالات
گفتگو
گزارش
آموزش
جهان روابط عمومی
مدیریت
رویدادها
روابط عمومی ایران
کتابخانه
تازه های شبکه
آخرین رویدادها
فن آوری های نو
تبلیغات و بازاریابی
ایده های برتر
بادپخش صوتی
گزارش تصویری
پیشنهادهای کاربران
اخبار بانک و بیمه
نیازمندی ها
خدمات
خبرنگار افتخاری
بخش اعضا
دانلود کتاب
پیوندها
جستجوی پیشرفته
موبایل
آر اس اس
بخشنامه ها
پیشکسوتان
لوح های سپاس
پیام های تسلیت
مناسبت ها
جملات حکیمانه
پایان نامه ها
درباره شارا
تماس با ما
Shara English
Public Relation
Social Media
Marketing
Events
Mobile
Content
Iran Pr
About Us - Contact US - Search
استفاده از مطالب این سایت با درج منبع مجاز است
تمام حقوق مادی و معنوی این سایت متعلق به شارا است
info@shara.ir
  خبر فوری: اولین رویداد تجربه محور روابط عمومی ایران برگزار می شود