درباره شارا | تماس | جستجوی پیشرفته | پیوندها | موبایل | RSS
 خانه    تازه ها    پایگاه اخبار    پایگاه اندیشه    پایگاه کتاب    پایگاه اطلاعات    پایگاه بین الملل    پایگاه چندرسانه ای    پایگاه امکانات  
سه شنبه، 29 اسفند 1402 - 10:50   

روابط‌عمومی: افزایش اعتماد به رسانه‌ها و پیامدهای آن

  روابط‌عمومی: افزایش اعتماد به رسانه‌ها و پیامدهای آن


ادامه ادامه مطلب یک

ادغام ابزارهای دیجیتال در هر مرحله از استراتژی فروش

  ادغام ابزارهای دیجیتال در هر مرحله از استراتژی فروش


ادامه ادامه مطلب دو

روابط‌عمومی را هسته اصلی استراتژی رشد خود قرار دهید

  روابط‌عمومی را هسته اصلی استراتژی رشد خود قرار دهید


ادامه ادامه مطلب سه

هوش مصنوعی در دادگاه: توهمات و خطرات

  هوش مصنوعی در دادگاه: توهمات و خطرات


ادامه ادامه مطلب چهار

   آخرین مطالب روابط عمومی  
  نوروز ۱۴۰۳، گامی نو در مسیر تحول روابط‌عمومی با هوش مصنوعی
  شکاف همدلی بین کارگران و شرکت‌ها: چالشی بزرگ برای مدیران عامل
  روابط‌عمومی مبتنی بر داده: ضرورتی برای حرفه‌ای شدن
  پنج نکته از بیستمین کنفرانس بین‌المللی روابط‌عمومی ایران
  پنج درس از بیستمین کنفرانس بین‌المللی روابط‌عمومی ایران
  هوش مصنوعی و آینده زنجیره تامین: تحولات کلیدی و گام‌های عملی
  12 گام برای ارتقای برنامه‌ها و فعالیت‌های روابط‌عمومی در سال جدید
  روابط‌عمومی را هسته اصلی استراتژی رشد خود قرار دهید
  ادغام ابزارهای دیجیتال در هر مرحله از استراتژی فروش
  هوش مصنوعی در دادگاه: توهمات و خطرات
ادامه آخرین مطالب روابط عمومی
- اندازه متن: + -  کد خبر: 40774صفحه نخست » ارتباطات و روزنامه نگاریسه شنبه، 21 آبان 1398 - 16:43
به عصر "دیپ فیک‌" ها خوش آمدید
به عصر "دیپ فیک‌" ها خوش آمدید. روزگاری که در آن نه باید به گوش اعتماد کرد و نه به چشم، یا دست‌کم به گوش و چشم آموخت که اصل را از جعل تشخیص دهند. ویدیوی باراک اوباما که در مثال آمد، تنها نمونه‌ای از محتوایی است که به آن "دیپ‌فیک" (یا جعل عمیق) می‌گویند.
  

شبکه اطلاع رسانی روابط عمومی ایران (شارا)-|| روزگاری بود که می‌گفتند: تا با چشم خودت ندیده‌ای یا با گوش خودت نشنیده‌ای، باور نکن. اما آیا این گفته در مورد انسان امروزی در یکی از نقش‌هایش به عنوان کاربر اینترنت و بیننده و شنونده محتوایی که روزانه در شبکه‌ها منتشر می‌شود هم درست است؟ برای نمونه وقتی که چشم می‌بیند که باراک اوباما، رئیس جمهور آمریکا در تصویر، مقابل دوربین به بیننده زل زده و گوش می‌شنود که همین رئیس جمهور پیشین، دونالد ترامپ را یک احمق می‌نامد.

به عصر "دیپ فیک‌" ها خوش آمدید. روزگاری که در آن نه باید به گوش اعتماد کرد و نه به چشم، یا دست‌کم به گوش و چشم آموخت که اصل را از جعل تشخیص دهند. ویدیوی باراک اوباما که در مثال آمد، تنها نمونه‌ای از محتوایی است که به آن "دیپ‌فیک" (یا جعل عمیق) می‌گویند.

دیپ فیک چیست؟
دیپ‌فیک‌ به ویدیوهای دستکاری شده می‌گویند؛ ویدیوهایی که در آنها می‌توان سر شخصی را که در فیلم دیده می‌شود با دیگری عوض کرد، حرف‌هایی توی دهانش گذاشت که تا به حال نزده و حالاتی به بدن او داد که تا به حال از او دیده نشده است.

دیپ فیک‌ها یکی از از دستاوردهای هوش مصنوعی هستند که می‌توانند برای نمونه حرکات و چهره یک نفر را دست‌کاری کنند و حرف‌های ناگفته توی دهانش بگذارند. این ویدیوهای جعلی که با بهره‌گیری از Deep Learning (یادگیری ژرف) و حجم عظیمی از داده‌ها و شبکه عصبی مصنوعی ساخته می‌شوند، نتیجه محاسبات پیچیده‌ای هستند که برای نمونه می‌توانند از دو ویدیو (دو منبع تصویری)، یک ویدیوی جعلی تازه خلق کنند. البته همان‌گونه که اشاره شد، این دستکاری تنها به ویدیو خلاصه نمی‌شود؛ با این تکنولوژی می‌توان صداها را هم دستکاری کرد به گونه‌ای که شخصی جمله‌ای را بر زبان بیاورد که هیچ‌گاه نگفته است.

دیپ فیک‌ها یکی از از دستاوردهای هوش مصنوعی هستند که می‌توانند برای نمونه حرکات و چهره یک نفر را دست‌کاری کنند و حرف‌های ناگفته توی دهانش بگذارند. این ویدیوهای جعلی که با بهره‌گیری از Deep Learning (یادگیری ژرف) و حجم عظیمی از داده‌ها و شبکه عصبی مصنوعی ساخته می‌شوند، نتیجه محاسبات پیچیده‌ای هستند که برای نمونه می‌توانند از دو ویدیو (دو منبع تصویری)، یک ویدیوی جعلی تازه خلق کنند. البته همان‌گونه که اشاره شد، این دستکاری تنها به ویدیو خلاصه نمی‌شود؛ با این تکنولوژی می‌توان صداها را هم دستکاری کرد به گونه‌ای که شخصی جمله‌ای را بر زبان بیاورد که هیچ‌گاه نگفته است.

دیپ فیک چگونه متولد شد؟
سال ۲۰۱۴ یان گودفلو، یکی از پژوهشگران نامدار عرصه یادگیری ژرف و هوش مصنوعی در آمریکا، سیستم شبکه‌های رقابتی مولد را که به اختصار GAN نام دارند، به دنیای تکنولوژی معرفی کرد؛ GANها از جمله می‌توانستند به عنوان ابزاری مفید در سیستم‌های هوش مصنوعی برای تولید عکس‌ها و ویدیوهایی که حالا آنها را دیپ فیک می‌نامیم، به کار روند.

خدمت و خیانت دیپ‌فیک‌ها به سیاست و سیاستمداران
آنچه این روزها به بحث‌ها و نگرانی‌های زیادی در مورد دیپ‌فیک‌ها دامن زده است، پتانسیل سوء‌استفاده از آن برای مثال در حوزه‌های سیاسی و امنیتی است. مشکل اساسی به نظر بسیاری از کارشناسان از آنجایی شروع می‌شود که حرف‌های جنجالی در دهان سیاستمداران گذاشته شود. از دیگر سوءاستفاده‌هایی که می‌توان برای این تکنولوژی تصور کرد، بهره‌گیری ازاین "جعل" برای زهرچشم گرفتن و خاموش کردن فعالان سیاسی و مدنی یا خبرنگاران است.

در این میان یکی از موضوع‌هایی که بویژه به نگرانی سیاستمداران دامن زده، نزدیک‌شدن به انتخابات آمریکا و سوء‌استفاده از دیپ فیک در فضای پیشاانتخاباتی این کشور است. سال ۲۰۱۶ آنچه که بر انتخابات ریاست جمهوری آمریکا سایه افکند، موضوع انتشار اطلاعات اشتباه، فیک نیوز (اخبار جعلی)، بود و ظن تلاش برای دستکاری اطلاعات. اکنون پیش از انتخابات ۲۰۲۰ آمریکا و در فضایی که هر جرقه‌ای می‌تواند آتش دودستگی را در این کشور شعله‌ور کند، بیم و نگرانی از دیپ فیک‌ها و نقش احتمالی آنها در انحراف افکار عمومی برجسته می‌شود.

تلاش برای مقابله با دیپ‌فیک‌ها از راه تشخیص اصل از جعل
نگرانی آنها جدی است، تا آنجا که دست به کار شده‌اند. آژانس پروژه‌های پیشرفته دفاعی وزارت دفاع آمریکا (Darpa) میلیون‌ها دلار بودجه برای پژوهش در مورد راه‌های تشخیص دیپ فیک اختصاص داده است. این مرکز تحقیقاتی تنها نیست؛ فیس بوک و گوگل هم برای رسیدن به متدهایی که چنین محتوایی را از اصل تشخیص و تمییز دهد، هزینه می‌کنند.

آژانس‌های خبری مانند رویترز از همین حالا برای مبارزه و تشخیص دیپ‌فیک‌ها خودشان را مجهز می‌کنند. رویترز با تنظیم "فکتن‌چکر" سعی می‌کند خود را مجهز کند. اما مسئول بخش یوجی سی و راست‌آزمایی یوجی سی رویترز می‌گوید، دیپ فیک‌های بسیار خوب حتی حرفه‌ای ها را هم به اشتباه می‌اندازند.

هائو لی، پروفسور دانشگاه کالیفرنیای جنوبی که یکی از زمینه‌های فعالیتش هوش مصنوعی است، در مصاحبه‌ای با روزنامه آلمانی دی‌تسایت می‌گوید، احتمال اینکه به زودی با پیشرفت فناوری دیپ‌فیک‌هایی تولید شوند که نه انسان و نه ماشین قادر به تشخیص اصل یا جعل بودن آن‌ها نباشند، زیاد است. یعنی به گفته این پژوهشگر، در آینده‌ای نه چندان دور، نه چشم ما و نه متخصصان قادر به تشخیص دستکاری نخواهند بود. این متخصص برای اثبات پیش‌بینی خود به سرعت رشد این تکنولوژی اشاره می‌کند و پیشرفتی کیفی که در فاصله زمانی کوتاهی در این ویدیوها دیده می‌شود.

وقتی که به "اصل" هم دیگر اعتماد نمی‌کنیم
اما خطر دیپ فیک‌ها تنها این نیست که نتوانیم ویدیو و محتوای جعلی را تشخیص دهیم. نگرانی وقتی بزرگتر می‌شود که "اصل" را ببینیم و بشنویم ولی گمان بر "جعل" بودن آن ببریم. اتفاقی که در کمتر از یک سال پیش افتاد.

در دسامبر سال ۲۰۱۸ در کشور گابُن در فیس بوک ویدیویی پست شد که در آن، رئیس جمهور این کشور، علی بونگو سخنرانی می‌کرد. ماه‌ها بود که بونگو در تلویزیون و مراسم دیگر ظاهر نشده بود و بسیاری مردم احتمال بیماری شدید یا حتی احتمال مرگ او را می‌دادند. با انتشار این ویدیو، رقیبان سیاسی، آن را دیپ فیک نامیدند و همین موضوع یکی از علت‌های کودتای ارتش در چند هفته بعد از انتشار ویدیو شد.

این تنها نمونه‌ای است از آنچه دیپ‌فیک می‌تواند در دنیای سیاست به بار بیاورد؛ یک احتمال و دست به کار شدن، بدون راستی‌آزمایی احتمال و محتوا.

@@@@ شارا را در کانال تلگرام دنبال کنید

قربانی زنان‌اند و شهروندان عادی
با این وجود هستند متخصصان و کارشناسانی که می‌گویند، شاید "دیپ فیک" پدیده‌ای نو باشد، اما "جعل" پدیده‌ی امروز نیست؛ دستکاری کردن سطحی تا پیچیده عکس با فوتوشاپ تا نشاندن متنی که با عکس مرتبط نبوده، در پای تصویر ... مثال‌ها زیاد است از آنچه کارشناسان آن را "چیپ فیک:دستکاری سطحی" می‌نامند و معتقدند، تا بوده همین بوده.

این کارشناسان خطر دیپ فیک را نه آنگونه که تبلیغ می‌شود، متوجه سیاستمداران، خبرنگاران، و در کل آدم‌های مشهور می‌دانند که معتقدند، کاربران عادی و به ویژه زنان قربانی اصلی دیپ فیک‌ها هستند و باید برای مقابله با آن به فکر چاره بود؛ زنانی که قربانی انتقام می‌شوند و سرشان روی بدن یک پورن‌استار قرار می‌گیرد و فیلمشان منتشر می‌شود یا دانش‌آموزانی که با این روش موبینگ می‌شوند یا شهروندان عادی که از این طریق از آنها اخاذی می‌شود.

کم نیستند کارشناسانی که در مورد نگرانی بزرگی که در مورد سوء‌استفاده سیاسی از دیپ فیک وجود دارد، بر این باورند که، برای پروپاگاندا و تخریب، روش‌های دیگر آسان‌تر و باورپذیرترند تا تعویض برای نمونه سر ترامپ با سارکوزی.

هرچند خطر دیپ فیک را نباید دست کم گرفت اما برای نمونه برای تخریب رقیب سیاسی در یک کارزار انتخاباتی، حتما نباید دست به دامن دیپ فیک شد، می‌توان به دوربین زل زد و در برابر میلیون‌ها بیننده، دروغ گفت.

 

منبع: وله

 

 

 

 

   
  

اضافه نمودن به: Share/Save/Bookmark

نظر شما:
نام:
پست الکترونیکی:
نظر
 
  کد امنیتی:
 
   پربیننده ترین مطالب روابط عمومی  

  هوش مصنوعی و آینده زنجیره تامین: تحولات کلیدی و گام‌های عملی


  پنج درس از بیستمین کنفرانس بین‌المللی روابط‌عمومی ایران


  روابط‌عمومی مبتنی بر داده: ضرورتی برای حرفه‌ای شدن


  پنج نکته از بیستمین کنفرانس بین‌المللی روابط‌عمومی ایران


  شکاف همدلی بین کارگران و شرکت‌ها: چالشی بزرگ برای مدیران عامل


  نوروز ۱۴۰۳، گامی نو در مسیر تحول روابط‌عمومی با هوش مصنوعی


 
 
 
مقالات
گفتگو
گزارش
آموزش
جهان روابط عمومی
مدیریت
رویدادها
روابط عمومی ایران
کتابخانه
تازه های شبکه
آخرین رویدادها
فن آوری های نو
تبلیغات و بازاریابی
ایده های برتر
بادپخش صوتی
گزارش تصویری
پیشنهادهای کاربران
اخبار بانک و بیمه
نیازمندی ها
خدمات
خبرنگار افتخاری
بخش اعضا
دانلود کتاب
پیوندها
جستجوی پیشرفته
موبایل
آر اس اس
بخشنامه ها
پیشکسوتان
لوح های سپاس
پیام های تسلیت
مناسبت ها
جملات حکیمانه
پایان نامه ها
درباره شارا
تماس با ما
Shara English
Public Relation
Social Media
Marketing
Events
Mobile
Content
Iran Pr
About Us - Contact US - Search
استفاده از مطالب این سایت با درج منبع مجاز است
تمام حقوق مادی و معنوی این سایت متعلق به شارا است
info@shara.ir
  خبر فوری: معرفی کتاب «هوش مصنوعی روابط‌عمومی در عمل» منتشر شد