بهروزرسانی راهنمای اخلاق هوش مصنوعی در سال ۲۰۲۵، روابطعمومی را از کاربر محتاط به رهبر اخلاقی استفاده از فناوری ارتقا میدهد.
این چارچوب با تأکید بر شفافیت، نظارت انسانی و حکمرانی مسئولانه، مسیر اعتمادسازی پایدار در ارتباطات را ترسیم میکند.
نویسنده: آندریا گیلز مونزون
تاریخ انتشار: ۱۰ نوامبر ۲۰۲۵
منبع: انجمن روابطعمومی آمریکا
شبکه اطلاعرسانی روابطعمومی ایران (شارا) || تقریباً همه متخصصان روابطعمومی این موقعیت را تجربه کردهاند؛ دقایقی مانده به پایان روز کاری و نیاز فوری به تهیه چند نسخه از یک اطلاعیه خبری. استفاده از سامانههای هوشمند نگارشی میتواند در چند ثانیه پیشنویسی قابل قبول تولید کند. اما پرسشهای مهمی در پس این سهولت نهفته است: آیا اطلاعات محرمانه ناخواسته افشا شده است؟ آیا نقلقول تولیدشده در آینده دردسرساز خواهد شد؟ و اگر روزنامهنگاری بپرسد این متن چگونه تولید شده، پاسخ حرفهای چیست؟
برای مدتها، متخصصان روابط عمومی ناچار بودند استفاده از هوش مصنوعی را بهتنهایی و بر اساس قضاوتهای لحظهای مدیریت کنند. این وضعیت اکنون با انتشار نسخه بهروزشده راهنمای اخلاق هوش مصنوعی در سال ۲۰۲۵ تغییر کرده است.
راهنمای جدید؛ از توصیههای کلی تا دستورالعملهای عملی
هیئت اخلاق و استانداردهای حرفهای انجمن روابطعمومی آمریکا، نسخه جدید راهنمای «وعدهها و مخاطرات استفاده اخلاقی از هوش مصنوعی در روابطعمومی» را منتشر کرده است. این راهنما برخلاف اسناد کلی گذشته، بهعنوان یک دفترچه عملیاتی طراحی شده و به نیازهای روزمره متخصصان پاسخ میدهد.
در نسخه سال ۲۰۲۵، چند تحول کلیدی دیده میشود:
نخست، شفافیت بهعنوان یک بخش مستقل مورد توجه قرار گرفته است. این بخش مشخص میکند در چه شرایطی و چگونه باید استفاده از هوش مصنوعی در تولید محتوا، تصاویر، فرایندهای جذب نیرو، گزارشدهی و قراردادها اعلام شود.
دوم، راهنما بهجای توصیههای کلی، اقدامهای عملی ارائه میدهد؛ از ارتقای سواد هوش مصنوعی و حفاظت از دادهها تا استفاده مسئولانه و آگاهی از سوگیریها.
سوم، چارچوبهای حکمرانی و آموزش بهصورت گامبهگام تشریح شدهاند؛ شامل ارزیابی عرضهکنندگان، آموزش تیمها، تشکیل گروههای مشورتی میانرشتهای و الزام نظارت انسانی بر تصمیمها.
چهارم، تحلیل حقوقی و مقرراتی گستردهتر شده و موضوعاتی مانند حقوق پدیدآورنده، شفافیت تبلیغاتی و قوانین ملی و فراملی مرتبط با هوش مصنوعی را در بر میگیرد.
در نهایت، نگاه راهنما از «هوش مصنوعی بهعنوان ابزار پرخطر» به «سامانهای نیازمند نظارت و حکمرانی» تغییر کرده است؛ تغییری که جایگاه روابطعمومی را بهعنوان نگهبان اخلاق و اعتماد برجسته میکند.
از استفاده محتاطانه تا حکمرانی فعال
نکته متمایز این نسخه، تغییر نقش روابطعمومی از کاربر محتاط به حاکم اخلاقی استفاده از هوش مصنوعی است. متخصص روابطعمومی دیگر تنها تولیدکننده پیام نیست، بلکه مشاور راهبردی است که درباره پیامدهای اخلاقی، شفافیت و اعتماد تصمیمسازی میکند.
در چنین نقشی، روابطعمومی باید بپرسد: آیا این سامانه سوگیری دارد؟ چگونه استفاده از آن را به مخاطب اعلام میکنیم؟ اگر خطایی رخ دهد، پاسخگویی چگونه خواهد بود؟ این پرسشها، ارزش حرفهای روابطعمومی را در عصر هوش مصنوعی تعریف میکنند.
مخاطرات واقعی بدون نظارت اخلاقی
راهنمای جدید تأکید میکند که خطرات هوش مصنوعی فراتر از خطاهای محتوایی است. استفاده بدون نظارت میتواند به گسترش اطلاعات نادرست، بازتولید تبعیض، نقض حقوق پدیدآورندگان، افشای دادههای محرمانه و پنهانسازی مسئولیت انسانی منجر شود.
نمونههایی مانند غربالگری ناعادلانه متقاضیان شغلی، القای حمایت مردمی ساختگی یا پایش پنهانی احساسات کارکنان، از جمله سناریوهایی است که میتواند سرمایه اعتماد سازمان را بهسرعت از بین ببرد.
شفافیت؛ ستون اعتماد در روابطعمومی
یکی از مهمترین بخشهای راهنما به اعلام شفاف استفاده از هوش مصنوعی اختصاص دارد. اصل کلی این است که هر زمان استفاده از هوش مصنوعی میتواند بر برداشت مخاطب، شکلگیری اعتماد یا فهم پیام اثر بگذارد، باید بهصورت روشن اعلام شود.
راهنما تأکید میکند شفافیت یک طیف است، نه یک پاسخ بله یا خیر. اگر نقش هوش مصنوعی پشتیبان و خروجی نهایی حاصل قضاوت انسانی باشد، الزام اعلام ممکن است متفاوت باشد. اما معیار نهایی، حفظ اعتماد مخاطب است.
پاسخ به پرسشهای رایج حرفهایها
در بخش پرسش و پاسخ، به دغدغههای متداول متخصصان پاسخ داده شده است. از جمله اینکه استفاده از هوش مصنوعی برای پیشنویس اطلاعیه خبری در صورت بررسی انسانی و پایبندی به اصول اخلاقی مجاز است. همچنین استفاده از ابزارهای عمومی تنها زمانی قابل قبول است که دادههای محرمانه وارد نشود و اطلاعات ذخیره نگردد. در همه موارد، شفافیت با مشتریان توصیه شده است.
رهبری تحول با حفظ اخلاق
راهنمای جدید مسیرهای عملی برای رهبری مسئولانه استفاده از هوش مصنوعی ارائه میدهد. ارزیابی دقیق عرضهکنندگان، آموزش کاربردی تیمها و ترجیح ابزارهایی که قضاوت انسانی را تقویت میکنند، از جمله توصیههای کلیدی است. اگر سامانهای جایگزین قضاوت حرفهای شود، راهنما صراحتاً هشدار میدهد که باید از آن فاصله گرفت.
جمعبندی
هوش مصنوعی اکنون بخشی جداییناپذیر از روابطعمومی است. پرسش اصلی دیگر استفاده یا عدم استفاده نیست، بلکه چگونگی استفاده اخلاقی و راهبردی از آن است. راهنمای بهروزشده سال ۲۰۲۵، روابطعمومی را در جایگاه شایسته خود قرار میدهد: رهبر اخلاق، حافظ اعتماد و معمار ارتباطات مسئولانه در عصر هوش مصنوعی.
با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:
برای اطلاعات بیشتر درباره روابط عمومی و اخبار سازمانهای مختلف، میتوانید به وبسایت شارا مراجعه کنید.
انتهای پیام/

نظر بدهید