این سند با هدف افزایش شفافیت، مسئولیتپذیری و ارتقای سواد هوش مصنوعی در میان فعالان روابطعمومی تدوین شده است.
در نسخه جدید، چارچوبهایی برای آموزش تیمها، ارزیابی تأمینکنندگان فناوری و اطلاعرسانی شفاف درباره استفاده از AI ارائه شده است.
راهنما هشدار میدهد که استفاده غیرنظارتی از هوش مصنوعی میتواند منجر به سوگیری، افشای دادهها و نقض اعتماد عمومی شود.
نویسنده: آندریا گیلس مونزون
منبع: پی آرنیوز
شبکه اطلاعرسانی روابطعمومی ایران (شارا) || انجمن روابطعمومی آمریکا (PRSA) در تازهترین بهروزرسانی خود، نسخه جدید راهنمای اخلاقی استفاده از هوش مصنوعی در روابطعمومی را منتشر کرده است. این سند با عنوان «وعدهها و چالشها: استفاده اخلاقی از هوش مصنوعی در روابطعمومی»، مجموعهای کاربردی از اصول، چارچوبها و دستورالعملهای اجرایی است که روابطعمومیها را در مواجهه با تحولات سریع فناوری یاری میکند.
🟦 مهمترین تغییرات نسخه ۲۰۲۵
در این نسخه، چند محور کلیدی بهروزرسانی شده است:
-
شفافیت (Transparency):
بخشی مستقل به این موضوع اختصاص یافته است. در آن دستورالعملهای مشخصی برای افشای استفاده از هوش مصنوعی در تولید محتوا، طراحی، استخدام، گزارشدهی و قراردادها با مثالهای عملی ارائه شده است. -
اقدامات عملی و فوری:
راهنما دیگر صرفاً نظری نیست؛ بلکه فهرستی از گامهای اجرایی درباره سواد هوش مصنوعی، حفاظت از حریم خصوصی، استفاده مسئولانه و آگاهی از سوگیریها ارائه میدهد. -
چارچوب حکمرانی و آموزش:
مراحل گامبهگام برای ارزیابی تأمینکنندگان خدمات هوش مصنوعی، آموزش تیمها، تشکیل کمیتههای مشورتی چندرشتهای و حفظ نقش نظارتی انسان تدوین شده است. -
تحلیل گسترده مقررات:
راهنما علاوه بر قوانین ایالتی و فدرال آمریکا (مانند قانون «حکمرانی مسئولانه هوش مصنوعی تگزاس»)، مقررات بینالمللی همچون قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) و GDPR را نیز بررسی میکند. -
تغییر رویکرد اصلی:
دیدگاه کلی از «هوش مصنوعی بهعنوان ابزار پرخطر» به «سیستمی درهمتنیده که نیازمند نظارت اخلاقی مداوم است» تغییر یافته است.
🟩 نقش جدید متخصصان روابطعمومی
در این سند، متخصصان روابطعمومی صرفاً کاربران ابزارهای هوش مصنوعی نیستند، بلکه حاکمان اخلاقی و راهبردی این فناوری در سازمانها محسوب میشوند.
برای نمونه، وقتی مدیرعامل تصمیم به راهاندازی چتبات هوش مصنوعی میگیرد، متخصص روابطعمومی باید بپرسد:
آیا این ابزار از نظر سوگیری دادهها بررسی شده است؟ چطور باید درباره استفاده از آن اطلاعرسانی کنیم؟ و اگر اشتباهی رخ دهد، چه کسی پاسخگوست؟
🟥 خطرات استفاده غیرنظارتی از هوش مصنوعی
راهنما هشدار میدهد که استفاده بدون نظارت از هوش مصنوعی میتواند به:
-
انتشار ناخواسته اطلاعات نادرست،
-
بازتولید سوگیری و تبعیض،
-
نقض حقوق مالکیت فکری،
-
افشای دادههای محرمانه،
-
و حذف مسئولیت انسانی منجر شود.
نمونههایی چون فیلتر کردن اشتباه متقاضیان استخدام بر اساس دادههای مغرضانه یا تولید نامههای جعلی برای کمپینهای عمومی، از جمله خطرات واقعی مطرحشده در این سند است.
🟨 شفافیت و اطلاعرسانی
اصلیترین توصیه PRSA این است:
«در اغلب فعالیتهای روابطعمومی باید درباره استفاده از هوش مصنوعی شفاف بود. هر زمان که محتوا، تصمیم یا تعاملات بهطور معناداری تحتتأثیر هوش مصنوعی باشد، باید افشا شود.»
راهنما طیفی از نمونههای اطلاعرسانی را ارائه میدهد، از جمله درج عبارت سادهی:
«این محتوا با کمک هوش مصنوعی تولید شده است»،
تا توضیحات دقیقتر درباره میزان دخالت انسان در فرایند تولید.
🟪 پاسخ به پرسشهای رایج اخلاقی
بخش پرسش و پاسخ راهنما به دغدغههای عملی پاسخ میدهد:
-
آیا استفاده از هوش مصنوعی برای نگارش خبرنامه یا بیانیه مطبوعاتی مجاز است؟
بله، اگر دقت، صحت و بازبینی انسانی رعایت شود. -
آیا میتوان از ابزارهای عمومی برای پروژههای مشتری استفاده کرد؟
تنها در صورتی که دادههای محرمانه ذخیره یا بازاستفاده نشوند. -
آیا باید مشتری را از استفاده از هوش مصنوعی مطلع کرد؟
بله، شفافیت اعتماد میسازد؛ در تحویل پروژهها یا قراردادها باید بهوضوح ذکر شود.
🟦 رهبری اخلاقی در پذیرش هوش مصنوعی
در بخش پایانی، راهنما چارچوبی عملی برای هدایت اخلاقی سازمانها در مسیر پذیرش هوش مصنوعی ارائه میدهد.
برای مثال، در ارزیابی تأمینکنندگان فناوری، متخصص روابطعمومی باید درباره نحوه مدیریت دادهها، آزمایش سوگیری و میزان نظارت انسانی سؤال کند.
همچنین تأکید میشود:
«اگر یک پلتفرم جایگزین قضاوت انسانی میشود، نه تقویتکننده آن، باید از آن صرفنظر کرد.»
راهنما همچنین نسخهای بهروزشده از کد اخلاقی PRSA را ارائه میدهد که شامل نمونههای موردی و تحلیل سود–زیان برای تصمیمگیریهای اخلاقی در محیط هوش مصنوعی است.
🟩 چشمانداز آینده
PRSA اذعان میکند که مسیر اخلاقی هوش مصنوعی هنوز در حال شکلگیری است. این انجمن قصد دارد با انتشار راهنماهای تکمیلی درباره مسئولیتپذیری، هوش مصنوعی خودکار (Agentic AI)، سوگیری فرهنگی و اثرات زیستمحیطی، بحث را ادامه دهد.
به گفته نویسنده، امروز نقش متخصصان روابطعمومی از مدیریت پیامها فراتر رفته و به طراحی سیستمهای ارتباطی، تنظیم صدا و ساخت اعتبار سازمانی گسترش یافته است.
🟦 جمعبندی
هوش مصنوعی ابزاری است؛ اما روابطعمومیها وجدان اخلاقی سازمان هستند.
راهنمای جدید PRSA چارچوبی عملی برای تصمیمگیری شفاف، استفاده مسئولانه و حفظ اعتماد عمومی فراهم میکند.
پرسش اصلی دیگر «آیا باید از هوش مصنوعی استفاده کنیم؟» نیست، بلکه این است:
چگونه از آن بهگونهای استفاده کنیم که به حرفهی روابطعمومی اعتبار ببخشد، نه آسیب بزند.
این سند به متخصصان روابطعمومی اطمینان میدهد که میتوانند با قضاوت اخلاقی، دانش فنی و شفافیت، آینده ارتباطات مبتنی بر هوش مصنوعی را هدایت کنند.
با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:
برای اطلاعات بیشتر درباره روابط عمومی و اخبار سازمانهای مختلف، میتوانید به وبسایت شارا مراجعه کنید.
انتهای پیام/
لینک کوتاه: https://www.shara.ir/?p=46445

نظر بدهید