راهنمای جدید انجمن روابط‌عمومی آمریکا درباره اخلاق هوش مصنوعی در سال ۲۰۲۵؛ آنچه متخصصان روابط‌عمومی باید بدانند
انجمن روابط‌عمومی آمریکا (PRSA) نسخه ۲۰۲۵ راهنمای اخلاقی هوش مصنوعی را با محور شفافیت، آموزش و حکمرانی مسئولانه منتشر کرد.

انجمن روابط‌عمومی آمریکا نسخه جدید راهنمای اخلاقی استفاده از هوش مصنوعی را برای سال ۲۰۲۵ منتشر کرد.

این سند با هدف افزایش شفافیت، مسئولیت‌پذیری و ارتقای سواد هوش مصنوعی در میان فعالان روابط‌عمومی تدوین شده است.

در نسخه جدید، چارچوب‌هایی برای آموزش تیم‌ها، ارزیابی تأمین‌کنندگان فناوری و اطلاع‌رسانی شفاف درباره استفاده از AI ارائه شده است.

راهنما هشدار می‌دهد که استفاده غیرنظارتی از هوش مصنوعی می‌تواند منجر به سوگیری، افشای داده‌ها و نقض اعتماد عمومی شود.
PRSA متخصصان روابط عمومی را رهبران اخلاقی عصر هوش مصنوعی می‌داند که باید فناوری را در خدمت صداقت، شفافیت و اعتماد قرار دهند.

نویسنده: آندریا گیلس مونزون

منبع: پی آرنیوز


شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || انجمن روابط‌عمومی آمریکا (PRSA) در تازه‌ترین به‌روزرسانی خود، نسخه جدید راهنمای اخلاقی استفاده از هوش مصنوعی در روابط‌عمومی را منتشر کرده است. این سند با عنوان «وعده‌ها و چالش‌ها: استفاده اخلاقی از هوش مصنوعی در روابط‌عمومی»، مجموعه‌ای کاربردی از اصول، چارچوب‌ها و دستورالعمل‌های اجرایی است که روابط‌عمومی‌ها را در مواجهه با تحولات سریع فناوری یاری می‌کند.

🟦 مهم‌ترین تغییرات نسخه ۲۰۲۵

در این نسخه، چند محور کلیدی به‌روزرسانی شده است:

  1. شفافیت (Transparency):
    بخشی مستقل به این موضوع اختصاص یافته است. در آن دستورالعمل‌های مشخصی برای افشای استفاده از هوش مصنوعی در تولید محتوا، طراحی، استخدام، گزارش‌دهی و قراردادها با مثال‌های عملی ارائه شده است.

  2. اقدامات عملی و فوری:
    راهنما دیگر صرفاً نظری نیست؛ بلکه فهرستی از گام‌های اجرایی درباره سواد هوش مصنوعی، حفاظت از حریم خصوصی، استفاده مسئولانه و آگاهی از سوگیری‌ها ارائه می‌دهد.

  3. چارچوب حکمرانی و آموزش:
    مراحل گام‌به‌گام برای ارزیابی تأمین‌کنندگان خدمات هوش مصنوعی، آموزش تیم‌ها، تشکیل کمیته‌های مشورتی چندرشته‌ای و حفظ نقش نظارتی انسان تدوین شده است.

  4. تحلیل گسترده مقررات:
    راهنما علاوه بر قوانین ایالتی و فدرال آمریکا (مانند قانون «حکمرانی مسئولانه هوش مصنوعی تگزاس»)، مقررات بین‌المللی همچون قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) و GDPR را نیز بررسی می‌کند.

  5. تغییر رویکرد اصلی:
    دیدگاه کلی از «هوش مصنوعی به‌عنوان ابزار پرخطر» به «سیستمی درهم‌تنیده که نیازمند نظارت اخلاقی مداوم است» تغییر یافته است.

🟩 نقش جدید متخصصان روابط‌عمومی

در این سند، متخصصان روابط‌عمومی صرفاً کاربران ابزارهای هوش مصنوعی نیستند، بلکه حاکمان اخلاقی و راهبردی این فناوری در سازمان‌ها محسوب می‌شوند.
برای نمونه، وقتی مدیرعامل تصمیم به راه‌اندازی چت‌بات هوش مصنوعی می‌گیرد، متخصص روابط‌عمومی باید بپرسد:
آیا این ابزار از نظر سوگیری داده‌ها بررسی شده است؟ چطور باید درباره استفاده از آن اطلاع‌رسانی کنیم؟ و اگر اشتباهی رخ دهد، چه کسی پاسخ‌گوست؟

🟥 خطرات استفاده غیرنظارتی از هوش مصنوعی

راهنما هشدار می‌دهد که استفاده بدون نظارت از هوش مصنوعی می‌تواند به:

  • انتشار ناخواسته اطلاعات نادرست،

  • بازتولید سوگیری و تبعیض،

  • نقض حقوق مالکیت فکری،

  • افشای داده‌های محرمانه،

  • و حذف مسئولیت انسانی منجر شود.

نمونه‌هایی چون فیلتر کردن اشتباه متقاضیان استخدام بر اساس داده‌های مغرضانه یا تولید نامه‌های جعلی برای کمپین‌های عمومی، از جمله خطرات واقعی مطرح‌شده در این سند است.

🟨 شفافیت و اطلاع‌رسانی

اصلی‌ترین توصیه PRSA این است:

«در اغلب فعالیت‌های روابط‌عمومی باید درباره استفاده از هوش مصنوعی شفاف بود. هر زمان که محتوا، تصمیم یا تعاملات به‌طور معناداری تحت‌تأثیر هوش مصنوعی باشد، باید افشا شود.»

راهنما طیفی از نمونه‌های اطلاع‌رسانی را ارائه می‌دهد، از جمله درج عبارت ساده‌ی:
«این محتوا با کمک هوش مصنوعی تولید شده است»،
تا توضیحات دقیق‌تر درباره میزان دخالت انسان در فرایند تولید.

🟪 پاسخ به پرسش‌های رایج اخلاقی

بخش پرسش و پاسخ راهنما به دغدغه‌های عملی پاسخ می‌دهد:

  • آیا استفاده از هوش مصنوعی برای نگارش خبرنامه یا بیانیه مطبوعاتی مجاز است؟
    بله، اگر دقت، صحت و بازبینی انسانی رعایت شود.

  • آیا می‌توان از ابزارهای عمومی برای پروژه‌های مشتری استفاده کرد؟
    تنها در صورتی که داده‌های محرمانه ذخیره یا بازاستفاده نشوند.

  • آیا باید مشتری را از استفاده از هوش مصنوعی مطلع کرد؟
    بله، شفافیت اعتماد می‌سازد؛ در تحویل پروژه‌ها یا قراردادها باید به‌وضوح ذکر شود.

🟦 رهبری اخلاقی در پذیرش هوش مصنوعی

در بخش پایانی، راهنما چارچوبی عملی برای هدایت اخلاقی سازمان‌ها در مسیر پذیرش هوش مصنوعی ارائه می‌دهد.
برای مثال، در ارزیابی تأمین‌کنندگان فناوری، متخصص روابط‌عمومی باید درباره نحوه مدیریت داده‌ها، آزمایش سوگیری و میزان نظارت انسانی سؤال کند.
همچنین تأکید می‌شود:

«اگر یک پلتفرم جایگزین قضاوت انسانی می‌شود، نه تقویت‌کننده آن، باید از آن صرف‌نظر کرد.»

راهنما همچنین نسخه‌ای به‌روزشده از کد اخلاقی PRSA را ارائه می‌دهد که شامل نمونه‌های موردی و تحلیل سود–زیان برای تصمیم‌گیری‌های اخلاقی در محیط هوش مصنوعی است.

🟩 چشم‌انداز آینده

PRSA اذعان می‌کند که مسیر اخلاقی هوش مصنوعی هنوز در حال شکل‌گیری است. این انجمن قصد دارد با انتشار راهنماهای تکمیلی درباره مسئولیت‌پذیری، هوش مصنوعی خودکار (Agentic AI)، سوگیری فرهنگی و اثرات زیست‌محیطی، بحث را ادامه دهد.

به گفته نویسنده، امروز نقش متخصصان روابط‌عمومی از مدیریت پیام‌ها فراتر رفته و به طراحی سیستم‌های ارتباطی، تنظیم صدا و ساخت اعتبار سازمانی گسترش یافته است.

🟦 جمع‌بندی

هوش مصنوعی ابزاری است؛ اما روابط‌عمومی‌ها وجدان اخلاقی سازمان هستند.
راهنمای جدید PRSA چارچوبی عملی برای تصمیم‌گیری شفاف، استفاده مسئولانه و حفظ اعتماد عمومی فراهم می‌کند.
پرسش اصلی دیگر «آیا باید از هوش مصنوعی استفاده کنیم؟» نیست، بلکه این است:
چگونه از آن به‌گونه‌ای استفاده کنیم که به حرفه‌ی روابط‌عمومی اعتبار ببخشد، نه آسیب بزند.

این سند به متخصصان روابط‌عمومی اطمینان می‌دهد که می‌توانند با قضاوت اخلاقی، دانش فنی و شفافیت، آینده ارتباطات مبتنی بر هوش مصنوعی را هدایت کنند.


با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:

https://telegram.me/sharaPR

برای اطلاعات بیشتر درباره روابط عمومی و اخبار سازمان‌های مختلف، می‌توانید به وبسایت شارا مراجعه کنید.

انتهای پیام/