آپدیت قوانین هوش مصنوعی: پیامدهای برنامه اقدام هوش مصنوعی برای متخصصان روابط‌عمومی
برنامه اقدام هوش مصنوعی آمریکا و دستورات اجرایی جدید، فصل تازه‌ای از قانون‌گذاری و الزامات فنی و اخلاقی برای متخصصان روابط‌عمومی و تولیدکنندگان محتوا ایجاد می‌کند.

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || همگام ماندن با تغییرات سریع هوش مصنوعی، به‌ویژه با توجه به چالش‌های قانون‌گذاری و توسعه فناوری، دشوار است. پیگیری قوانین هوش مصنوعی اکنون بیش از گذشته اهمیت یافته، چرا که دولت ترامپ با انتشار «برنامه اقدام هوش مصنوعی آمریکا» و سه دستور اجرایی جدید در ژوئیه ۲۰۲۵، محیط سیاسی و حقوقی آمریکا را به سوی توسعه هوش مصنوعی سوق می‌دهد. گرچه این اسناد روی جنبه‌های مختلف مقررات هوش مصنوعی تمرکز دارند، اما نکته کلیدی برای متخصصان روابط ‌عمومی و تولیدکنندگان محتوا این است که این تغییرات در دهه پیش‌رو بر توسعه و کاربرد هوش مصنوعی اثرگذار خواهند بود.

در حال حاضر، بحث میان حمایت از کسب‌وکارها و تقویت مقررات، محور گفتگوهای قانونی پس از موج محبوبیت هوش مصنوعی مولد از ۲۰۲۲ است. پذیرش سریع و گسترده هوش مصنوعی، بحث‌هایی درباره شفافیت، دقت، اشتغال و اثرات «اتاق پژواک هوش مصنوعی» را به‌همراه آورده است. از طرف دیگر، نقش انسان و ارزش تصمیم‌گیری انسانی در خلق محتوا نیز مورد تأکید است. این مباحث فراتر از صنعت، بازتابی از دغدغه‌های اجتماعی و سیاسی نسبت به آینده هوش مصنوعی هستند.

برنامه اقدام هوش مصنوعی و دستورات اجرایی، نشان‌دهنده تلاش برای تعادل میان دو نگرانی اصلی‌اند: قدرت بیش از حد هوش مصنوعی و رقابت ژئوپلیتیک برای رهبری جهانی این فناوری. این سند، مقررات را به سه ستون تقسیم می‌کند:

۱. شتاب‌بخشی به نوآوری هوش مصنوعی
۲. توسعه زیرساخت هوش مصنوعی آمریکا
۳. رهبری در دیپلماسی و امنیت بین‌المللی هوش مصنوعی

در هر ستون، سیاست‌ها و توصیه‌هایی ارائه شده که تجربه و خروجی کاربران را تحت تأثیر قرار می‌دهد. برای متخصصان روابط ‌عمومی، مهم‌ترین بخش، ستون اول است که به نقد بوروکراسی، بررسی تداخل مقررات ایالتی با قانون فدرال و مسئولیت قانونی هوش مصنوعی می‌پردازد. بر اساس ارزیابی سال ۲۰۲۵، ۲۸ ایالت آمریکا و منطقه ویرجین آیلند ۷۵ قانون جدید در حوزه مالکیت، مدیریت ریسک، افشای هوش مصنوعی و افشاگران به تصویب رسانده‌اند. برنامه اقدام هوش مصنوعی خواستار بازنگری این قوانین برای ایجاد چشم‌انداز روشن‌تر حقوقی است.

در بخش آزادی بیان، برنامه اقدام هوش مصنوعی، دولت را ملزم می‌کند در قراردادهای دولتی از مدل‌های هوش مصنوعی با «بی‌طرفی ایدئولوژیک» استفاده کند و دستورالعملی تحت عنوان «پیشگیری از هوش مصنوعی بیدار» را اجرا کند تا اطمینان یابد مدل‌های زبانی بزرگ (LLM) فدرال، حقیقت‌محور، علمی، بی‌طرف و عاری از سوگیری باشند. این تدابیر ممکن است شرکت‌های هوش مصنوعی را وادار به تولید نسخه‌های متفاوت از محصولات برای نیازهای دولتی و غیردولتی کند و مسئولیت بیشتری را متوجه کاربران نماید.

سیاست‌های حمایتی برای رشد هوش مصنوعی، بر همکاری‌های بین‌المللی و توسعه مدل‌های متن‌باز و قابل‌دسترسی تأکید دارند. این امر می‌تواند نوآوری را افزایش دهد اما ریسک امنیت و کنترل کیفیت را نیز بالا می‌برد. در حوزه‌های حساس مانند سلامت، مقررات سختگیرانه مانع پذیرش هوش مصنوعی شده‌اند و برنامه اقدام هوش مصنوعی، توصیه به ایجاد «سندباکس‌های مقرراتی» برای تست و پیاده‌سازی نوآوری با حمایت سازمان غذا و دارو (FDA) و کمیسیون بورس و اوراق بهادار (SEC) می‌کند.

در موضوع دیپ‌فیک و اطلاعات جعلی، این طرح بر ضرورت استانداردسازی راستی‌آزمایی و ایجاد دستورالعمل‌های جدید تأکید دارد تا با استفاده از شواهد قانونی، به مبارزه با انتشار رسانه‌های مصنوعی بپردازد. این موضوع با اصلاحات پیشنهادی قوانین فدرال شواهد برای مقابله با شواهد دیپ‌فیک پیوند خورده است.

نتیجه‌گیری: آینده قانون‌گذاری هوش مصنوعی در آمریکا در حال تحول است و مقررات فدرال، تدریجاً جایگزین قوانین پراکنده ایالتی خواهند شد. متخصصان روابط ‌عمومی باید تحولات هوش مصنوعی را رصد کنند؛ زیرا اثر آن بر حریم خصوصی، مالکیت معنوی و آزادی‌های مدنی روزبه‌روز بیشتر خواهد شد. دهه پیش رو، عصر تغییرات عمیق فناوری ارتباطات و تدوین قوانین جدید خواهد بود.


نویسنده: کیسی مایرز (Cayce Myers, Ph.D., LL.M., J.D., APR)
تاریخ: ۲۹ ژوئیه ۲۰۲۵
منبع: PR | PR

با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:

https://telegram.me/sharaPR

انتهای پیام/