شبکه اطلاعرسانی روابطعمومی ایران (شارا) || همگام ماندن با تغییرات سریع هوش مصنوعی، بهویژه با توجه به چالشهای قانونگذاری و توسعه فناوری، دشوار است. پیگیری قوانین هوش مصنوعی اکنون بیش از گذشته اهمیت یافته، چرا که دولت ترامپ با انتشار «برنامه اقدام هوش مصنوعی آمریکا» و سه دستور اجرایی جدید در ژوئیه ۲۰۲۵، محیط سیاسی و حقوقی آمریکا را به سوی توسعه هوش مصنوعی سوق میدهد. گرچه این اسناد روی جنبههای مختلف مقررات هوش مصنوعی تمرکز دارند، اما نکته کلیدی برای متخصصان روابط عمومی و تولیدکنندگان محتوا این است که این تغییرات در دهه پیشرو بر توسعه و کاربرد هوش مصنوعی اثرگذار خواهند بود.
در حال حاضر، بحث میان حمایت از کسبوکارها و تقویت مقررات، محور گفتگوهای قانونی پس از موج محبوبیت هوش مصنوعی مولد از ۲۰۲۲ است. پذیرش سریع و گسترده هوش مصنوعی، بحثهایی درباره شفافیت، دقت، اشتغال و اثرات «اتاق پژواک هوش مصنوعی» را بههمراه آورده است. از طرف دیگر، نقش انسان و ارزش تصمیمگیری انسانی در خلق محتوا نیز مورد تأکید است. این مباحث فراتر از صنعت، بازتابی از دغدغههای اجتماعی و سیاسی نسبت به آینده هوش مصنوعی هستند.
برنامه اقدام هوش مصنوعی و دستورات اجرایی، نشاندهنده تلاش برای تعادل میان دو نگرانی اصلیاند: قدرت بیش از حد هوش مصنوعی و رقابت ژئوپلیتیک برای رهبری جهانی این فناوری. این سند، مقررات را به سه ستون تقسیم میکند:
۱. شتاببخشی به نوآوری هوش مصنوعی
۲. توسعه زیرساخت هوش مصنوعی آمریکا
۳. رهبری در دیپلماسی و امنیت بینالمللی هوش مصنوعی
در هر ستون، سیاستها و توصیههایی ارائه شده که تجربه و خروجی کاربران را تحت تأثیر قرار میدهد. برای متخصصان روابط عمومی، مهمترین بخش، ستون اول است که به نقد بوروکراسی، بررسی تداخل مقررات ایالتی با قانون فدرال و مسئولیت قانونی هوش مصنوعی میپردازد. بر اساس ارزیابی سال ۲۰۲۵، ۲۸ ایالت آمریکا و منطقه ویرجین آیلند ۷۵ قانون جدید در حوزه مالکیت، مدیریت ریسک، افشای هوش مصنوعی و افشاگران به تصویب رساندهاند. برنامه اقدام هوش مصنوعی خواستار بازنگری این قوانین برای ایجاد چشمانداز روشنتر حقوقی است.
در بخش آزادی بیان، برنامه اقدام هوش مصنوعی، دولت را ملزم میکند در قراردادهای دولتی از مدلهای هوش مصنوعی با «بیطرفی ایدئولوژیک» استفاده کند و دستورالعملی تحت عنوان «پیشگیری از هوش مصنوعی بیدار» را اجرا کند تا اطمینان یابد مدلهای زبانی بزرگ (LLM) فدرال، حقیقتمحور، علمی، بیطرف و عاری از سوگیری باشند. این تدابیر ممکن است شرکتهای هوش مصنوعی را وادار به تولید نسخههای متفاوت از محصولات برای نیازهای دولتی و غیردولتی کند و مسئولیت بیشتری را متوجه کاربران نماید.
سیاستهای حمایتی برای رشد هوش مصنوعی، بر همکاریهای بینالمللی و توسعه مدلهای متنباز و قابلدسترسی تأکید دارند. این امر میتواند نوآوری را افزایش دهد اما ریسک امنیت و کنترل کیفیت را نیز بالا میبرد. در حوزههای حساس مانند سلامت، مقررات سختگیرانه مانع پذیرش هوش مصنوعی شدهاند و برنامه اقدام هوش مصنوعی، توصیه به ایجاد «سندباکسهای مقرراتی» برای تست و پیادهسازی نوآوری با حمایت سازمان غذا و دارو (FDA) و کمیسیون بورس و اوراق بهادار (SEC) میکند.
در موضوع دیپفیک و اطلاعات جعلی، این طرح بر ضرورت استانداردسازی راستیآزمایی و ایجاد دستورالعملهای جدید تأکید دارد تا با استفاده از شواهد قانونی، به مبارزه با انتشار رسانههای مصنوعی بپردازد. این موضوع با اصلاحات پیشنهادی قوانین فدرال شواهد برای مقابله با شواهد دیپفیک پیوند خورده است.
نتیجهگیری: آینده قانونگذاری هوش مصنوعی در آمریکا در حال تحول است و مقررات فدرال، تدریجاً جایگزین قوانین پراکنده ایالتی خواهند شد. متخصصان روابط عمومی باید تحولات هوش مصنوعی را رصد کنند؛ زیرا اثر آن بر حریم خصوصی، مالکیت معنوی و آزادیهای مدنی روزبهروز بیشتر خواهد شد. دهه پیش رو، عصر تغییرات عمیق فناوری ارتباطات و تدوین قوانین جدید خواهد بود.
نویسنده: کیسی مایرز (Cayce Myers, Ph.D., LL.M., J.D., APR)
تاریخ: ۲۹ ژوئیه ۲۰۲۵
منبع: PR | PR
با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:
انتهای پیام/
نظر بدهید