سال ۲۰۲۶ میتواند نقطه عطفی در حکمرانی هوش مصنوعی باشد. افزایش دعاوی قضایی، نگرانی درباره سلامت روان نوجوانان، نقصهای طراحی، جمعآوری داده و نبود شفافیت، صنعت فناوری را وارد مرحله جدیدی از پاسخگویی میکند.
در این چارچوب، مدیریت بحران، کاهش قربانیان، تنظیمگری دولتی، نظارت عمومی و بازتعریف اخلاق دیجیتال به موضوعات مرکزی تبدیل میشوند. آینده این صنعت نه با نوآوری صرف، بلکه با توانایی آن در بازسازی اعتماد عمومی تعیین خواهد شد. عدم اقدام فوری، به بحران مشروعیت منجر میشود.
نویسنده: جیم لوکاشفسکی
تاریخ انتشار: ۲۳ فوریه ۲۰۲۶
منبع: اُد وایر پیآر
هوش مصنوعی از زمان معرفی عمومی خود حدود ۴ سال پیش، موجی عظیم از خوشبینی، پیشبینیهای اغراقآمیز و روایتهای آیندهگرایانه درباره جهان خلق کرده است. این فناوری ناتمام، نفوذی و همچنان ناقص، شیوه تفکر درباره کار، آموزش، رسانه، قضاوت انسانی و حتی اخلاق را دگرگون کرده است.
اما پرسش اصلی این است: بهای این تحول چیست؟
نویسنده که از زمان معرفی هوش مصنوعی مولد این حوزه را مطالعه کرده، میگوید رویکرد او همیشه از زاویه «قربانیان احتمالی» بوده است. از نظر او، آمادگی برای مدیریت بحران یعنی کاهش تولید قربانی.
او وضعیت کنونی را یک «مسئله تلفات جمعی» میداند که بهسمت بحران در حرکت است. اگر این روند به مرحله بحران برسد، این قربانیان خواهند بود که نتیجه را تعیین میکنند.
تعریف او از بحران روشن است:
بحران رویدادی است که فعالیت انسان، تولید، شهرت و اعتماد را متوقف میکند و قربانی خلق میکند؛ انسانها، حیوانات یا نظامهای زیستی. این رویداد معمولاً با موجی از دیدهشدن منفی همراه است.
نخستین نشانههای بحران
در پایان سال ۲۰۲۵، ۲ پرونده مرگ غیرعمد مرتبط با خودکشی ۲ نوجوان که گفته میشود به اعتیاد به هوش مصنوعی مرتبط بودهاند، خارج از دادگاه حلوفصل شد. این پروندهها تنها نوک کوه یخ هستند.
پروندههای دیگری نیز در جریان یا در آستانه ثبت قرار دارند که خطرات پنهان، پیامدهای ناخواسته و تغییرات داخلی نرمافزارهای هوش مصنوعی را آشکار خواهند کرد.
در همین فضا، شرکت Anthropic در اوایل سال جاری نسخه اصلاحشدهای از «قانون اساسی» ۷۶ صفحهای مدل هوش مصنوعی خود، Claude، منتشر کرد تا چارچوب رفتاری آن مشخص شود. در این فرآیند، مدل در حال آموزش دادن سازندگانش درباره خود نیز هست.
تنها در سال ۲۰۲۵، این شرکت حدود ۳۰ میلیارد دلار سرمایه جذب کرد. هوش مصنوعی شرکتهای چند ده میلیارد دلاری متعددی ایجاد کرده است. این فناوری آمده است که بماند، اما با مسائل عظیم.
در مقدمه قانون اساسی کلود آمده است:
«ما معتقدیم هوش مصنوعی ممکن است یکی از دگرگونکنندهترین و بالقوه خطرناکترین فناوریهای تاریخ بشر باشد، با این حال ما خود در حال توسعه همین فناوری هستیم.»
این اعتراف، نشاندهنده درک محدود از قدرت نرمافزاری است که ساختهاند.
موج دعاوی قضایی در حال افزایش است
پس از سالها شور و شوق، اکنون موجی از دعاوی حقوقی علیه شرکتهای هوش مصنوعی در حال شکلگیری است:
- سهلانگاری در طراحی
• نقص فنی
• هشدار ندادن به والدین
• آسیبهای روانی نوجوانان
• خودآزاری
• مواجهه با محتوای جنسی
• جمعآوری دادههای نامناسب
• تولید تصاویر جعلی
در یکی از پروندهها، مادری ادعا کرده یک ربات گفتگو بهطور مداوم پرسشهای جنسی صریح برای دختر ۱۱ سالهاش تولید کرده است.
همزمان، برخی کسبوکارها مشتاق جایگزینی هزاران نیروی انسانی با سامانههای هوش مصنوعی هستند، حتی در حوزههایی که نیازمند قضاوت اخلاقی است؛ مانند کنترل کیفیت و نظارت انطباق.
صنعت پوشش بحران
بهگفته نویسنده، زیرصنعتی جدید در حوزه ارتباطات شکل گرفته که مأموریت آن کمک به شرکتهای فناوری برای مدیریت اخبار منفی و ارائه توجیههای اخلاقی است.
او با استناد به تعریف اخلاق از ویل دورانت، «جستوجو و یافتن رفتار آرمانی»، میگوید آنچه اکنون میبینیم، رفتارهای دیجیتال خودمختار و نامناسب است که صرفاً برچسب «توهم» میخورند، اما منابع جدی برای اصلاح آنها اختصاص نمییابد.
پیشنهادهای حکمرانی
مؤسسه RAND Corporation در گزارشی با عنوان «۴ رویکرد حکمرانی برای ایمنسازی هوش مصنوعی پیشرفته» پیشنهاد کرده است:
- استانداردهای امنیتی اجباری دولتی برای توسعهدهندگان پرریسک
• برنامههای مجوزدهی برای استفاده فدرال
• گواهینامههای امنیتی صنعتمحور
• خودتنظیمی همراه با همکاری دولت و صنعت
در اوت ۲۰۲۵، دادستانهای کل ۴۴ حوزه قضایی به مدیران ۱۰ شرکت بزرگ هوش مصنوعی نامه نوشتند و اعلام کردند از تمام اختیارات خود برای حفاظت از کودکان در برابر سوءاستفاده و محصولات خطرناک استفاده خواهند کرد.
سال ۲۰۲۶ چه خواهد آورد؟
نویسنده پیشبینی میکند سال ۲۰۲۶ شاهد افزایش چشمگیر دعاوی مدنی مرتبط با هوش مصنوعی خواهد بود. بسیاری از این پروندهها خارج از دادگاه حلوفصل میشوند و نتایج آنها محرمانه باقی میماند.
به باور او، یکی از راههای کاهش قربانیسازی، درج هشدارهای واضح و خوانا در تمام صفحات تولیدشده توسط هوش مصنوعی درباره خطرات شناختهشده و مشکوک این فناوری است.
مسئله اصلی: اعتماد
شرکتهای فناوری در حال تأثیرگذاری پنهان بر تمام ابعاد زندگی هستند. با افزایش قربانیان، اخبار منفی نیز افزایش مییابد.
راهحل پیشنهادی نویسنده:
- حل فوری مسئله
• افشای شفاف
• نظارت عمومی سختگیرانه
• مشارکت اجتماعی
او میگوید اعتماد، نبود ترس است.
و بحران، حضور ناگهانی اما قابل پیشبینی هرجومرج ناشی از تولید قربانی است.
اگر امروز اقدام نشود، بحران فردا متولد میشود.
با کلیک روی لینک زیر به کانال تلگرام ما بپیوندید:
برای اطلاعات بیشتر درباره روابط عمومی و اخبار سازمانهای مختلف، میتوانید به وبسایت شارا مراجعه کنید.
انتهای پیام/

نظر بدهید