برداشت‌های کلیدی از یک ابزار هوش مصنوعی ویژه خبرنگاران

اثرگذاری و ارزش کارهای باکیفیتی که خود خبرنگاران تهیه می‌کنند، بسیار بیش از محتوایی است که از منابع دیگر استخراج می‌شود. این فرایند نباید تنها یک گام باشد، و تیم‌ها باید کاستی‌های مدل‌های کنونی را تشخیص دهند و مثال‌های بیشتری بسازند که به نشان دادن رفتار درست کمک کند.

شبکه اطلاع‌رسانی روابط‌عمومی‌ ایران (شارا) || هوش مصنوعی، بحث داغ محافل خبرنگاری امروز است. حرفه‌ای‌های رسانه و دانشگاهیان در رقابتند تا دریابند که تازه‌ترین فن‌آوری ابداعی در جهان، صنعت ناپایدار رسانه را چگونه تغییر خواهد داد.

اینجا چند سؤال مهم وجود دارد: آیا هوش مصنوعی می‌تواند برای اتاق‌های خبری که با کاهش بودجه مواجهند، منبع درآمدی باشد؟ آیا هوش مصنوعی جایگزین کارکنان خواهد شد، یا با آزاد کردن وقت خبرنگارانی که زیاد کار می‌کنند، مجال بیشتری برای تهیه گزارش‌هایی با کیفیت بالاتر به آنها می‌دهد؟


هوش مصنوعی چیست؟ پردازش زبان طبیعی چیست؟

نخست، تصریح برخی مفاهیم، ضروری است. هوش مصنوعی (Artificial Intelligence یا AI) به توانایی کامپیوتر برای انجام وظایفی اطلاق می‌شود که معمولاً به شناخت و هوش انسانی ارتباط دارد. در چارچوب خبرنگاری، هوش مصنوعی معمولاً شامل برنامه‌ها یا اپلیکیشن‌هایی است که بدون مداخله انسانی، متن تولید می‌کنند و متون را درک و تجزیه و تحلیل می‌کنند.

پردازش زبان طبیعی (Natural Language Processing یا NLP) یکی از زیرمجموعه‌های هوش مصنوعی است که بر تعامل بین کامپیوتر و انسان‌ از راه زبان‌های طبیعی تمرکز دارد. «زبان‌‌های طبیعی»، زبان‌های زنده رایج هستند — زبان‌هایی که انسان‌ها برای ارتباط به کار می‌برند — مثل انگلیسی، که با زبان‌های برنامه‌نویسی مثل پایتان (پایتون) متفاوت است. بسیاری از بحث‌ها پیرامون هوش مصنوعی در خبرنگاری درباره توانایی‌های پردازش زبان طبیعی شکل گرفته‌اند. هوش مصنوعی از راه پردازش زبان طبیعی به خبرنگاران کمک می‌کند تا بتوانند کارهایی مثل خلاصه سازی، ترجمه و تأیید اطلاعات را انجام دهند.

اساساً تمام‌ برنامه‌های هوش مصنوعی که از زبان‌های رایج استفاده می‌کنند، به‌واسطه پردازش زبان طبیعی میسر شده‌اند.

چگونه یک ابزار هوش مصنوعی برای خبرنگاران ساختیم؟

من در سال ۲۰۲۱ (دو سال پیش) عضو یک تیم بین رشته‌ای بودم که برای حل یک مشکل تحقیقی کار می‌کرد. ما سعی می‌کردیم که اطلاعات مهمی را از بین میلیون‌ها صفحه داده‌ی غیرمنظمِ متنی استخراج کنیم. کار کردن با متن‌های غیرانگلیسی، کار ما را دشوارتر کرده بود. کار را با آزمایش GPT-3 API آغاز کردیم و به لحظه «یافتم، یافتم!» رسیدیم. این کار قبل از رواج ChatGPT و در زمانی انجام شد که خبرنگاران نسبت به هوش مصنوعی بدبین بودند. ما مشغول ساختن شاهد یا وسیله‌ای برای اثبات مفهومی شدیم که این نوآوری تازه OpenAI را نشان دهد.

ما کار را با آزمایش خلاصه‌نویسی مقالات وبسایت رادیوی دولتی آمریکا یا NPR (اِن‌پی‌آر) شروع کردیم و یک ساختار خلاصه‌ساز ایجاد کردیم که آنها را به خلاصه‌‌های کوتاه به شکل بولت پوینت درآورد، که شبیه سبکی است که وبسایتی خبری به نام اکسیوس به‌کار می‌گیرد. این سبک را به این دلیل انتخاب کردیم که مقالات اِن‌پی‌آر را می‌پسندیدیم اما مشکل اینجا بود که اغلب‌شان طولانی بودند. ابزاری که ما ساخته‌ایم، مقالات اِن‌پی‌آر را به‌محض انتشار، خلاصه می‌کند و بعد از آن که یک خبرنگار آن خلاصه را بازبینی و تأیید کرد، در وب‌سایتمان — Gist — در دسترس کاربران می‌گذارد.

همان اوایل کار دریافتیم که وقتی جمله‌ها کمی طولانی‌تر از چند خط باشند، مدل اولیه «متوهم» خواهد بود. در نسخه خلاصه مطلب، نقل قول‌هایی تولید می‌شد که از لحاظ مفهومی و دستوری درست بودند، اما در منبع اصلی، که مقاله اِن‌پی‌آر بود، وجود نداشتند. در پردازش زبان طبیعی، نمونه‌‌های «متوهم» نمونه‌‌هایی است که خروجی مدل هوش مصنوعی از آنها نادرست باشد، یا بر اساس متن اصلی ایجاد نشده باشد، و یا اساساً بی‌معنی باشد. ما باید مطمئن می‌شدیم که نقل قول‌هایی که در خلاصه مطلب می‌آیند، در منبع اصلی وجود دارند. توهم در خبرنگاری می‌تواند برای مطلب کشنده باشد و به انتشار اطلاعات نادرست بیانجامد.

از همین رو، در مدل هوش مصنوعی‌مان تغییراتی ایجاد کردیم تا از این نوع توهم‌ها جلوگیری شود. این کار،‌فرایندی مکرر بود؛ چون باید به مدل پیوسته آموزش می‌دادیم و آن را امتحان می‌کردیم. محافظ‌های خبرنگاری بیشتری را هم به آن اضافه کردیم. این فرایند درباره اپلیکیشن‌های آینده هوش مصنوعی در خبرنگاری، نکات مهمی به ما عرضه کرد.

آنچه استنتاج کردیم

آموزش دادن مدل با مدنظر داشتن معیارهای خبرنگاری کار آسانی نبود، اما این مسیر طولانی، چهار نکته را برای ما روشن کرد:

۱– خبرنگاری با کمک هوش مصنوعی میسر است، اما خبرنگاری هوش مصنوعی، انجام‌شدنی نیست. نظارت انسانی را نمی‌شود از کار خبرنگاری حذف کرد.

قضاوت و تأیید انسانی، بخش جدایی‌ناپذیر هر فرایند خبرنگاری است. ما از فن‌آوری برای انجام کارهای خسته‌کننده و تکراری استفاده می‌کنیم، اما نمی‌توانیم آن را کاملاً جایگزین خبرنگاران کنیم. برای مثال در مدل ما، یک خبرنگار خلاصه یک‌یک مطالب را پیش از می‌خواند و تأیید می‌کند.

۲– ارزش مدل‌های هوش مصنوعی برابر ارزش آموزه‌های آنهاست. برای گرفتن بهترین نتیجه از هر مدل زبانی، هدف آن باید به خوبی مشخص شود. بعد، مؤثرترین راه آموزش باید تعریف شود و آنگاه است که می‌توان فرایند خبرنگاری را آغاز کرد.

مدل‌ها، راه حلی یکسان را برای همه سناریوهای احتمالی عرضه نمی‌کنند. اتاق‌های خبر هنگام بررسی راه حل‌های هوش مصنوعی باید چالش‌ها و نیازهای مختص به خود را در نظر بگیرند. خبرنگاران هم باید در آموزش دادن به الگوریتم‌ها نقش فعالی داشته باشند، نه این که این کار را یکسره به برنامه‌نویسان واگذار کنند. برای مثال مدلی که با مدارک دادگاهی در تگزاس آموزش دیده است، شاید با مدل مدارک دادگاهی در آلاسکا بهترین نتایج را ارایه ندهد، چون سبک نوشتن نظریات حقوقی در این دو ایالت متفاوت است.

۳– همکاری بین رشته‌ای برای هوش مصنوعی در خبرنگاری، حیاتی است. برنامه‌نویسان نمی‌توانند به تنهایی کارهایی مثل راستی‌آزمایی، خلاصه‌سازی محتوا، و ترجمه را انجام بدهند. خبرنگاران هم به تنهایی ازعهده این کارها برنمی‌آیند.

برای خبرنگاران و سازندگان برنامه‌های هوش مصنوعی باید فضایی برای همکاری ایجاد شود. مهمتر از همه این است که اطمینان یابیم دیدگاه خبرنگاران در مورد چگونگی استفاده از هوش مصنوعی در حرفه آنها در نظر گرفته می‌شود.

۴– مدل‌های کنونی با آموزش دیدن با داده‌های یک سازمان، عملکرد عالی خواهند داشت. ما دریافتیم که وقتی از داده‌هایی که خودمان ساخته‌ایم برای آموزش مدل استفاده کنیم، سبک و کیفیتی را که می‌خواهیم به دست خواهیم آورد.

اثرگذاری و ارزش کارهای باکیفیتی که خود خبرنگاران تهیه می‌کنند، بسیار بیش از محتوایی است که از منابع دیگر استخراج می‌شود. این فرایند نباید تنها یک گام باشد، و تیم‌ها باید کاستی‌های مدل‌های کنونی را تشخیص دهند و مثال‌های بیشتری بسازند که به نشان دادن رفتار درست کمک کند.

 

نوشته علی تهرانی
Oct 4, 2023

 

انتهای پیام/