شبکه اطلاعرسانی روابطعمومی ایران (شارا)-||نویسنده| مینا نظری دکترای ارتباطات|| ChatGPT یک مدل گفتگوی مکالمه است که توسط هوش مصنوعی و یادگیری ماشینی برای درک و پاسخ به زبان طبیعی انسان آموزش دیده است.
GPT یا Generative Pre-Trained Transformer یک مدل زبان یادگیری عمیق است که در تولید متن نوشتاری شبیه انسان تخصص دارد. یادگیری عمیق یک روش یادگیری ماشینی با سه لایه یا بیشتر از یک شبکه عصبی است. این شبکه تلاش میکند تا رفتار مغز انسان را شبیهسازی کند، که به او اجازه میدهد مانند ما با استفاده از دادهها یاد بگیرد.
تکرار فعلی GPT (3.5) همان چیزی است که ChatGPT بر اساس آن است. برخلاف GPT 3.5، ChatGPT میتواند متن نوشته شده با جزئیات و انسانمانند را تولید کند و مکالمات قبلی را برای زمینه به خاطر بسپارد.
OpenAI، خالقان GPT، میگوید که ChatGPT میتواند به سؤالات بعدی پاسخ دهد، اشتباهات را بپذیرد، مقدمات را به چالش بکشد و درخواستهایی را که نامناسب میداند رد کند.
ChatGPT چگونه کار می کند؟
OpenAI، ChatGPTرا با استفاده از روش آموزشی معروف (RLHF) به یادگیری تقویتی از بازخورد انسانی آموزش داد. RLHF از یک سیستم پاداش/ تنبیه برای آموزش هوش مصنوعی استفاده می کند.
هر زمان که هوش مصنوعی اقدامی انجام دهد، به عنوان کارمطلوب یا قابل مجازات طبقه بندی می شود. یک عمل مورد نظر پاداش می گیرد در حالی که یک عمل ناخواسته مجازات می شود. به این ترتیب، هوش مصنوعی زیرمجموعه بزرگی از داده ها را تجزیه می کند و مانند انسان ها از طریق آزمون و خطا یاد می گیرد.برای ChatGPT، OpenAI از «تنظیم دقیق نظارت شده» استفاده کرد. مربیان اختصاصی هوش مصنوعی انسان، هوش مصنوعی را از طریق مکالمات آموزش دادند، که در آن آنها هم کاربر و هم یک دستیار هوش مصنوعی بازی می کردند. هنگام ارائه پاسخ به مربیان پیشنهاداتی داده شد.
محدودیت های ChatGPT چیست؟
مانند مدلهای قبلی GPT، ChatGPT گاهی اوقات میتواند پاسخهایی با صدای معقول اما نادرست بدهد. OpenAI می گوید که رفع این مشکل سخت است، زیرا هیچ منبع حقیقی در داده هایی که آنها برای آموزش مدل استفاده می کنند وجود ندارد. OpenAI سعی کرد به ربات بگوید که در هنگام پاسخ دادن مراقب باشد، اما سپس شروع به رد کردن سؤالاتی کرد که می توانست به درستی پاسخ دهد.
آموزش تحت نظارت همچنین می تواند مدل را گمراه کند "زیرا پاسخ ایده آل به آنچه که مدل می داند بستگی دارد، نه آنچه نشان دهنده آن چه که انسان می داند."
"مدل" حساس به عبارت است. میتواند از پاسخ دادن به سؤالی که به روشی خاص نوشته شده است خودداری کند، اما اگر آن را دوباره بیان کنید، به شما پاسخ میدهد. همچنین میتواند این کار را انجام دهد اگر چندین بار با یک سؤال از آن درخواست کنید.
ChatGPT میتواند در پاسخهای خود بسیار پرمخاطب باشد و تمایل دارد از عبارات خاصی بیش از حد استفاده کند. این به دلیل ماهیت نظارت شده آموزش اتفاق می افتد. یک انسان پاسخ های طولانی تر و جامع را ترجیح می دهد، در حالی که "مدل" پاسخ های مختصر را ترجیح می دهد.
در حالی که OpenAI تمام تلاش خود را می کند تا درخواست های نامناسب را مسدود کند، ChatGPT گاهی اوقات "به دستورالعمل های مضر پاسخ می دهد یا رفتار مغرضانه ای از خود نشان می دهد."
ChatGPT آینده ارتباطات را دگرگون خواهد کرد آینده ای که ارتباطات انسان به انسان جای خود را به ارتباطات Al به Al خواهد داد. قرارگرفتن در این مسیر برای انسان های کنونی اکنون بسیار دشوار و غیرقابل تصور است اما با جایگزینی مدل های هوشمند چه از نظر ظاهری و چه از نظر هوش بی عیب و نقص آینده ای است که در حال وقوع می باشد. رسیدن به افق مشترک در سایه غرق شدن در گرداب تحول و انقلاب جهانی در حوزه ارتباطات می باشد.
منبع: شارا - شبکه اطلاعرسانی روابطعمومی ایران
|