شبکه اطلاعرسانی روابطعمومی ایران (شارا) || در 29 سپتامبر 2023، شرکت اوپن ایآی نسخه جدیدی از چتجیبیتی، یک ربات چت هوش مصنوعی، را منتشر کرد که میتواند به کلمات و تصاویر گفتاری پاسخ دهد. این ویژگی جدید باعث نگرانی برخی از کارشناسان شده است که معتقدند چتجیبیتی میتواند برای جمعآوری حجم عظیمی از دادههای شخصی کاربران استفاده شود.
به گزارش شارا به نقل از فاکسنیوز، کریستوفر الکساندر، مدیر ارشد تجزیه و تحلیل گروه توسعه پایونیر، به فاکسنیوز دیجیتال گفت: «در حالی که قابلیت تشخیص صدا و مکالمه چشمگیر به نظر میرسد، اما واقعاً تواناییهای فعلی چتجیبیتی را بهبود نمیبخشد. اساساً شما میتوانید به جای تایپ کردن، دستورات پردازش زبان طبیعی خود را دیکته کنید.
الکساندر همچنین هشدار داد که ملاحظاتی برای کاربران پلتفرم بهروز شده وجود خواهد داشت و اشاره کرد که میتواند قابلیتهای آن را برای استفاده به عنوان یک “ابزار نظارتی” افزایش دهد.
زیون هاونز، مدیر سیاستگذاری در پروژه Bull Moose، نگرانیهای مشابهی را ابراز کرد و به فاکسنیوز دیجیتال گفت که این برنامه میتواند بخشی از روند رو به رشد برای جمعآوری بیسابقه دادهها در مورد آمریکاییها باشد.
در حالی که برخی از کارشناسان از قابلیتهای جدید چتجیبیتی استقبال میکنند، دیگران نگرانیهایی در مورد حریم خصوصی و امنیت دارند. این مهم است که کاربران قبل از استفاده از این ویژگی جدید، مزایا و معایب آن را در نظر بگیرند.
در اینجا خلاصهای از نگرانیهای اصلی مطرح شده در این مقاله آورده شده است:
جمعآوری دادههای شخصی: چتجیبیتی میتواند برای جمعآوری حجم عظیمی از دادههای شخصی کاربران، از جمله صدای آنها، لهجه آنها و سابقه جستجوی آنها استفاده شود. این دادهها میتواند برای اهداف بازاریابی یا حتی نظارت استفاده شود.
امنیت
بله، چتجیبیتی هنوز در حال توسعه است و ممکن است آسیبپذیریهایی داشته باشد که میتواند توسط مجرمان مورد سوء استفاده قرار گیرد. این آسیبپذیریها میتواند شامل موارد زیر باشد:
حملات هکری: مجرمان میتوانند از آسیبپذیریهای امنیتی در چتجیبیتی برای دسترسی غیرمجاز به دادهها یا سیستمها استفاده کنند.
تولید محتوای مضر: مجرمان میتوانند از چتجیبیتی برای تولید محتوای مضر مانند محتوای نفرتانگیز، تبلیغات نادرست یا اطلاعات نادرست استفاده کنند.
سوء استفاده از کاربران: مجرمان میتوانند از چتجیبیتی برای فریب یا کلاهبرداری از کاربران استفاده کنند.
اوپنایآی، توسعهدهنده چتجیبیتی، اقداماتی را برای کاهش خطرات امنیتی این فناوری انجام داده است. این اقدامات شامل موارد زیر است:
انجام آزمایشات امنیتی: اوپنایآی به طور مداوم چتجیبیتی را برای آسیبپذیریهای امنیتی آزمایش میکند.
انتشار کد منبع: اوپنایآی کد منبع چتجیبیتی را به صورت عمومی منتشر کرده است تا محققان و توسعهدهندگان بتوانند آسیبپذیریهای احتمالی را شناسایی و رفع کنند.
آموزش کاربران: اوپنایبی در مورد نحوه استفاده ایمن از چتجیبیتی به کاربران آموزش میدهد.
با این حال، حتی با این اقدامات، همیشه امکان وجود آسیبپذیریهای ناشناخته وجود دارد. بنابراین، مهم است که کاربران هنگام استفاده از چتجیبیتی اقدامات احتیاطی لازم را انجام دهند.
در اینجا چند نکته برای استفاده ایمن از چتجیبیتی آورده شده است:
– از چتجیبیتی فقط برای تعامل با افراد و منابع معتبر استفاده کنید.
– هیچ اطلاعات شخصی حساسی را با چتجیبیتی به اشتراک نگذارید.
– اگر چیزی مشکوک دیدید، آن را گزارش دهید.
با پیروی از این نکات، میتوانید به کاهش خطرات امنیتی چتجیبیتی کمک کنید.
تقلب و جعل گسترده
چتجیبیتی میتواند برای جعل و تقلبهای صوتی فوق العاده واقعی و گسترده استفاده شود که بیشتر جنبه فریب و تبلیغاتی دارد.
در اینجا چند نمونه از نحوه استفاده از چتجیبیتی برای جعل و تقلب صوتی آورده شده است:
– جعل صدای یک سیاستمدار برای انتشار یک سخنرانی یا بیانیه نادرست.
– جعل صدای یک چهره تجاری برای تبلیغ یک محصول یا خدمات.
– جعل صدای یک فرد عادی برای کلاهبرداری یا ایجاد مزاحمت.
در ادامه چند نکته برای تشخیص جعل و تقلبهای صوتی ایجاد شده با چتجیبیتی آورده شده است:
– به کیفیت صدا توجه کنید. تقلبهای صوتی اغلب کیفیت پایینی دارند و ممکن است دارای نویز یا خشخش باشند.
– به محتوای صدا توجه کنید. تقلبهای صوتی اغلب دارای اشکال منطقی یا بیمعنی هستند.
– به منبع صدا توجه کنید. مطمئن شوید که صدا از یک منبع معتبر است.
اگر فکر میکنید که ممکن است با یک تقلب صوتی روبرو شده باشید، بهتر است قبل از اینکه به آن اعتماد کنید، از یک منبع معتبر تأیید کنید.
خلاصهاینکه کاربران باید قبل از استفاده از قابلیتهای جدید چتجیبیتی، مزایا و معایب آن را در نظر بگیرند و اقدامات احتیاطی لازم را برای محافظت از حریم خصوصی و امنیت خود انجام دهند.
نویسنده: مایکل لی
منبع: فاکسنیوز
29 سپتامبر 2023
انتهای پیام/
<div id=”div_eRasanehTrustseal_24429″></div>
<script src=”https://trustseal.e-rasaneh.ir/trustseal.js”></script>
<script>eRasaneh_Trustseal(24429, false);</script>
نظر بدهید