شبكه اطلاع رساني روابط عمومي ايران (شارا)- ما به عنوان نوع بشر داريم شمار زيادي وسايل هوشمند از خودروهاي بدون راننده گرفته تا خدمات شخصي، براي خودمان مي سازيم. در عين حال داريم مي آموزيم، كه به آنها اعتماد كنيم و اطمينان داشته باشيم.
از ديگر سو به موازات گسترش فناوري، هوش مصنوعي بر چگونگي تفكرمان، رفتارمان با ديگران و عملكردمان، تاثير مي گذارد. در اين ميان به ويژه سيستم هايي كه به روابط با انسان شكل مي دهند، قدرت و تاثير بسيار بيشتري خواهند داشت. بنابراين به موازاتي كه اين فناوري ها را مي پذيريم و از آنها استقبال مي كنيم، امكان دارد براي مان چيزي بيش از يك دستگاه صرف شوند.
به اين ترتيب اينك بهتر است لختي تأمل كنيم، و به يك سناريوي قابل تأمل بينديشيم. اينكه برغم تمامي فوايدي كه هوش مصنوعي براي ما دارد، وابسته شدن به آن واقعا مخاطره انگيز است. اين مخاطره به ويژه زماني بيشتر مي شود، كه اوضاع رو به پيچيدگي برود. اگر از پشت عينك فرضيه اي نه چندان غيرمحتمل به آن نگاه كنيم، پرسش زير مطرح مي شود:
آيا هوش مصنوعي باعاطفه مي تواند، براي حريم خصوصي و امنيت ما مخاطره انگيز باشد؟
پاسخ من به اين پرسش مثبت، و استدلالم اين است: ما مبناي كار خود را بر تاكيد بر جنبه مثبت فناوري قرار داده ايم. البته اين درست، كه فناوري زندگي مان را آسان تر كرده است. اميد هم همواره اين بوده كه براي مان فايده داشته، و خواهد داشت. اما همين فناوري نكات منفي هم داشته است. مثلا سبب شده، كمتر اجتماعي باشيم. باعث حواس پرتي، فشار رواني، و در برخي از اوقات، منزوي گشتن مان نيز، شده است. كمااينكه اينك زماني را كه در دنياي مجازي سپري مي كنيم، در جوامع مجازي به بازي و سرگرمي مي پردازيم و ارتباطات مصنوعي داريم، بيش از معادل زمان انجام اين كارها در جهان واقعي است.
در عين حال هر قدر وقت بيشتري در دنياي مجازي مي گذرانيم، بيشتر هم مايليم بدانيم وقتي در آن نيستيم، در اين جهان چه رخدادهايي اتفاق مي افتند. عجيب تر اينكه وقتي روز بدي داشته باشيم، در دنياي فناوري به دنبال آسوده شدن مي رويم. ايراد كار هم، درست در همين جاست. زيرا تلاش براي كاهش اضطراب در واقع ما را وادار مي كند، به فناوري وابسته تر شويم.
اما احتمالا دو اثر بسيار بدتر اينها هستند: نخست اينكه ورود به دنياي مجازي بسيار ساده و سريع صورت مي گيرد. همچنين جعل هويت در اين دنيا خيلي آسان است. بنابراين فكر مي كنيم، مي توانيم در آن هر كاري را كه دوست داريم، انجام بدهيم. بدون اينكه پيامدهاي منفي آنها گريبان مان را بگيرند.
دوم اينكه در اين جهان بين مخاطره و پيامدهاي منفي ارتباطي نمي بينيم. نتيجه اينكه اطلاعات هر چه بيشتري در موردمان در اين دنيا ايجاد، و در جايي ذخيره مي شوند.
تركيب اين دو گنجينه اي از اطلاعاتي به وجود مي آورد، كه مي تواند براي سنجش و كنترل مان مورد استفاده قرار بگيرد. و اين زيربنايي را ايجاد مي نمايد، كه به شكلي باورنكردني سبب آسيب پذير نمودن مان مي شود. به ويژه اينكه اگر اطلاعات شخصي مان از سوي افرادي هك و يا دزديده شوند، كه افكار شومي در سر دارند. در دنياي كنوني شمار اينگونه افراد بسيار زياد است. مساله اي كه به نوبه خود سبب مي شود، كه بخواهيم به سراغ ساختن ابزارهاي بيشتري برويم، كه داراي هوش مصنوعي عاطفي هستند. حال اگر چنين هوشي- كه درست كردنش هم ابدا دور از دسترس نيست- ساخته و وارد خانه مان شود، حريم خصوصي و امنيت مان به خطر مي افتد.
هوش مصنوعي آنقدرها كه به نظر مي رسد، بي آزار و بي خطر نيست
زيرا هوش مصنوعي عاطفي سرانجام قادر خواهد بود، در يك ميليونيم ثانيه صدها سرنخ را جمع آوري و تحليل كند. به همين سبب دستگاه داراي چنين هوشي مي تواند، حتي با شنيدن صداي انسان بفهمد كه مثلا او احساس درماندگي مي كند. سپس از توانايي هاي فراوان ديگر خود بهره مي برد، و چيزهايي مي گويد كه سبب مي شوند، به انسان احساس امنيت دروغين دست بدهد.
حال دامنه اين احساس را به حوزه امنيت ملي بسط دهيم. مثلا فرض كنيم اداره جاسوسي كشوري بيگانه نيز با استفاده از همين دستگاه ها اطلاعاتي را كه خودمان در دنياي مجازي گذاشته ايم جمع آوري كرده، و برعليه خودمان به كار بگيرد. هكرها و ساير بيماران رواني اي كه مرتب در دنياي مجازي جولان مي دهند نيز، كه جاي خود دارند.
به عبارت ديگر ما با علاقمند و وابسته شدن به دستگاه هاي داراي اينگونه هوش مصنوعي، عملا خود را در معرض انواع مخاطرات قرار مي دهيم. مخاطراتي كه در هنگام قرار دادن اطلاعات مان در دنياي مجازي، بسياري از آنها حتي به ذهن مان خطور نكرده اند، و نمي كنند.
به گزارش iranjavan، بنابراين با توجه به جميع جهات اين پرسش پيش مي آيد كه آيا اصولا عاقلانه و منطقي خواهد بود، كه به دستگاه هاي مورد اشاره علاقمند و وابسته شويم؟ زيرا بسياري از مواردي كه به آنها پرداخته شد، نه مخاطرات بالقوه، كه خطرهاي واقعي هستند.