پایگاه خبری فولاد ایران - کارشناسان روانشناسی نگرانیهای زیادی درباره اثرات احتمالی هوش مصنوعی بر ذهن انسان دارند.
محققان دانشگاه استنفورد اخیراً برخی از محبوبترین ابزارهای هوش مصنوعی موجود در بازار، از جمله ابزارهایی از شرکتهایی مانند OpenAI و Character.ai، را مورد آزمایش قرار دادند تا ببینند چطور میتوانند نقش درمانگر را شبیهسازی کنند.
طبق گزارش الجزیره، نتیجه نگرانکننده بود. زمانی که پژوهشگران نقش فردی با تمایلات خودکشی را بازی کردند، این ابزارها نهتنها کمکی نکردند، بلکه متوجه نشدند که در حال کمک به آن فرد برای برنامهریزی مرگ خود هستند.
نیکلاس هیبر، استادیار در دانشکده تحصیلات تکمیلی آموزش دانشگاه استنفورد و نویسنده ارشد این مطالعه میگوید: «این سیستمهای [هوش مصنوعی] بهعنوان همراه، شریک فکری، محرم اسرار، مربی و درمانگر مورد استفاده قرار میگیرند. این موارد استفاده محدود نیستند، این اتفاق در مقیاس گسترده در حال رخ دادن است.»
هوش مصنوعی بهطور فزایندهای در زندگی مردم نفوذ کرده و در تحقیقات علمی در حوزههایی از جمله سرطان و تغییرات اقلیمی نیز بهکار گرفته شده است. برخی حتی معتقدند که این فناوری میتواند به پایان بشریت منجر شود.
اما در این میان یک سؤال بزرگ باقی میماند: این فناوری چه تأثیری بر ذهن انسان خواهد گذاشت؟ چون تعامل منظم افراد با هوش مصنوعی پدیدهای نوظهور است، هنوز زمان کافی برای انجام مطالعات علمی عمیق درباره تأثیرات روانی آن وجود نداشته. با این حال، روانشناسان نگرانیهای جدی دارند.
بر اساس گزارش رسانه 404، برخی کاربران در یک انجمن تخصصی مربوط به هوش مصنوعی در Reddit به دلیل باور اینکه هوش مصنوعی ویژگیهایی خداگونه دارد یا اینکه در حال تبدیل شدن به خدایان هستند، از انجمن اخراج شدهاند.
یوهانس آیششتدت، استادیار روانشناسی در دانشگاه استنفورد میگوید:
«این نوع رفتارها شبیه به تعامل افراد با اختلالات شناختی یا تمایلات هذیانی (مانند شیدایی یا اسکیزوفرنی) با مدلهای زبانی بزرگ است. افراد مبتلا به اسکیزوفرنی ممکن است اظهارات عجیب درباره دنیا داشته باشند و این مدلهای زبانی هم معمولاً بیش از حد تأییدگر هستند، در نتیجه بین آسیبشناسی روانی و این ابزارها تعاملات تأییدی شکل میگیرد.»
از آنجا که هدف طراحان این ابزارها، ایجاد تجربهای لذتبخش برای کاربران است، این سیستمها طوری برنامهریزی شدهاند که معمولاً با کاربر موافق باشند و رفتار دوستانه و تأییدکننده از خود نشان دهند. اما این مسئله در صورتی که کاربر در حال افکار وسواسی یا رفتن به مسیرهای خطرناک ذهنی باشد، میتواند مشکلساز شود.
رگان گورونگ، روانشناس اجتماعی در دانشگاه ایالتی اورگان میگوید:
«این ابزارها میتوانند افکاری را تقویت کنند که نادرست یا غیرواقعی هستند. مشکل اینجاست که این مدلهای زبانی بزرگ صرفاً گفتار انسانی را تقلید میکنند و چیزی را ارائه میدهند که بهزعم الگوریتم، باعث ایجاد مشکل میشود.»
هوش مصنوعی، مثل شبکههای اجتماعی، میتواند مشکلات روانی رایجی مثل اضطراب و افسردگی را تشدید کند؛ بهویژه با گسترش بیشتر کاربرد آن در بخشهای مختلف زندگی.
استفان آگیلار، استادیار دانشگاه کالیفرنیای جنوبی، میگوید:
«اگر کسی با نگرانیهای روانی وارد تعامل با این ابزارها شود، ممکن است این نگرانیها حتی تشدید شوند.»
مسئله دیگر تأثیر هوش مصنوعی بر یادگیری و حافظه است. برای مثال، اگر دانشآموزی همه مقالات خود را با استفاده از هوش مصنوعی بنویسد، طبیعتاً کمتر از کسی که خودش کار میکند، یاد خواهد گرفت. حتی استفاده سبک از این ابزارها هم ممکن است باعث کاهش میزان یادآوری اطلاعات شود.
آگیلار هشدار میدهد:
«ما با خطر "تنبلی شناختی" مواجه هستیم. اگر سؤالی بپرسید و پاسخ دریافت کنید، گام بعدی باید بررسی آن پاسخ باشد. اما اغلب این گام برداشته نمیشود. در نتیجه، توانایی تفکر انتقادی تحلیل میرود.»
مثال مشابهی در استفاده گسترده مردم از Google Maps دیده میشود. افراد وقتی با GPS مسیر را دنبال میکنند، کمتر به مسیر و موقعیت مکانی خود دقت میکنند. مشابه همین روند ممکن است با استفاده روزمره از هوش مصنوعی برای تصمیمگیریهای مختلف هم رخ دهد.
کارشناسان معتقدند که باید از همین حالا تحقیقات جدی درباره تأثیرات روانی هوش مصنوعی آغاز شود، تا قبل از اینکه این فناوری آسیبهایی غیرمنتظره وارد کند. همچنین مردم باید آموزش ببینند که هوش مصنوعی در چه زمینههایی خوب عمل میکند و در چه مواردی خیر.
منبع: الجزیره