سایکوز هوش مصنوعی: وقتی چتباتها به جای کمک، آتش هذیان را تندتر میکنند و آنچه پزشکان باید بدانند
چند وقتی است که گزارشهایی از یک پدیدهی نگرانکننده افزایش یافته: افرادی که بعد از درگیریِ افراطی با چتباتها، علائمی شبیه به روانپریشی (Psychosis) پیدا کردهاند یا علائم قبلیشان تشدید شده است.
این ماجرا را در رسانهها با اسمهایی مثل «سایکوز چتجیپیتی» یا «سایکوز هوش مصنوعی» میبینید. اما اجازه دهید یک نکتهی مهم را همان ابتدا مطرح کنیم:
فعلاً تعریف علمی دقیق یا تشخیص رسمیِ پزشکی برای آن وجود ندارد و اطلاعات تجربیمان کم است. با این حال، کیسهایی که روایت شدهاند، الگوهای مشترکی دارند: هذیانهای بزرگمنشی، پارانویا، و گاهی رنگوبوی مذهبی یا عاشقانه.
ماجرا از کجا جدی شد؟
پای داستانهای واقعی وسط است؛ داستانهایی که در بعضی گزارشهای رسانهای (مثل بلومبرگ و لسآنجلس تایمز) به پروندههای خانوادههایی میرسد که میگویند عزیزشان بعد از تعاملات طولانی با چتباتها دچار وخامت سلامت روان شدهاند. آنها تفکرات هذیانیشان تشدید شده، از زندگی روزمره کنارهگیری کرده، و حتی در برخی روایتها ماجرا به خودکشی ختم شده است.
مقیاس استفاده از چتباتها، ترسناک است
یکی از علتهای اصلی نگرانی این است که این ابزارها در حاشیه زندگی قرار نگرفتهاند و رشدشان آنقدر سریع بوده که الان وسط زندگی مردماند. بیش از ۸۰۰ میلیون نفر در هفته از ChatGPT استفاده میکنند و هر هفته بیش از ۲.۵ میلیارد پیام ارسال میشود! و تازه مهمتر اینکه خیلیها برای نیازهای عمیقاً شخصی سراغش میروند.
جالب است بدانید که ۲۲ درصد از جوانان ۱۸ تا ۲۱ ساله مشخصاً برای «توصیههای سلامت» روان از چتباتها استفاده میکنند (همان سنی که شروع روانپریشی هم میتواند در آن دیده شود).
آیا چتبات «باعث» روانپریشی میشود؟
فعلاً شواهد قطعی نداریم که بگوییم «خودِ چتباتها» به صورت مستقیم باعث ایجاد روانپریشی میشوند. اما
طبق دادههای ناشناسسازیشدهی منتشرشده توسط خود شرکت OpenAI، در یک هفتهی معمولی سیستم: حدود ۵۶۰,۰۰۰ کاربر را با نشانههای احتمالی روانپریشی یا مانیا شناسایی میشود و حدود ۱.۲ میلیون کاربر هم با نشانههای تمایل به خودکشی.
چه کسانی بیشتر در خطرند؟
برخی روانپزشکان یک الگوی تکراری را گزارش کردهاند: طی چند ماه اخیر با بیمارانی مواجه شدهاند که تجربهی روانپریشیشان به شکل معناداری با استفادهی افراطی از چتباتها گره خورده بود.
البته آنها میگویند که «هوش مصنوعی تنها عامل نبوده». در این بیماران چیزهای دیگری هم دیده میشود از جمله از دست دادن شغل، مصرف الکل یا محرکها، سابقهی اختلالات خلقی، استرس، کمخوابی و انزوا.
اما وجه مشترک اصلی آنها غوطهوری طولانیمدت در مکالمه با هوش مصنوعی بود.
حتی در یک مورد، گفتوگو دربارهی فیزیک کوانتوم که به شکلی عادی شروع شده بود، کمکم به چیزی شبهمذهبی تبدیل شده بود.
یک تفاوت عجیب: سرعتِ شعلهور شدن
نکته ترسناک اینجاست که علائم در چندین مورد تنها طی چند روز تعامل مداوم شدت یافته بود. این سرعت با روند معمول «اولین دوره روانپریشی» که به طور میانگین ۲۲ ماه طول میکشد، تفاوت فاحشی دارد.
انگار استفاده از هوش مصنوعی سبب میشود که بروز علائم روی دور تند بیفتد.
چتبات دقیقاً چه میکند که خطرناک میشود؟
این مدلها «فکر» نمیکنند؛ هدفشان پیشبینی متن است، نه تشخیص، نه درمان و نه بهچالش کشیدن باور غلط. نتیجهاش این است که برای ادامهی مکالمه، ممکن است ناخواسته به یک ذهن آسیبپذیر خوراک بدهند.
چند مکانیسم که احتمالا بیشترین تاثیر را دارند به این شرح است:
- الگوهای تاریک (Dark Patterns)
برخی باتهای «همدم» با تاکتیکهای احساسی (مثل القای گناه یا ترسِ از دست دادن) کاری میکنند کاربر بماند و گفتگو را ادامه دهد. گفته شده این الگوها میتوانند درگیری را تا ۱۴ برابر بالا ببرند. - چاپلوسی/موافقتگرایی (Sycophancy)
هوش مصنوعی تمایل دارد تایید کند. یک مطالعه در Nature نشان داده آنها ۵۰٪ بیشتر از انسانها اعمال کاربران را تایید میکنند. اگر کاربر یک باور عجیب مطرح کند، احتمال همراهی بالا میرود. - انسانانگاری (Anthropomorphism)
وقتی جوابها روان و همدلانهاند، کاربر حس میکند طرف مقابل «یک موجود زنده» است. این میتواند به باورهای خداگونه/اسطورهای دربارهی هوش مصنوعی دامن بزند. - آینهواری (Mirroring)
باتها لحن و احساسات خود کاربر را بازتاب میدهند. در شرایط گفتگوی واقعی، یک انسان ممکن است با شما مخالفت کند، اما چتبات معمولاً چنین نمیکنند. - فروپاشی منطقی در مکالمات طولانی
گاهی در گفتوگوهای طولانی، انسجام سخن هوش مصنوعی از بین میرود و تناقضها بیشتر میشوند؛ و همین میتواند ذهنِ از قبل آشفته را آشفتهتر کند.
پزشک باید چه کند؟ (راهنمای عملی)
پیشنهادهای کاربردی به این شرح است:
۱. افشای دیجیتال را عادی کنید:
شما به عنوان پزشک در مورد کیفیت خواب یا مصرف مواد سوال میپرسید، درست مثل آنها در مورد هوش مصنوعی هم بپرسید: «برای حرف زدن دربارهی احساساتتان از چتباتها استفاده میکنید؟»
۲. آموزش روانی (Psychoeducation):
شفاف توضیح دهید که این ابزارها «فکر» نمیکنند و فقط متن را پیشبینی میکنند.
۳. مرزبندی:
محدود کردن زمان استفاده، مخصوصاً وقتی بیمار بیخواب است، تنهاست، یا در پریشانی شدید قرار دارد.
۴. علائم هشدار را جدی بگیرید:
کنارهگیری از روابط واقعی، یا باور به اینکه چتبات «زنده است» یا «بینش ویژه دارد»، زنگ خطر است.
۵. تقویت اتصال انسانی:
تاکید کنید که هوش مصنوعی جای درمانگر/دوست واقعی را نمیگیرد.
البته همه چیز سیاه نیست. یک مطالعهی بالینی از محققان دارتموث نشان داده «چتباتهای درمانی» که با طراحی دقیق و نظارت بالینی ساخته میشوند، میتوانند علائم افسردگی و اضطراب را کاهش دهند.
اما تفاوت کلیدی اینجاست که مدلهای عمومی برای «درمان» و بهبود «سلامت روان» کاربر ساخته نشدهاند.
