» هوش مصنوعی و رباتیک » استفاده زیاد از «چت‌جی‌پی‌تی» می‌تواند به روان‌پریشی منجر شود!
استفاده زیاد از «چت‌جی‌پی‌تی» می‌تواند به روان‌پریشی منجر شود!

استفاده زیاد از «چت‌جی‌پی‌تی» می‌تواند به روان‌پریشی منجر شود!

بهمن ۲۴, ۱۴۰۴ 2013

به گزارش ایسنا، هوش مصنوعی برای بسیاری از افراد به یک فناوری روزمره تبدیل شده است. برخی افراد به صورت پراکنده از دستیاران مجازی استفاده می‌کنند، اما برخی دیگر آنها را عمیقاً در کارهای روزمره خود گنجانده‌اند.

به نقل از یوسی استراتژیز، همچنان که این همراهان دیجیتال شهودی‌تر و شخصی‌تر می‌شوند، پرسش‌های جدیدی مطرح می‌شوند. آیا تعامل مکرر، احساس افراد را تغییر می‌دهد؟ آیا اتکا به یک چت‌بات می‌تواند به مرور زمان به طور نامحسوس بر سلامت روان تأثیر بگذارد؟

پژوهش جدیدی که میلیون‌ها گفت‌وگو با چت‌بات را تحلیل کرده است، اطلاعات جدیدی را درباره این پدیده ارائه می‌دهد. دانشمندان تبادلات بی‌شماری را مورد بررسی قرار دادند و از هزاران نفری که مرتب با عوامل هوش مصنوعی گفت‌وگو می‌کردند، بازخورد گرفتند تا مشخص کنند که آیا تعامل مداوم با هوش مصنوعی به تغییر در وضعیت عاطفی شخص می‌انجامد. الگوهای حاصل از این تحلیل‌ها نشان می‌دهند که کاربران عادی در مقایسه با کسانی که فقط گاهی اوقات با عوامل هوش مصنوعی تعامل دارند، روندهای روانشناختی متمایزی را نشان می‌دهند. در حالی که دستیاران دیجیتال پاسخ‌های فوری و دسترسی مداوم را ارائه می‌دهند، تعاملات روزانه ممکن است معایب غیرمنتظره‌ای را برای افراد خاصی داشته باشد.

تعامل گسترده با چت‌بات‌ها اغلب با افزایش احساس انزوا مرتبط است.یک روند قابل توجه نشان می‌دهد که تعامل گسترده با چت‌بات‌ها اغلب با افزایش احساس انزوا مرتبط است. صراحت، سرعت و قابل پیش‌بینی بودن گفت‌وگو با هوش مصنوعی گاهی اوقات باعث می‌شود تعاملات اجتماعی انسانی در مقایسه با آنها کمتر جذاب یا رضایت‌بخش به نظر برسد. به طور متناقضی، راحتی روزافزون با ماشین‌ها می‌تواند حس تنهایی را برای برخی از کاربران تشدید کند.

جالب اینجاست که داده‌ها بسته به نحوه تعامل افراد با این پلتفرم‌ها –خواه از طریق متن یا صدا و خواه از طریق بحث درباره موضوعات عمومی یا پرداختن به مسائل شخصی- تفاوت‌های ظریفی را نشان می‌دهند.

یکی دیگر از الگوهای نگران‌کننده، حس وابستگی عاطفی فزاینده در میان برخی از کاربران دائمی است. روی آوردن به دستیاران هوش مصنوعی برای گفت‌وگو با هدف گرفتن آرامش، مشاوره یا همراهی چنان در حال عادی شدن است که فقدان این تعامل، خلأ قابل توجهی را ایجاد می‌کند. برای زیرمجموعه‌ای از افراد، حضور آرامش‌بخش یک چت‌بات به تدریج از راحتی به ضرورت تبدیل می‌شود.

جالب اینجاست که هرچه گفت وگو انتزاعی‌تر و غیرشخصی‌تر باشد، این وابستگی قوی‌تر می‌شود. به نظر می‌رسد تعاملاتی که بر محتوای عمومی یا تعاملات مرتبط با وظیفه متمرکز هستند، عادت‌های مرتبط با وابستگی را راحت‌تر از بحث‌های عمیقاً شخصی پرورش می‌دهند.

این تجربه بسته به نحوه تعامل افراد با چت‌بات‌ها به ‌طور قابل‌توجهی متفاوت است. به نظر می‌رسد کسانی که تعاملات صوتی را ترجیح می‌دهند، نسبت به کسانی که منحصراً به تبادلات نوشتاری متکی هستند، کمتر در معرض اثرات روانی منفی قرار دارند.

پژوهشگران دریافتند که استفاده‌ عمدی و متعادل به ویژه وقتی گفت‌وگوها سطحی باقی می‌مانند، با گزارش‌های کمتر از تنهایی و وابستگی همسو است. استفاده از گفت‌وگوی صوتی در چندین مورد، پیوند متمایزی ایجاد کرد که الگوهای مشکل‌ساز مشاهده‌شده با ارسال مداوم پیامک را جبران می‌کند.

استفاده زیاد از «چت‌جی‌پی‌تی» می‌تواند به روان‌پریشی منجر شود!

گفت‌وگوی شخصی در برابر گفت‌وگوی غیرشخصی

شاید مطرح کردن موضوعات حساس با یک ماشین به جای یک شخص دیگر، احساسات خاصی از گسستگی را تقویت کند. تشویق‌های خودکار و پاسخ‌های قابل پیش‌بینی نیز روال‌هایی را ایجاد می‌کنند که اگر تحت کنترل درنیایند، ممکن است به اجبار منجر شوند.

تحلیل‌ها یک واقعیت شگفت‌انگیز را برجسته می‌کنند و نشان می‌دهند افرادی که در گفت‌وگوهای بسیار شخصی شرکت دارند، اغلب افزایش تنهایی را گزارش می‌دهند، اما وابستگی عاطفی شدیدی پیدا نمی‌کنند. برعکس، جلسات پرسش و پاسخ غیرشخصی و همیشگی، پیوندهای عاطفی را تقویت می‌کنند؛ بدون این که لزوماً احساس انزوا را کاهش دهند. این تمایزها، پویایی پیچیده‌ای را در چگونگی شکل‌گیری روابط دیجیتال و گاهی اوقات سوق یافتن آنها به سمت قلمرو ناسالم نشان می‌دهد.

پژوهشگران چندین علامت هشداردهنده را شناسایی کرده‌اند که ممکن است نشان‌دهنده‌ استفاده‌ نادرست از تلفن همراه باشند.

۱. روی آوردن اجباری به چت‌بات حتی در زمان وجود جایگزین‌های واقعی

۲. تکیه‌ بیش از حد بر دستیارهای دیجیتال در دوره‌های استرس یا تنهایی

۳. احساس ناراحتی یا اضطراب هنگام عدم دسترسی به گفت‌وگو با هوش مصنوعی

همه کاربران دائمی با چنین خطراتی روبه‌رو نیستند، اما آگاهی از آنها می‌تواند به رفع مشکلات پیش از تشدید شدن کمک کند.

استفاده زیاد از «چت‌جی‌پی‌تی» می‌تواند به روان‌پریشی منجر شود!

به نقل از وایرد، در ماه‌های گذشته، شرکت «اوپن‌ای‌آی»(OpenAI) برای اولین بار تخمین تقریبی را از تعداد کاربران چت‌جی‌پی‌تی در سطح جهان که ممکن است علائم بحران شدید سلامت روان را نشان دهند، منتشر کرد. این شرکت اعلام کرد که با متخصصانی از سراسر جهان برای به‌روزرسانی این چت‌بات همکاری کرده است تا بتواند با اطمینان بیشتری شاخص‌های پریشانی روانی را تشخیص دهد و کاربران را به سوی حمایت در دنیای واقعی هدایت کند.

در ماه‌های منتهی به اعلام این خبر، تعداد فزاینده‌ای از افراد پس از گفت‌وگوی طولانی و شدید با چت‌جی‌پی‌تی در بیمارستان بستری شدند، طلاق گرفتند یا فوت کردند. خانواده برخی از این افراد ادعا کردند که این چت‌بات به توهمات و پارانویا در آنها دامن زده است. روانپزشکان و دیگر متخصصان سلامت روان نسبت به این پدیده که گاهی اوقات به عنوان «روان‌پریشی هوش مصنوعی» شناخته می‌شود، ابراز نگرانی کرده‌اند، اما تاکنون هیچ داده محکمی درباره میزان شیوع آن در دسترس نبوده است.

اوپن‌ای‌آی تخمین زد که حدود ۰.۰۷ درصد از کاربران فعال چت‌جی‌پی‌تی در یک هفته‌ مشخص، نشانه‌های احتمالی را از فوریت‌های سلامت روان مرتبط با روان‌پریشی یا شیدایی نشان داده‌اند و ۰.۱۵ درصد گفت‌وگوهایی داشته‌اند که شامل نشانه‌های صریح برنامه‌ریزی یا قصد خودکشی احتمالی است.

به نقل از وب‌سایت رسمی اوپن‌ای‌آی، این شرکت با بیش از ۱۷۰ متخصص سلامت روان همکاری داشته است تا به چت‌جی‌پی‌تی کمک کند نشانه‌های پریشانی را با اطمینان بیشتری تشخیص دهد، با دقت پاسخ دهد، افراد را به سمت حمایت در دنیای واقعی هدایت کند و پاسخ‌هایی را که از رفتار مطلوب فاصله دارند، ۶۵ تا ۸۰ درصد کاهش دهد.

در حالی که دوستی‌ها و پیوندهای خانوادگی شامل درک متقابل و تاریخ مشترک هستند، چت‌بات‌ها پاسخ‌های گزینش‌شده‌ای را ارائه می‌دهند که توسط الگوریتم‌ها و مجموعه بزرگ داده‌ها پشتیبانی می‌شوند.اوپن‌ای‌آی در وب‌سایت خود نوشت: ما معتقدیم چت‌جی‌پی‌تی می‌تواند فضایی حمایتی را برای افراد فراهم کند تا احساسات خود را پردازش کنند و آنها را راهنمایی کند تا در صورت لزوم با دوستان، خانواده یا یک متخصص سلامت روان تماس بگیرند. بهبودهای ایمنی ما در به‌روزرسانی اخیر مدل بر حوزه‌های زیر تمرکز دارد.

۱. نگرانی‌های سلامت روان مانند روان‌پریشی یا شیدایی

۲. خودآزاری و خودکشی

۳. اتکای عاطفی به هوش مصنوعی

به نقل از یوسی استراتژیز، وعده‌ فناوری برای ارتباط همچنان یک شمشیر دولبه است. در حالی که دوستی‌ها و پیوندهای خانوادگی شامل درک متقابل و تاریخ مشترک هستند، چت‌بات‌ها پاسخ‌های گزینش‌شده‌ای را ارائه می‌دهند که توسط الگوریتم‌ها و مجموعه بزرگ داده‌ها پشتیبانی می‌شوند. هیچ رشد متقابل یا غیر قابل ‌پیش‌بینی وجود ندارد و این امر، پشتیبانی دیجیتال را از صمیمیت واقعی بین فردی متمایز می‌کند.

فناوری‌های هوش مصنوعی به رغم راحتی کاربرد نمی‌توانند جایگزین نیازهای اساسی انسان مانند همدلی خودجوش، خنده یا حمایت خاموش در لحظات چالش‌برانگیز شوند. اتکای بیش از حد به همراهی چت‌بات‌ها ممکن است میل به ارتباطات رو در رو و غنی‌تر را کاهش دهد یا فرصت‌ها را کمتر کند.

چگونه می‌توان مرزهای سالم را حفظ کرد؟

چندین راهبرد عملی می‌توانند به حفظ تعادل و استفاده سودمند از هوش مصنوعی مخصوص گفت‌وگو کمک کنند.

۱. تعیین محدودیت‌های مشخص برای تعاملات روزانه‌ چت‌بات‌ها

۲. جست‌وجوی ارتباطات آفلاین معنادار در کنار کمک‌های دیجیتال

۳. تأمل منظم درباره احساسات خود پیرامون استفاده از هوش مصنوعی برای جلوگیری از گرایش به سمت وابستگی

استفاده آگاهانه از فناوری‌های مجازی، بهره‌وری و سلامت عمومی را افزایش می‌دهد. آگاه ماندن از انگیزه‌ها و تأثیرات تضمین می‌کند که فناوری، نقش مورد نظر خود را بدون تضعیف سلامت روان به اجرا درمی‌آورد.

انتهای پیام

به این نوشته امتیاز بدهید!

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×