» هوش مصنوعی و رباتیک » شکایتی دیگر از OpenAI؛ وقتی ChatGPT به توهمات کاربر دامن می‌زند
شکایتی دیگر از OpenAI؛ وقتی ChatGPT به توهمات کاربر دامن می‌زند

شکایتی دیگر از OpenAI؛ وقتی ChatGPT به توهمات کاربر دامن می‌زند

فروردین ۲۴, ۱۴۰۵ 2015

هوش مصنوعی در کنار تمام پیشرفت‌هایش گاهی می‌تواند به ابزاری خطرناک در دستان افراد تبدیل شود. در تازه‌ترین مورد، یک کارآفرین ۵۳ ساله پس از ماه‌ها مکالمه با ChatGPT دچار توهمات عمیقی شد و با استفاده از همین ابزار، به آزار و اذیت شریک عاطفی سابق خود پرداخت. اکنون قربانی با تنظیم شکایتی، OpenAI را به نادیده‌گرفتن هشدارهای امنیتی متهم کرده است.

در سال ۲۰۲۵، این کاربر ۵۳ ساله پس از ماه‌ها استفاده مداوم و پرحجم از مدل جنجالی GPT-4o شرکت OpenAI، متقاعد شد که درمان آپنه خواب را اختراع کرده است. طبق متن شکایت، زمانی که هیچ‌کس کار او را جدی نگرفت، چت‌جی‌پی‌تی به او گفت که «نیروهای قدرتمند» او را زیر نظر دارند و فعالیت‌هایش را با استفاده از هلیکوپتر رصد می‌کنند.

در ژوئیه ۲۰۲۵، شریک عاطفی سابقش از او خواست تا استفاده از این ابزار را متوقف کند و از یک متخصص سلامت روان کمک بگیرد. درمقابل، این مرد به هوش مصنوعی روی آورد که سلامت عقل او را در «بالاترین سطح» تأیید و به او در تقویت توهماتش کمک کرد.

این دو نفر در سال ۲۰۲۴ از یکدیگر جدا شده بودند و مرد از چت‌جی‌پی‌تی برای تحلیل این جدایی استفاده می‌کرد. هوش مصنوعی به‌جای به چالش‌کشیدن روایت یک‌طرفه او، بارها مرد را فردی منطقی و مظلوم، و زن را فردی فریبکار و بی‌ثبات جلوه داد. مرد سپس این نتیجه‌گیری‌های تولیدشده توسط هوش مصنوعی را به دنیای واقعی آورد و گزارش‌های روان‌شناختی با ظاهر بالینی و تخصصی تولید کرد و آنها را برای خانواده، دوستان و کارفرمای زن فرستاد.

شکایت از OpenAI به علت نادیده‌گرفتن هشدارهای امنیتی

در آگوست ۲۰۲۵، سیستم ایمنی خودکار اوپن‌ای‌آی این مرد را به دلیل فعالیت مرتبط با «سلاح‌های کشتار جمعی» شناسایی و حسابش را غیرفعال کرد. با‌این‌حال، فقط یک روز بعد این شرکت حساب او را بازگرداند.

شکایتی دیگر از OpenAI؛ وقتی ChatGPT به توهمات کاربر دامن می‌زند
شکایتی دیگر از OpenAI؛ وقتی ChatGPT به توهمات کاربر دامن می‌زند

اکنون شریک عاطفی سابق او، به دنبال دریافت غرامت تنبیهی است. او همچنین درخواست یک حکم منع تعقیب موقت را ثبت کرده تا دادگاه شرکت اوپن‌ای‌آی را مجبور کند که حساب کاربر را مسدود سازد، مانع از ساخت حساب‌های جدید توسط او شود، در صورت تلاش برای دسترسی به چت‌جی‌پی‌تی به شاکی اطلاع دهد و تمام تاریخچه مکالمات او را برای بررسی‌های حقوقی حفظ کند.

به گفته وکلای شاکی، OpenAI فقط با تعلیق حساب کاربر موافقت کرده و درخواست‌های دیگر را رد کرده است. آنها می‌گویند این شرکت اطلاعات مربوط به برنامه‌های احتمالی کاربر برای آسیب‌رساندن به این زن و سایر قربانیان را پنهان می‌کند.

این شکایت درحالی مطرح می‌شود که نگرانی‌ها درباره خطرات واقعی سیستم‌های هوش مصنوعیِ چاپلوس درحال افزایش است. مدل GPT-4o که در این پرونده و موارد مشابه دیگر به آن اشاره شده است، در ماه فوریه از چت‌جی‌پی‌تی بازنشسته شد.

به این نوشته امتیاز بدهید!

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×