اخطار دولت کانادا به OpenAI: قوانین ایمنی ChatGPT باید اصلاح شود
دولت کانادا در پی وقوع یک تیراندازی مرگبار در مدرسهای در ایالت بریتیش کلمبیا، مدیران ارشد OpenAI را به اتاوا احضار کرد. مقامات دولتی از این شرکت فناوری انتقاد کردند، زیرا آنها با وجود مسدودکردن حساب کاربری فرد مهاجم در چتجیپیتی، هیچ هشداری به نهادهای مجری قانون ندادند. کانادا اکنون تهدید میکند که اگر OpenAI پروتکلهای ایمنی خود را تغییر ندهد، دولت با اهرم قانون این کار را انجام خواهد داد.
به گزارش رویترز، مقامات کانادایی مدیران این شرکت را احضار کردند زیرا OpenAI پیش از وقوع فاجعه، حساب کاربری فرد مهاجم را به دلیل نقض قوانین مسدود کرده بود، اما خطرات احتمالی را به پلیس اطلاع نداد.
گزارشها نشان میدهند که در سال ۲۰۲۵ برخی از کارمندان OpenAI حساب کاربری «جسی ون روتسلار» را به دلیل نشانههای هشداردهنده از خشونت در دنیای واقعی مسدود کردند. این کارمندان از مدیران ارشد خواستند تا موضوع را به مجریان قانون اطلاع دهند. بااینحال، سخنگوی OpenAI اعلام کرد که فعالیتهای این کاربر با معیارهای داخلی شرکت برای گزارش به پلیس و وجود خطر قریبالوقوع آسیب فیزیکی مطابقت نداشت.
اخطار کانادا به OpenAI درباره قوانین ایمنی ChatGPT
«شان فریزر» (Sean Fraser)، وزیر دادگستری کانادا، به صراحت هشدار داد که اگر OpenAI پروتکلهای ایمنی خود را به سرعت اصلاح نکند، دولت با وضع قوانین سختگیرانه این تغییرات را تحمیل خواهد کرد.
دولت کانادا از عدم گزارشدهی بهموقع OpenAI به شدت عصبانی است. «ایوان سالومون» (Evan Solomon)، وزیر مسئول هوش مصنوعی در دولت فدرال، پیش از نشست با مدیران OpenAI اعلام کرد که آنها باید آستانه تحمل و پروتکلهای امنیتی خود را بهطور کامل برای دولت توضیح دهند. «مارک کارنی»، نخستوزیر کانادا، نیز با تأکید بر اهمیت پیشگیری از فجایع آینده، قول داد که دولت تمام ظرفیتهای قانونی خود را برای بررسی این موضوع به کار خواهد گرفت.

جسی ون روتسلار سابقه مشکلات سلامت روان داشت و پلیس کانادا پیشتر اسلحههای او را توقیف کرده بود، اما مقامات پس از مدتی این سلاحها را به او بازگرداندند. این تیراندازی در شهر کوچک تامبلر ریج با حدود ۲۴۰۰ نفر جمعیت رخ داد. کارشناسان جرمشناسی میگویند که پلتفرمهای هوش مصنوعی نیاز به نظارت بیشتری دارند، اما همزمان نهادهای انتظامی را نیز مقصر میدانند. آنها باور دارند که پلیس کانادا با بازگرداندن سلاحها به فردی که سابقه مشکلات روانی داشت، فرصتهای مهمی را برای جلوگیری از این فاجعه از دست داد.
این اولینبار نیست که سیاستهای ایمنی OpenAI زیر سؤال میرود. در دسامبر ۲۰۲۵ خانواده یک قربانی از این شرکت شکایت کردند و مدعی شدند که چتجیپیتی با ترویج باورهای بدبینانه، مردی را تشویق کرد تا مادر خود را به قتل برساند و سپس خودکشی کند.
