هشدار محققان MIT: اکثر ایجنتهای هوش مصنوعی امن نیستند
مطالعه جدید محققان دانشگاه MIT و چند نهاد علمی معتبر دیگر نشان میدهد که ایجنتهای هوش مصنوعی که میتوانند بهصورت خودکار کارها را انجام دهند، یک کابوس امنیتی هستند. این سیستمها نهتنها درباره خطرات و تستهای ایمنی خود شفاف نیستند، بلکه بسیاری از آنها حتی دکمهای برای توقف اضطراری ندارند.
محققان دانشگاههای MIT، کمبریج، واشنگتن، هاروارد، استنفورد و پنسیلوانیا در گزارشی ۳۹ صفحهای با عنوان «شاخص هوش مصنوعی ۲۰۲۵»، ۳۰ سیستم رایج ایجنتمحور را بررسی کردند. آنها دریافتند که ۱۲ مورد از این سیستمها هیچگونه نظارتی بر میزان استفاده کاربران ندارند؛ موضوعی که مدیریت بودجه را برای شرکتها به شدت دشوار میکند. بدتر از آن، اکثر این ایجنتها ماهیت مصنوعی خود را فاش نمیکنند؛ یعنی نه روی فایلهای تولیدی واترمارک میزنند و نه با رعایت پروتکلهای استاندارد (مانند فایل robots.txt) خود را بهعنوان بات به وبسایتها معرفی میکنند.
هشدار محققان درباره ایجنتهای هوش مصنوعی
یکی از ترسناکترین یافتههای این تحقیق، نبود مکانیسم کنترل در سیستمهایی است که بهطور مستقل عمل میکنند. ایجنتهای هوش مصنوعی ابزارهایی هستند که فقط به یک چت متنی محدود نمیشوند؛ آنها به دیتابیسها و ایمیلها متصل میشوند و کارها را با استقلال انجام میدهند. حال تصور کنید باتی که به اطلاعات سازمان دسترسی دارد، شروع به انجام کارهای مخرب یا اشتباه کند و شما نتوانید آن را متوقف کنید. محققان تأکید میکنند که با افزایش توانایی این باتها، چنین نقصهایی در کنترل و شفافیت میتواند آسیبهای جبرانناپذیری به همراه داشته باشد.

محققان برای درک بهتر، سه نمونه از این ابزارها (که اکثراً برپایه مدلهای جمینای، کلود و GPT ساخته شدهاند) را بررسی کردند؛ دستیار ChatGPT Agent تنها سیستمی بود که با امضای رمزنگاریشده درخواستهای خود را ثبت میکرد تا رفتار آن در وب قابلپیگیری باشد.
در مقابل مرورگر اینترنتی Comet هیچگونه ارزیابی ایمنی یا تست شخص ثالثی ارائه نمیدهد و هیچ محیط ایزولهای (Sandboxing) برای جلوگیری از خطرات ندارد. این ابزار حتی توسط شرکت آمازون به دلیل جعل هویت انسانی و پنهانکردن ماهیت رباتی خود مورد شکایت قرار گرفته است. ابزار Breeze از شرکت HubSpot نیز اگرچه گواهینامههای حریم خصوصی مانند GDPR و SOC2 را دارد، اما نتایج واقعی تستهای امنیتی خود را مخفی نگه داشته است که این رویه در پلتفرمهای سازمانی بسیار رایج و خطرناک است.
درکل این سیستمها خودبهخود به وجود نیامدهاند، بلکه محصول انتخابهای خاص انسانها هستند. برای مثال، شرکت OpenAI بهتازگی خالق پلتفرم OpenClaw را استخدام کرده است؛ ابزاری که ماه گذشته به دلیل تواناییهای عجیبش (مثل مدیریت خودکار ایمیلها) و در عینحال نقصهای امنیتی فاجعهبارش (مانند امکان هکشدن کامل کامپیوتر شخصی کاربر) خبرساز شد.
محققان در پایان هشدار میدهند که توسعهدهندگان باید فوراً خلأهای امنیتی و کنترلی ابزارهای خود را برطرف کنند، در غیر این صورت بهزودی با رگولاتوری و قوانین سختگیرانه دولتی مواجه خواهند شد.
