اتهام آنتروپیک علیه دیپسیک: سرقت اطلاعات Claude برای آموزش هوش مصنوعی
آنتروپیک شرکت دیپسیک و دو آزمایشگاه هوش مصنوعی چینی دیگر را به استفاده غیرمجاز از مدل پیشرفته Claude متهم کرد. این شرکتها با ایجاد هزاران حساب کاربری جعلی، میلیونها درخواست برای استخراج اطلاعات کلود و آموزش مدلهای خود ارسال کردهاند. این اقدام نقض آشکار قوانین محسوب میشود و نگرانیهای امنیتی گستردهای را در سطح جهانی به همراه داشته است.
آنتروپیک اعلام کرد که سه شرکت دیپسیک، MiniMax و Moonshot یک کمپین استخراج اطلاعات در مقیاس صنعتی به راه انداختهاند. آنها با ایجاد حدود ۲۴ هزار حساب کاربری جعلی، بیش از ۱۶ میلیون تعامل با هوش مصنوعی کلود داشتهاند و اطلاعات آن را تقطیر کردهاند.
تقطیر فرایندی است که در آن یک مدل ضعیفتر با استفاده از خروجیهای یک مدل قدرتمندتر آموزش میبیند و حالا این شرکتهای چینی از این روش برای کپیبرداری غیرقانونی از قابلیتهای هوش مصنوعی کلود استفاده کردهاند. این روش به آنها امکان میدهد تا قابلیتهای پیشرفته را در کسری از زمان و با هزینهای بسیار اندک به دست بیاورند.
اتهام آنتروپیک علیه شرکتهای چینی برای استخراج اطلاعات کلود
مدلهای تقطیرشده فاقد لایههای امنیتی و محافظتی هستند و این موضوع به دولتها اجازه میدهد تا از این فناوری برای حملات سایبری، عملیات نشر اطلاعات دروغین و نظارتهای دستهجمعی استفاده کنند.

شرکتهای آمریکایی مانند آنتروپیک، سیستمهای خود را با پروتکلهای امنیتی سختگیرانهای میسازند تا جلوی سوءاستفادههای خطرناک (مانند ساخت سلاحهای بیولوژیک) را بگیرند. اما زمانی که شرکتهای خارجی این مدلها را به صورت غیرقانونی تقطیر میکنند، این لایههای محافظتی از بین میروند و خطرات بزرگی ایجاد میکنند. اگر این مدلهای بدون محافظ به صورت متنباز منتشر شوند، کنترل آنها از دست همه دولتها خارج خواهد شد و فناوریهای خطرناک به راحتی در دسترس همگان قرار میگیرند.
بررسیهای دقیق آنتروپیک نشان میدهد که هر یک از این شرکتها اهداف مشخصی را دنبال میکردند و الگوهای ترافیکی هماهنگی داشتند. شرکت دیپسیک با ثبت بیش از ۱۵۰ هزار تعامل، روی قابلیتهای استدلالی کلود تمرکز داشت. محققان دیپسیک از کلود خواستند تا پاسخهای ضدسانسور درباره موضوعات حساس سیاسی (مانند رهبران احزاب، مخالفان یا سیستمهای اقتدارگرا) تولید کند تا مدلهای خود را برای هدایت مکالمات در این زمینهها آموزش دهند.
شرکت مونشات که سازنده مدلهای Kimi است، بیش از ۳.۴ میلیون تعامل با کلود ثبت کرد. هدف اصلی آنها استخراج مهارتهای کدنویسی، تحلیل داده و توسعه ایجنتهای هوشمند بود. شرکت مینیمکس نیز با ثبت رکورد بیش از ۱۳ میلیون تعامل، روی کدنویسی و استفاده از ابزارها تمرکز داشت.

آنتروپیک به دلایل امنیت ملی، خدمات تجاری خود را در کشور چین یا برای شرکتهای تابعه آنها ارائه نمیدهد. بااینحال، آزمایشگاههای چینی با خرید دسترسی از سرویسهای واسطه، شبکههای بزرگی از حسابهای جعلی ایجاد کردهاند. در این سیستم که به «خوشه هیدرا» (Hydra cluster) معروف است، با مسدودشدن هر حساب، بلافاصله حساب دیگری جایگزین آن میشود.
آنها درخواستهای خود را با ترافیک کاربران عادی ترکیب کردند تا سیستمهای امنیتی متوجه الگوهای تکراری آنها نشوند. آنتروپیک تأکید میکند که پیشرفتهای سریع این آزمایشگاهها نتیجه نوآوری مستقل نیست، بلکه به دلیل استخراج اطلاعات از مدلهای آمریکایی است.
برخی کاربران شبکههای اجتماعی در واکنش به این خبر با انتشار تصویر «جیان یَنگ»، شخصیت چینی سریال Silicon Valley که در عکس ابتدای خبر پیداست، کپیکردن استارتاپهای چینی از آنتروپیک را به رفتارهای او که بهدنبال تقلید از ایدههای شرکتهای دره سیلیکون در چین بود، تشبیه کردهاند.
