یک ترفند عجیب که ۹۹٪ سیستمهای ایمنی هوش مصنوعی را دور میزند
تحقیقات جدید نشان میدهد که طولانیتر کردن فرآیند تفکر هوش مصنوعی (Chain of Thought)، آسیبپذیری امنیتی ایجاد کرده و ۹۹٪ گاردریلهای ایمنی را در مدلهایی مانند GPT، Claude و Gemini دور میزند.