资讯

在当前AI领域,安全性已经成为一个不可忽视的话题。随着大语言模型(LLM)在各种应用中的普及,如何有效防御提示词注入攻击(prompt injection)变得愈发重要。最近,Meta与加州大学伯克利分校(UCB)联合推出了meta-SecAlign-70B,这一开源的工业级安全大语言模型不仅在提示词注入攻击的鲁棒性上超越了当前最先进的闭源解决方案,还在许多应用场景中表现出了出色的能力。 提示词注 ...
markdown Meta和加州大学伯克利分校(UCB)的研究团队联合开源了 首个工业级能力的安全大语言模型 meta-SecAlign-70B。这项突破性进展,不仅在 提示词注入攻击 (prompt injection)的防御能力上超越了当前 ...