xaker

Anthropic: для отравления LLM достаточно 250 вредоносных документов в обучающих данных

  • вторник, 14 октября 2025 г. в 00:00:27
https://xakep.ru/2025/10/13/poisoning-llm/
Специалисты компании Anthropic, совместно с Институтом безопасности ИИ при правительстве Великобритании, Институтом Алана Тьюринга и другими академическими учреждениями, сообщили, что всего 250 специально подготовленных вредоносных документов достаточно, чтобы заставить ИИ-модель генерировать бессвязный текст при обнаружении определенной триггерной фразы.