https://xakep.ru/2024/03/19/artprompt/Новая атака на ИИ-помощников строится на использовании ASCII-рисунков. Оказалось, что такие большие языковые модели, как GPT-4, настолько «отвлекаются», пытаясь обработать подобные изображения, что забывают соблюдать правила, запрещающие им давать вредоносные ответы, например, предоставлять инструкции по созданию взрывчатки.