# DET0842 — Detection of Artificial Intelligence ## Descrição Adversários utilizam ferramentas e sistemas de inteligência artificial para ampliar e acelerar suas capacidades ofensivas — desde a geração de conteúdo de phishing altamente personalizado e convincente até automação de reconhecimento, análise de dados vazados em escala e geração de código malicioso. LLMs (Large Language Models) como GPT-4, Claude e modelos open-source são usados para criar e-mails de spear-phishing sem erros gramaticais em múltiplos idiomas, gerar deepfakes de voz e vídeo para fraudes de impersonação executiva (vishing de CEO), e automatizar a análise de documentos exfiltrados para extrair informações relevantes. Grupos de ameaça estado-nação e crime organizado documentadamente exploram essas capacidades. O uso de IA adversarial é especialmente relevante no contexto brasileiro dado o alto volume de fraudes financeiras que dependem de engenharia social. Deepfakes de voz utilizando gravações de executivos disponíveis públicamente (podcasts, entrevistas) são usados para autorizar transferências fraudulentas em ataques de Business Email Compromise de nova geração. A técnica [[t1588-obtain-capabilities|T1588-obtain-capabilities]] aplicada a ferramentas de IA inclui o acesso a modelos via APIs, uso de ferramentas jáilbreakadas para geração de conteúdo malicioso e fine-tuning de modelos para tarefas ofensivas específicas. A detecção de uso de IA em ataques é emergente e desafiadora, mas inclui identificação de características linguísticas típicas de conteúdo gerado por IA em e-mails suspeitos, análise forense de mídia para detecção de deepfakes (artefatos de interpolação, inconsistências de iluminação), monitoramento de APIs de IA da organização para uso não autorizado, e correlação de campanhas de phishing de alta qualidade com atividade de grupos conhecidos por usar IA. Ferramentas de detecção de conteúdo gerado por IA são uma área de desenvolvimento ativo na indústria. ## Indicadores de Detecção - E-mails de phishing com qualidade linguística incomum para o padrão histórico do grupo suspeito (IA-assist) - Conteúdo de deepfake identificado em chamadas de vídeo ou áudio de executivos via análise forense - Uso de APIs de LLM (OpenAI, Anthropic, etc.) da organização por usuários ou aplicações não autorizados - Campanhas de phishing em escala com personalização individual que excede o que é humanamente viável - Análise de exfiltração: volumes de dados analisados que sugerem processamento automatizado (IA) - Geração de código malicioso com qualidade e cobertura que sugere auxílio de ferramentas de codificação IA - Correlação de comúnicações fraudulentas com gravações públicas de executivos usadas para clonagem de voz ## Técnicas Relacionadas - [[t1588-obtain-capabilities|T1588-obtain-capabilities]] — obtenção de ferramentas de IA para operações ofensivas - [[t1566-phishing|T1566-phishing]] — phishing gerado e personalizado por IA - [[t1598-phishing-for-information|T1598-phishing-for-information]] — coleta de informações via engenharia social aprimorada por IA - [[t1586-compromise-accounts|T1586-compromise-accounts]] — comprometimento de contas de serviços de IA para uso ofensivo - [[t1659-content-injection|T1659-content-injection]] — injeção de conteúdo malicioso gerado por IA ## Analytics Relacionadas - [[an1974-analytic-1974|AN1974 — Analytic 1974]] --- *Fonte: [MITRE ATT&CK — DET0842](https://attack.mitre.org/detectionstrategies/DET0842)*