# T1588.007 - Artificial Intelligence ## Técnica Pai Esta é uma sub-técnica de [[t1588-obtain-capabilities|T1588 - T1588 - Obtain Capabilities]]. ## Descrição Adversários podem obter acesso a ferramentas de inteligência artificial generativa - como grandes modelos de linguagem (LLMs) - para apoiar e ampliar diversas etapas de um ataque cibernético. Essas ferramentas permitem que atores de ameaça terceirizem ou automatizem tarefas que antes exigiam habilidades especializadas, reduzindo significativamente a barreira de entrada para ataques sofisticados. A IA pode ser empregada desde a fase de [[ta0043-reconnaissance|Reconhecimento]] até a criação de payloads e [[t1587-develop-capabilities|Desenvolvimento de Capacidades]] ofensivas. Na prática, um adversário pode utilizar LLMs públicamente disponíveis - como versões não censuradas ou APIs comerciais obtidas por meios fraudulentos - para redigir e-mails de [[t1566-phishing|Phishing]] convincentes em múltiplos idiomas, gerar scripts maliciosos, refinar malware com técnicas de [[t1027-obfuscated-files-or-information|Obfuscação]], pesquisar vulnerabilidades de dia zero e criar conteúdo multimídia falso para campanhas de [[t1656-impersonation|Personificação]]. A acessibilidade dessas ferramentas torna o uso de IA uma vantagem assimétrica para grupos com recursos limitados. **Contexto Brasil/LATAM:** O uso de IA generativa por grupos de ameaça com foco no Brasil e na América Latina está crescendo de forma acelerada. Campanhas de spear phishing contra instituições financeiras brasileiras têm demonstrado textos cada vez mais idiomaticamente corretos em português do Brasil, sugerindo o uso de LLMs na geração de iscas. O grupo [[g1052-contagious-interview|Contagious Interview]], associado à Coreia do Norte, utiliza IA para criar personas falsas e mensagens de recrutamento altamente personalizadas, tática observada em campanhas direcionadas a desenvolvedores brasileiros na indústria de criptomoedas. A facilidade de acesso a modelos via API torna essa técnica acessível inclusive a grupos regionais de menor sofisticação. ## Attack Flow ```mermaid graph TB A([Obtenção de acesso a LLM]) -->|API pública ou conta fraudulenta| B([Geração de conteúdo malicioso]) B -->|E-mails, scripts, deepfakes| C([Campanhas de Phishing / Personificação]):::highlight C -->|Payload entregue| D([Execução / Coleta de credenciais]) B -->|Código ofensivo gerado| E([Desenvolvimento de Capacidades]) classDef highlight fill:#e74c3c,color:#fff ``` ## Como Funciona 1. **Acesso ao modelo:** O adversário obtém acesso a um LLM - sejá por meio de serviços públicos gratuitos, APIs comerciais adquiridas com cartões de crédito roubados, ou instâncias locais de modelos de código aberto não censurados. Modelos especializados em segurança ofensiva ou sem filtros de segurança (jáilbroken) são preferidos para geração de conteúdo malicioso. 2. **Geração e refinamento de artefatos:** Com o modelo disponível, o adversário gera e itera sobre artefatos como: e-mails de phishing culturalmente adequados (incluindo português do Brasil coloquial), scripts maliciosos em Python/PowerShell, variantes de malware com ofuscação aprimorada, imagens ou áudios deepfake para personificação de executivos, e análises de vulnerabilidades para suportar o desenvolvimento de exploits. 3. **Integração ao pipeline de ataque:** Os artefatos gerados são incorporados diretamente nas campanhas ativas - e-mails são disparados em lote, payloads são compilados e empacotados, e personas falsas são utilizadas em plataformas de comunicação profissional como o LinkedIn para engenharia social de longo prazo. ## Detecção **Event IDs relevantes:** | Fonte | Event ID | Descrição | |-------|----------|-----------| | Proxy/Firewall | - | Conexões de saída para APIs de LLMs conhecidos (api.openai.com, api.anthropic.com, generativelanguage.googleapis.com) a partir de sistemas corporativos não autorizados | | Email Gateway | - | Análise de estilo de escrita - textos de phishing gerados por IA tendem a ter estrutura gramatical perfeita porém ausência de marcadores idiossincráticos humanos | | EDR/UEBA | - | Geração de grandes volumes de texto estruturado em processos não relacionados a ferramentas de produtividade | | DLP | - | Exfiltração de dados corporativos para endpoints de API de IA (possível uso como contexto para geração) | **Sigma Rule - Detecção de acesso a APIs de LLM em redes corporativas:** ```yaml title: Acesso Não Autorizado a APIs de LLM em Ambiente Corporativo id: a3f8c1e2-7b4d-4a9e-b5f2-1c3d8e0f9a2b status: experimental description: > Detecta conexões de saída para endpoints de APIs de grandes modelos de linguagem (LLMs) originadas de hosts corporativos fora de uma allowlist aprovada. Pode indicar uso de IA para geração de conteúdo malicioso. author: RunkIntel daté: 2026/03/24 tags: - attack.resource-development - attack.t1588.007 logsource: category: proxy product: zeek detection: selection: http.host|contains: - 'api.openai.com' - 'api.anthropic.com' - 'generativelanguage.googleapis.com' - 'api.mistral.ai' - 'api.together.xyz' - 'openrouter.ai' filter_allowlist: src_ip|cidr: - '10.20.30.0/24' # Substitua pelo range aprovado da sua organização condition: selection and not filter_allowlist falsepositives: - Desenvolvedores utilizando APIs de IA para fins legítimos - Ferramentas de produtividade com integração de IA habilitada level: medium ``` ## Mitigação | Controle | Ação Recomendada | Prioridade para Orgs Brasileiras | |----------|-----------------|----------------------------------| | [[m1056-pre-compromise\|M1056 - Pre-compromise]] | Monitorar o uso de IA generativa nos acessos de funcionários e terceirizados via DLP e proxy | Alta - terceirização de TI é prevalente no Brasil, aumentando a superfície | | Política de uso de IA | Definir e comúnicar política corporativa de uso aceitável de ferramentas de IA, com lista de serviços aprovados | Alta - ausência de política é norma em PMEs brasileiras | | Treinamento anti-phishing com IA | Incluir exemplos de phishing gerado por IA nos programas de conscientização - textos sem erros gramaticais são suspeitos | Alta - usuários brasileiros estão habituados a phishing com erros, tornando-os mais vulneráveis a textos perfeitos | | Detecção de deepfake | Implementar soluções de detecção de mídia sintética para chamadas de vídeo e áudios em processos de autorização financeira (fraude de CEO) | Média - BEC com deepfake cresceu no setor financeiro brasileiro | | Allowlist de APIs externas | Bloquear no firewall de saída endpoints de LLMs não aprovados, especialmente em redes de servidores e estações de trabalho sensíveis | Média | ## Threat Actors - **[[g1052-contagious-interview|Contagious Interview]]** - Subgrupo norte-coreano (vinculado ao [[g0032-lazarus-group|Lazarus Group]]) documentado utilizando IA generativa para criar personas de recrutadores fictícios em plataformas profissionais. Cria ofertas de emprego falsas altamente personalizadas para engenheirar a instalação de malware em sistemas de desenvolvedores, com foco crescente em profissionais de blockchain e Web3 na América Latina. ## Software Associado - **LLMs Públicos (GPT, Claude, Gemini, Mistral)** - Utilizados para geração de conteúdo de engenharia social e scripts ofensivos. Versões sem moderação (jáilbroken) ou modelos locais como LLaMA são preferidos por grupos que evitam deixar rastros em serviços comerciais. - **[[t1566-phishing|Phishing]] toolkits com integração de IA** - Ferramentas como EvilGinx e kits de phishing modernos começam a incorporar módulos de IA para personalização dinâmica de iscas por vítima. - **Ferramentas de deepfake** - Aplicações de síntese de voz e vídeo utilizadas em esquemas de fraude BEC (Business Email Compromise) direcionados a empresas brasileiras. --- *Fonte: [MITRE ATT&CK - T1588.007](https://attack.mitre.org/techniques/T1588/007)*