“Fraude automatizada” — hackers éticos advertem sobre riscos apresentados pela IA integrada do Windows

Apesar de ser vendida pela indústria como uma ‘ferramenta milagrosa’, agora além das críticas que já recebia, IA tem valor comprovado no mundo do crime.

  • A Microsoft está 100% investida na Inteligência Artificial, depois de gastar uma fortuna para comprar o ChatGPT da OpenAI. O mais novo desenvolvimento da empresa tecnológica é a IA “Copilot”, que será integrada em novas versões do Windows 11 e do Office 365. O que a Microsoft promete é, bem, um “copiloto”, uma inteligência artificial que lhe apresentaria resumos dos seus e-mails de trabalho, daria sugestões para seus projetos atuais, e puxar dados de seus arquivos, e-mails, e conversas no Microsoft Teams para lhe contar justo o que você quer saber, cortando a enrolação.

    E pode muito bem ser que funcione (eu não uso Windows, não tenho como saber), mas é claro, como em tudo na vida, há ônus e bônus.

    Quando a empresa anunciou a nova tecnologia, já foram pegos em polêmicas após ser revelado que, para funcionalidade ideal do modelo de IA, o sistema estaria realizando um print da tela do computador sendo usado a cada tantos minutos, e enviando este para os servidores da Microsoft. A Microsoft se defendeu dizendo que as capturas eram criptografadas de ponta em ponta e individualizadas (ou seja, outros usuários do mesmo computador ou agentes externos não poderiam ver, “só” o usuário e a própria Microsoft), mas não negou que elas estavam sendo realizadas e enviadas.

    Agora, um hacker na convenção de Segurança Digital Black Hat em Las Vegas alertou para outro perigo: A nova IA pode ou não fazer uma diferença para várias áreas de negócios, mas definitivamente será revolucionária – No ‘negócio’ das fraudes.

    O pesquisador Michael Bargury demonstrou, na semana passada, cinco meios teóricos que um ator malicioso poderia usar do Copilot, incluindo usá-la para falsificar referências a arquivos, extrair dados pessoais, e burlar as proteções da Microsoft. A demonstração mais alarmante é o potencial da ferramenta que Bargury demonstrou de ser usado para Spearphishing.

    Spearphishing é um tipo de golpe digital que envolve usar de manipulação (a galera da TI gosta de chamar isso de ‘Engenharia Social’, mas não se engane, é só um termo metido para a velha e boa malandragem) para extrair informações, senhas, e dinheiro de indivíduos. Ele difere do phishing tradicional pois ao invés de mandar mensagens genéricas para centenas de pessoas até alguma cair na fraude, é direcionada a indivíduos específicos, usando de informações específicas sobre estes indivíduos (obtidas de diversas formas) para tornar a manipulação mais eficaz e garantida.

    O código demonstrado por Bargury, nomeado LOLCopilot pelo pesquisador, pode, uma vez que um hacker conseguiu acesso ao e-mail profissional de um indivíduo (por qualquer método que for, dos quais existem milhares), ele pode usar da IA para descobrir com quem este indivíduo se comunica com frequência, e gerar uma mensagem que emula com precisão a forma como esta pessoa escreve (incluindo detalhes minuciosos como uso de Emojis, gírias, e etc.), e enviar mensagens fraudulentas personalizadas, assim espalhando links maliciosos ou malware.

    Eu posso fazer isso com todo mundo que já tenha conversado com você, e posso mandar centenas de e-mails no seu nome” disse Bargury, co-fundador e CTO da empresa de segurança Zenity, que publicou os resultados da pesquisa bem como um vídeo demonstrando a potencialidade da ferramenta no mundo das fraudes. “Onde antes um malandro teria que passar dias bolando o e-mail certo para pegar alguém, agora ele pode gerar centenas em alguns minutos

    A demonstração, junto com outros ataques demonstrados por Bargury, funciona usando o modelo de linguagem (LLM, termo técnico para este tipo de programa) da forma como este foi projetado para funcionar: Escrevendo perguntas, que buscam informações no banco de dados da IA. Os resultados maliciosos são produzidos usando instruções adicionais. A pesquisa demonstra os desafios de conectar sistemas de IA a dados corporativos, e o que pode acontecer quando dados “não-confiáveis” entram na mistura – Especialmente com a IA respondendo com o que parecem ser resultados legítimos.

    Outras demonstrações de Bargury mostraram a IA sendo usada para conseguir dados sensíveis, como informação sobre transações financeiras. Ou ainda uma técnica que usa de um e-mail malicioso para “envenenar” a base de dados da IA e extrair dados bancários da vítima. “Toda vez que você dá a uma IA acesso a uma peça de dados, você está abrindo uma porta de entrada para um hacker” advertiu Bargury

    Em efeito, Bargury transforma a Inteligência Artificial em um ‘espião corporativo’, com acesso aos dados que os funcionários de uma organização teriam, e a capacidade de usá-los para o mal ou vazá-los.

    Enquanto a empresa está tão confiante em seu novo brinquedo robótico que já declarou que será ‘impossível’ remover por completo a IA do sistema Windows 11 – quem está por fora, sejam estes indivíduos ou organizações, não estão tão animados: O congresso nacional dos EUA proibiu todos os seus funcionários de fazerem uso da ferramenta. E o Governo Federal da Alemanha lavou as mãos dos serviços da Microsoft por completo, anunciando que migraria para sistemas baseados em Linux e LibreOffice para garantir sua “soberania digital”.

    Escrito por Vitor Germano para o Maringá Post
    Me mande suas perguntas tecnológicas no e-mail [email protected]

    Comentários estão fechados.