A Microsoft está 100% investida na Inteligência Artificial, depois de gastar uma fortuna para comprar o ChatGPT da OpenAI. O mais novo desenvolvimento da empresa tecnológica é a IA “Copilot”, que será integrada em novas versões do Windows 11 e do Office 365. O que a Microsoft promete é, bem, um “copiloto”, uma inteligência artificial que lhe apresentaria resumos dos seus e-mails de trabalho, daria sugestões para seus projetos atuais, e puxar dados de seus arquivos, e-mails, e conversas no Microsoft Teams para lhe contar justo o que você quer saber, cortando a enrolação.
E pode muito bem ser que funcione (eu não uso Windows, não tenho como saber), mas é claro, como em tudo na vida, há ônus e bônus.
Quando a empresa anunciou a nova tecnologia, já foram pegos em polêmicas após ser revelado que, para funcionalidade ideal do modelo de IA, o sistema estaria realizando um print da tela do computador sendo usado a cada tantos minutos, e enviando este para os servidores da Microsoft. A Microsoft se defendeu dizendo que as capturas eram criptografadas de ponta em ponta e individualizadas (ou seja, outros usuários do mesmo computador ou agentes externos não poderiam ver, “só” o usuário e a própria Microsoft), mas não negou que elas estavam sendo realizadas e enviadas.
Agora, um hacker na convenção de Segurança Digital Black Hat em Las Vegas alertou para outro perigo: A nova IA pode ou não fazer uma diferença para várias áreas de negócios, mas definitivamente será revolucionária – No ‘negócio’ das fraudes.
O pesquisador Michael Bargury demonstrou, na semana passada, cinco meios teóricos que um ator malicioso poderia usar do Copilot, incluindo usá-la para falsificar referências a arquivos, extrair dados pessoais, e burlar as proteções da Microsoft. A demonstração mais alarmante é o potencial da ferramenta que Bargury demonstrou de ser usado para Spearphishing.
Spearphishing é um tipo de golpe digital que envolve usar de manipulação (a galera da TI gosta de chamar isso de ‘Engenharia Social’, mas não se engane, é só um termo metido para a velha e boa malandragem) para extrair informações, senhas, e dinheiro de indivíduos. Ele difere do phishing tradicional pois ao invés de mandar mensagens genéricas para centenas de pessoas até alguma cair na fraude, é direcionada a indivíduos específicos, usando de informações específicas sobre estes indivíduos (obtidas de diversas formas) para tornar a manipulação mais eficaz e garantida.
O código demonstrado por Bargury, nomeado LOLCopilot pelo pesquisador, pode, uma vez que um hacker conseguiu acesso ao e-mail profissional de um indivíduo (por qualquer método que for, dos quais existem milhares), ele pode usar da IA para descobrir com quem este indivíduo se comunica com frequência, e gerar uma mensagem que emula com precisão a forma como esta pessoa escreve (incluindo detalhes minuciosos como uso de Emojis, gírias, e etc.), e enviar mensagens fraudulentas personalizadas, assim espalhando links maliciosos ou malware.
“Eu posso fazer isso com todo mundo que já tenha conversado com você, e posso mandar centenas de e-mails no seu nome” disse Bargury, co-fundador e CTO da empresa de segurança Zenity, que publicou os resultados da pesquisa bem como um vídeo demonstrando a potencialidade da ferramenta no mundo das fraudes. “Onde antes um malandro teria que passar dias bolando o e-mail certo para pegar alguém, agora ele pode gerar centenas em alguns minutos”
A demonstração, junto com outros ataques demonstrados por Bargury, funciona usando o modelo de linguagem (LLM, termo técnico para este tipo de programa) da forma como este foi projetado para funcionar: Escrevendo perguntas, que buscam informações no banco de dados da IA. Os resultados maliciosos são produzidos usando instruções adicionais. A pesquisa demonstra os desafios de conectar sistemas de IA a dados corporativos, e o que pode acontecer quando dados “não-confiáveis” entram na mistura – Especialmente com a IA respondendo com o que parecem ser resultados legítimos.
Outras demonstrações de Bargury mostraram a IA sendo usada para conseguir dados sensíveis, como informação sobre transações financeiras. Ou ainda uma técnica que usa de um e-mail malicioso para “envenenar” a base de dados da IA e extrair dados bancários da vítima. “Toda vez que você dá a uma IA acesso a uma peça de dados, você está abrindo uma porta de entrada para um hacker” advertiu Bargury
Em efeito, Bargury transforma a Inteligência Artificial em um ‘espião corporativo’, com acesso aos dados que os funcionários de uma organização teriam, e a capacidade de usá-los para o mal ou vazá-los.
Enquanto a empresa está tão confiante em seu novo brinquedo robótico que já declarou que será ‘impossível’ remover por completo a IA do sistema Windows 11 – quem está por fora, sejam estes indivíduos ou organizações, não estão tão animados: O congresso nacional dos EUA proibiu todos os seus funcionários de fazerem uso da ferramenta. E o Governo Federal da Alemanha lavou as mãos dos serviços da Microsoft por completo, anunciando que migraria para sistemas baseados em Linux e LibreOffice para garantir sua “soberania digital”.
Escrito por Vitor Germano para o Maringá Post
Me mande suas perguntas tecnológicas no e-mail [email protected]
Comentários estão fechados.