Tempo estimado de leitura: 4 minutos
*Por Daniel Godoy
Não é novidade que a inteligência artificial tem ganhado cada vez mais terreno e atraído investimentos significativos que antes estavam destinados ao metaverso. No entanto, essa corrida pelo desenvolvimento de novas funcionalidades e produtos, frequentemente ocasiona negligência em um aspecto crucial: a segurança dos dados.
Um dos principais problemas ao utilizar IA de forma indiscriminada é o vazamento de dados sensíveis. Tivemos alguns exemplos recentes como o caso do próprio ChatGPT que vazou em 2023 mais de 101,1 mil acessos na dark web, revelando nomes de usuários e senhas dos adeptos da tecnologia de inteligência artificial. O Brasil é o terceiro país do mundo mais atingido pelo vazamento de dados.
A Índia é o país mais afetado, com 12,6 mil contas, seguida pelo Paquistão, com 9,2 mil. Em seguida, o Brasil aparece com 6,5 mil conjuntos de nomes de usuários e senhas vazados na dark web. O Vietnã, com 4,7 mil, e o Egito, com 4,5 mil, completam o ranking.
Isso mostra que muitas empresas estão tão focadas em implementar a tecnologia e aproveitar seus benefícios, que acabam se descuidando da segurança. Esses vazamentos podem trazer consequências desastrosas, desde danos à reputação da companhia até processos judiciais e multas pesadas. Além disso, a perda de informações confidenciais pode beneficiar concorrentes e prejudicar seriamente o negócio.
Hoje em dia, é possível inserir planilhas em plataformas de IA, além de solicitar a criação de projeções, planos de carreira e até mesmo ajustes nos dados. Contudo, muitos profissionais não se atentam aos perigos oferecidos ao utilizar a tecnologia de forma indiscriminada.
Outra preocupação é que muitas corporações têm gastado grande parte da verba com recursos e marketing da IA, sem atentar-se se essas soluções são realmente seguras, já que as plataformas que fornecem esse tipo de tecnologia para diferentes empresas costumam não investir o suficiente em privacidade.
Neste caso, é essencial que as plataformas de Inteligência Artificial equilibrem totalmente a verba disponível, destinando uma parte significativa para a segurança dos dados.
Ao decidir subir dados sensíveis para uma plataforma de inteligência artificial, é crucial verificar se o servidor está localizado em um país que cumpre com a LGPD (Lei Geral de Proteção de Dados) e a GDPR (Regulamento Geral sobre a Proteção de Dados), assim, em caso de vazamentos de dados, será possível responsabilizar a empresa que cometeu tal infração, que pode ser multada em até 2% de seu faturamento.
Com isso, não se trata de ir contra o uso da inteligência artificial, mas sim de adotar uma abordagem mais equilibrada e responsável. É válido reconhecer os benefícios que a tecnologia pode trazer, mas também manter-se ciente dos riscos, além de tomar as medidas necessárias para não sofrer com consequências desagradáveis.
Por fim, acredito que a IA ainda será utilizada por vários outros setores, mas reforço aqui a importância de entender quais são os riscos existentes. É essencial ter a ciência dos impactos que seu negócio poderá sofrer se alguma informação sensível ou estratégica vazar, mesmo tendo o respaldo da LGPD. Por isso, é fundamental escolher provedores que cumpram com as regulamentações de proteção e que ofereçam soluções para proteger todos os dados. Fiquem atentos!
*Daniel Godoy é CEO e fundador do Apponte.me, startup especializada em relógio de ponto digital, projetado para modernizar e facilitar a marcação de ponto e gestão nas empresas. Atua na área da inovação corporativa há 10 anos, na qual fundou uma das maiores startups de RH do país, especialista em Vendas B2B e Marketing Digital.
Comentários estão fechados.