“Colapso de Modelos” – A teoria da internet fantasma, e a autodestruição da Inteligência Artificial

Uma pesquisa científica indica que quando IAs são treinadas com a saída de outras IAs o resultado é um desastre — E isso pode acontecer não-intencionalmente.

  • Ontem, a Google anunciou que o serviço de pesquisa de imagens deles iria automaticamente marcar se uma imagem é gerada por IA, editada por software, ou capturada por uma câmera. A decisão segue preocupações de que a tecnologia poderia ser usada para desinformação e fake news. Mas pesquisas científicas recentes indicam que talvez essa preocupação seja uma tempestade em copo d’água. Talvez.

    A razão para isso é o que pesquisadores denominaram o “colapso de modelos”. Mas explicar o problema requer voltarmos atrás um pouquinho.

    Dados de treinamento, propriedade intelectual

    Uma das grandes controvérsias dessa nova geração de IA é exatamente a forma como ela “aprende”, envolvendo navegar as profundezas da web, copiando terabytes e mais terabytes de conteúdo disponível na internet, e usando deste conteúdo para reconhecer padrões que podem então ser reproduzidos. Para muitos, isso é uma violação dos direitos dos criadores, uma forma automatizada de plágio.

    Independente de onde você, ou eu, ou qualquer outra pessoa se posiciona nesse aspecto da discussão, o fato é que para aqueles que estão trabalhando em desenvolver tecnologia de IA, a preocupação é que barreiras jurídicas limitem a disponibilidade de material de treino para seus modelos de inteligência artificial. Dessa preocupação partiu a ideia de “treinamento sintético” – E se fosse possível treinar uma nova geração de IAs com a saída da geração atual de IAs? Dessa forma não haveriam preocupações éticas ou jurídicas com os direitos autorais dos dados de treinamento, afinal, os dados sendo usados para melhorar a próxima geração viriam da geração anterior, ambas pertencentes aos mesmos pesquisadores.

    Mas coisas não são tão simples. Quem já usou de geradores de imagem por Inteligência Artificial sabe que eles são menos que perfeitos. Há sempre meios de reconhecer uma imagem como sendo gerada artificialmente por conta de detalhes como dedos, cabelos, dentes, ou roupas. E mesmo quando a imagem gerada é boa o suficiente para enganar o olho humano, a verdade é que há micro-falhas – Errinhos a nível dos pixels individuais da imagem. O mesmo se aplica a textos gerados por IA: Até quando ele engana bem, há pequenos errinhos presentes.

    A questão é que inteligências artificiais são estocásticas por natureza: O algoritmo gera conexões aleatórias, confere o resultado, e então fortalece as conexões que levam a resultados positivos. Ou seja, digamos que temos uma IA capaz de gerar conteúdo que é 99,9% perfeito, capaz de convencer a todos de que é feito por pessoas. Aquele 0,1%, se usado para treinar a seguinte geração de IAs, age como um ‘veneno’, danificando a qualidade dos resultados na geração seguinte. Digamos que a mudança é de 0,1% para 0,2%. O efeito cumulativo ainda seria desastroso.

    Model Collapse Thumb
    Demonstração de Colapso de Modelos; Crédito: M. Boháček & H. Farid / arXiv

    E a realidade vai muito além das frações percentuais, a pesquisa indica que quatro gerações de auto-reprodução são suficientes para o resultado ser irreconhecível.

    Diluição não-intencional

    Mas se a atitude das empresas liderando o progresso de Inteligências Artificiais é indicativa de alguma coisa, é que eles não realmente ligam para o aspecto ético, e pretendem lutar para impedir que barreiras jurídicas apareçam. Para eles, idealmente, seus algoritmos deveriam ter carta branca para absorver qualquer conteúdo disponível na web sem qualquer limitação.

    Acontece que mesmo que isso aconteça, o algoritmo vai acabar ingerindo muito conteúdo gerado por IAs (inclusive por ele próprio): Gerar imagens e textos por IA é rápido, fácil, requer pouquíssimo esforço, e é relativamente barato. Como resultado, em pouco menos de um ano, a internet já está lotada de conteúdo gerado por inteligências artificiais, e há pessoas que temem que a internet venha a ser uma cidade fantasma, habitada principalmente por pessoas artificiais, máquinas que criam postagens fingindo serem pessoas. Uma teoria conspiratória que percorre a web desde meados de 2010, mas que ganhou popularidade desde que IAs como GPT e DALL.E foram abertas ao público.

    Juntando essas duas informações, uma possibilidade aparece: A possibilidade de que a proliferação de “robôs” na internet acabe sendo a morte destes mesmos robôs. A possibilidade de que IAs causem a própria erosão.

    Em tradições místicas como o ocultismo e a alquimia, o símbolo do Ouroboros, uma serpente (ou às vezes um dragão) engolindo a própria cauda, é usada para representar um ciclo infinito que perpetua a si mesmo. Seja este o ciclo da vida na natureza, o ciclo de reencarnações em tantas religiões, ou mesmo o ciclo de violência na sociedade. É possível que estejamos presenciando o nascimento de um novo ouroboros eletrônico, um ciclo onde Inteligências Artificiais crescem e se desenvolvem, apenas para as mesmas IAs causarem erosão em suas próprias capacidades, até darem uma sumida e retornarem. Talvez. Se acontecer, seria interessante.

    Ou talvez, só talvez, pode ser que a verdadeira razão pela qual a Google está tão preocupada em indicar quando seus resultados de pesquisa são gerados por IA seja para dificultar tal colapso de modelos, garantindo que sua própria IA irá ingerir apenas conteúdo gerado por humanos.

    Escrito por Vitor Germano para o Maringá Post
    Sugestões? Críticas? Perguntas? Fale comigo no e-mail [email protected]

    Comentários estão fechados.