Por Alexandre Winetzki, Diretor de P&D do Grupo Stefanini e CEO da Woopi
Um grande amigo que trabalha há mais de uma década com Inteligência Artificial, assim como eu, disse que havia descoberto o sistema mais fácil de hackear do mundo. Curioso, lógico perguntei qual era. Para minha surpresa, a resposta foi o cérebro humano. E isso aconteceu antes da militância política nas redes sociais, antes que o Twitter e o Instagram pautassem a mídia, antes das patrulhas digitais. Essas se tornaram tão agressivas que preciso escrever minha série de artigos técnicos com muito cuidado para não ser acusado de esquerda, direita, leste, oeste, ou alguma caixinha dessas que não fazem mais sentido, mas que passaram a ser onipresentes no mundo ocidental.
Essa série é sobre o ChatGPT e prometi explicar como ele vai mudar a sociedade. E ele vai e muito, mas antes preciso falar um pouco de outro tema: a Psicologia. O único psicólogo a ganhar um Prêmio Nobel de Economia chama-se Daniel Kahneman. Se ainda não o leu, vale a pena. Ele ganhou o Nobel por explicar como o comportamento humano afeta a economia, partindo de tomadas de decisões simples como, por exemplo, se uma criança de 6 anos prefere ganhar um biscoito agora, já, ou esperar 30 minutos e ganhar dois biscoitos.
Mas a tese mais importante de Kahneman para mim é que o ser humano se engana sobre ser racional, ou para ser mais preciso, sobre o fato de avaliar fatores e circunstâncias antes de decidir. Para Kahneman, o que ocorre é o contrário. Nós decidimos com base em características comportamentais e opiniões profundamente estabelecidas em cada um. No fundo, usamos nosso intelecto para fundamentar a decisão que já tomamos.
Os algoritmos de Deep Learning, que atuam na construção das redes sociais, descobriram isso, não por estudar Kahneman, mas por tentativa e erro. Descobriram que se forneço a um grupo que tem preferências particulares, seja por gatos, dietas, horóscopos ou posições políticas, conteúdos continuados sobre esses assuntos, e mais, se coloco essas pessoas em contato com outras que têm as mesmas preferências, elas se tornam mais participativas.
E se isso acontece, os usuários passam mais tempo na plataforma, que vende mais anúncios e todos ficam mais felizes. Certo? Errado, pois ninguém contava com o fato de que, ao criar grupos cada vez mais segmentados, infinitamente retroalimentados por mais do mesmo, em múltiplos formatos de mídia, elimina-se a possibilidade de diálogo, de respeito a opiniões distintas, afinal “todos que eu conheço pensam como eu”.
Depois desse rápido desvio, quero explicar melhor o que as tecnologias de IA generativa podem fazer. Se no mundo atual as conflagrações entre ideias divergentes se tornaram norma, estamos prestes a munir maus atores, propensos a manipulações de toda sorte, com um poder muito mais alto de destruição do bom-senso. E quais são essas “armas”?
Vamos a algumas delas:
Dall-e e Stable Difusion - São capazes de criar arte, incluindo vídeos e filmes, com nível profissional, em segundos.
ChatGPT e Large Language Models - Podem criar centenas de artigos, notas, posts para Twitter, Instagram e outras redes sociais, dizendo, por exemplo, que goiabada com queijo Minas causa câncer. Os argumentos serão falsos, mas absolutamente críveis e bem embasados, inclusive com citações de estudos que não existem.
Vall-e - Acho até meio chocante. Depois de ouvir 3 segundos de áudio de um indivíduo, o sistema é capaz de reproduzir com precisão a voz dessa pessoa. Isto é, alguém pode mandar para a sua cara-metade um áudio seu confessando uma traição exatamente com sua voz.
E a lista segue com ferramentas que devem aumentar muito a produtividade de empresas e organizações, mas sobre as quais não há nem sombra de regulação num mundo tenso, no qual fica cada vez mais fácil produzir material duvidoso, mas de alta qualidade, sem qualquer controle ou responsabilidade.
Se há dez anos o que definia a credibilidade de uma empresa de mídia era a qualidade de sua produção, a independência e flexibilidade para discutir diferentes pontos de vista, neste momento estranho do mundo a primeira coisa que se faz é tentar minar a credibilidade dessas mesmas empresas de mídia, chamando-as disso ou daquilo, para que o acesso à informação de cada grupo de interesse fique restrito à autoprodução, com resultados nefastos para o tecido social.
Onde vamos chegar? Não tenho a resposta, mas o que me preocupa profundamente é a ausência completa de debate, principalmente porque essas tecnologias não são um projeto futuro, elas já existem e se tornarão mais acessíveis, a cada dia.
Via: DFreire