Há alguns
anos, surgiu uma teoria da conspiração chamada "Dead Internet
theory", afirmando que não existiria mais conteúdo e interações humanas na
internet e que
quase a totalidade do tráfego da
rede teria origem em sistemas de IA e bots
para manipular a opinião pública e modular o
comportamento dos usuários. É como se todos os textos, imagens e vídeos que
consumíssemos online fossem criados por robôs. E os propagadores desta teoria
colocaram até uma data para a morte da internet: 2016.
Antes de mais
nada, é importante fazer uma correção entre os conceitos. Apesar de usarmos as
palavras internet e web como sinônimos, elas não significam as mesmas coisas. A
internet está mais relacionada com a parte de infraestrutura da rede, enquanto
a web é a camada de aplicações na qual o usuário interage, posta e consome
conteúdo. A internet está funcionando muito bem, mas, a web, de fato, começa a
sofrer influência direta dos algoritmos, seja na criação ou na distribuição de
conteúdos a partir de sistemas de recomendação.
É claro que a
"Dead Internet Theory", ou se quisermos ser mais precisos, "Dead
Web Theory", continua sendo uma teoria da conspiração. No entanto, é
inegável que estamos vendo um aumento constante de conteúdos sintéticos gerados
por robôs que são postados online. A web como a conhecemos pode não estar
morta, mas está se transformando. E essa transformação desafia o nosso entendimento
do que ela representa e suas consequências para a humanidade e as próprias
máquinas.
Em maio deste
ano, a NewsGuard, uma ferramenta que avalia a credibilidade de sites de
notícias, identificou 49 portais que publicam matérias e artigos escritos
totalmente por IA. Em três meses, o número disparou. No
último relatório
, publicado na segunda-feira (7), já
eram 408 sites identificados. E essa tendência se espalhou pelo mundo todo,
porque agora são portais online nos mais diferentes idiomas, inclusive em
português.
Essa
mudança não se restringe apenas à produção de textos e imagens, mas muda o
próprio paradigma da interação online. Já tem influenciadores que começaram a
automatizar a sua presença nas redes sociais utilizando IA para criar avatares
digitais que conversam e interagem com o público. Este é o caso de Caryn Marjorie, uma digital influencer que começou
a cobrar US$ 1 por minuto para que fãs pudessem ter um date com um chatbot que
era seu "clone".Da mesma forma
que tem gente de carne e osso criando seus "clones" digitais, a
tecnologia abre espaço para que sejam criados influenciadores 100% baseados em
IA. A pessoa não existe, não tem uma contrapartida na realidade física, e tudo
- sua fisionomia, personalidade e interações - é construído por algoritmos. Milla Sofia é um exemplo. O perfil da influenciadora explora
fotos e vídeos sensuais nos lugares mais paradisíacos do mundo para atrair a
atenção de milhares de seguidores nas redes sociais. Tudo falso. Tudo criado
por IA. Desde o começo
do ano, uma pergunta fica me martelando: quais serão as consequências desse
tanto de interações e conteúdos sintéticos impulsionados pelo avanço da IA? Ainda estamos
na infância da era da IA generativa, então fica difícil entender tudo o que
pode acontecer. Para nós, humanos, o problema é navegarmos por conteúdos cuja
origem não sabemos e que podem nos manipular. E isso pode acontecer de
diferentes formas: - A IA pode ser utilizada por pessoas
mal-intencionadas para produzir conteúdos falsos e mentirosos,
- também existe o risco de baseamos nossas
decisões e aprendizados em conteúdos imprecisos produzidos por uma máquina
que pode errar.
Sim. A máquina pode errar, apesar de muitas vezes
esquecermos disso. E isso tem consequências não somente para as pessoas, mas
para a própria IA. Atualmente, utilizamos a 1ª geração de IA
generativas, treinadas com conteúdos criados por humanos, de textos e imagens a
vídeos. No entanto, essas mesmas máquinas começam a produzir conteúdos que
serão a base para treinar futuras gerações. Com isso, incoerências, erros,
vieses e estilos próprios da máquina têm potencial de serem perpetuados ao
longo do tempo, eclipsando o conhecimento humano e fazendo com que a máquina
perca o já pouco referencial da realidade que ela tem. Estão surgindo vários estudos mostrando que não é
uma boa ideia alimentar a IA exclusivamente com materiais criados por IA. Um artigo publicado por pesquisadores de Oxford,
Cambridge e Universidade de Toronto deixou evidente que treinar modelos com conteúdos produzidos por IA
causa defeitos irreversíveis para o sistema, inclusive fazendo com que o
conhecimento original, aquele criado pelo humano, desapareça da IA. Em um outro estudo, desta vez
com foco em IA generativa de imagens, pesquisadores das universidade de
Stanford e Rice (EUA) mostraram que com poucas interações de treinamento com
conteúdos criados pela IA, os modelos perdem a qualidade e o seu funcionamento
decai. Os autores chamaram essa condição de Modelo de Transtorno de Autofagia
(MAD), fazendo uma analogia com a doença da vaca louca (Mad Cow Disease, em
inglês). Este é um loop perigoso em que máquinas se retroalimentam com
conteúdos probabilísticos sem uma ancoragem na realidade. Por isso, uma das prioridades das grandes
empresas de tecnologias, conforme acordo firmado com a Casa Branca, é aprimorar
técnicas para detectar conteúdos gerados por sistemas inteligentes. Essa é uma
questão que também inquieta a comunidade científica mundial. A identificação de
conteúdos produzidos por IA não só é crucial para que o ser humano não se torne
mero espectador de uma narrativa moldada por máquinas, como também é vital para
prevenir o potencial colapso da própria IA. Professor
na PUC-SP e Pesquisador no NIC.br. Doutor em Tecnologias da Inteligência e
Design Digital pela PUC-SP, com PhD fellowship pela Université Paris I -
Sorbonne. MBA em Economia Internacional pela USP e Especialista em
Neurociência. Foi pesquisador visitante no laboratório de Ciência Cognitiva da
Queen Mary University of London. Tem pesquisas na intersecção entre ciência
cognitiva, design e tecnologia. Fonte:
https://www.uol.com.br/tilt/analises/ultimas-noticias/2023/08/10/de-loira-falsa-a-clone-digital-como-ia-revive-teoria-da-internet-morta.htm |