Na maioria das vezes, teorias da conspiração tornam-se tão rebuscadas que são ridículas e difíceis de refutar totalmente crentes obstinados. Mas o teoria da internet morta é uma conspiração que pode ter mais força do que outras graças ao surgimento de inteligência artificial Chatbots e agentes (IA).
Essa teoria surgiu pela primeira vez no fórum Macintosh Cafe da Agora Road em 2021, quando um usuário chamado “IlluminatiPirate” iniciou um tópico chamado “Teoria da Internet Morta: A Maior Parte da Internet É Falsa”. Citando postagens de grandes fóruns de discussão online, como o 4Chan, a teoria postula que bots não humanos são responsáveis pela maior parte das atividades online e da criação de conteúdo.
O que a teoria da internet morta propõe?
Em um nível superior, o conceito é que os bots criam coisas de forma automática e rápida, como postagens de mídia social que são ajustadas algoritmicamente para engajamento — efetivamente cultivando cliques, comentários e curtidas em plataformas como Facebook e TikTok. Isso ocorre porque mais interações e engajamento podem levar a mais receita de publicidade.
Mas abaixo da superfície está a noção mais insidiosa de que as contas que se envolvem com tal conteúdo também são bots e agentes de IA — o que significa que toda essa atividade está acontecendo apenas entre máquinas, sem interação humana. Uma camada ainda mais profunda da teoria sugere que organizações governamentais estão até mesmo usando bots para manipular opiniões humanas.
Isso criou a ideia de uma “internet morta”, com a morte supostamente tendo ocorrido por volta de 2016 ou 2017. Todo esse teorema ganhou mais força em um artigo intitulado “Talvez você tenha perdido, mas a Internet ‘morreu’ há cinco anos” em O Atlântico.
Quanta verdade há na teoria da internet morta?
É difícil precisar quanto da web é povoado por máquinas — com vários estudos sugerindo informações contraditórias. Uma pesquisa da empresa de segurança cibernética Imperva descobriu que os bots são responsáveis por cerca de metade de todo o tráfego da Internet. Esse tráfego tende a ser proveniente de bots usados para gerar receita de publicidade falsa; O YouTube, entre outros sites, caiu em desgraça com issocom bots usados para aumentar artificialmente o engajamento.
Outro estudo de pré-impressão publicado pela AWS em 5 de junho de 2024 relatou que 57,1% de todas as frases na web são traduções geradas por máquina. Quanto a quantos sites foram encontrados hospedando conteúdo gerado por IA, isso é de 13,1% — de acordo com um estudo em andamento pela Originality.ai.
A prevalência de bots e outras ferramentas como tradutores online é um fenômeno conhecido há anos — mas isso não significa necessariamente que a internet esteja “morta”. Da mesma forma, embora a IA generativa — de grandes modelos de linguagem como ChatGPT e Google Gêmeos para ferramentas dedicadas de criação de imagens — pode automatizar a criação de conteúdo, sem dúvida não é avançado o suficiente para passar pelo escrutínio humano. O conteúdo gerado por IA geralmente contém desinformação como “adicione cola ao molho de pizza,” ou está cheio de erros gramaticais e ortográficos que alertarão os humanos sobre sua natureza criada por IA.
Mas há espaço para preocupação graças à rápida evolução desta tecnologia. À medida que a IA evolui para criar agentes que podem agir independentemente de instruções humanas específicas, é possível prever tais agentes interagindo entre si e favorecendo o conteúdo feito pela IA e informações estruturadas em detrimento daquelas criadas por humanos. Isso pode levar a uma situação em que o conteúdo da internet é adaptado para atrair agentes de IA em vez de outros humanos, em uma tentativa de comercializar produtos e cultivar o engajamento. Já vimos os sinais desta nova economia após a primeira transação de criptomoeda entre agentes de IA — sem envolvimento humano.
No entanto, onde isso pode acabar é especulativo por enquanto. Uma preocupação mais profunda é o uso de IA por humanos para gerar rapidamente conteúdo de baixa qualidade para alimentar plataformas e mecanismos de busca famintos por conteúdo. Dado a falta de sutileza em muitos modelos de IA generativose sua incapacidade de compreender as nuances humanas, recorrer à IA para criar conteúdo pode promover uma internet inundada de informações de baixa qualidade, artigos, arte e muito mais, tudo projetado para “engajamento” e pouco mais.
A internet é um cemitério? Longe disso
O que pode parecer uma teoria perturbadora atualmente não tem evidências convincentes para apoiá-la. A natureza do compartilhamento de conteúdo e coisas que se tornam “virais” significa que as mesmas postagens podem continuar ressurgindo; pode-se dizer o mesmo sobre músicas popularizadas há uma década ainda aparecendo em anúncios, apesar dos músicos estarem longe do zeitgeist.
Da mesma forma, a natureza um tanto insípida da otimização de mecanismos de busca (SEO) está obrigando os humanos a criar conteúdo de uma forma tão metódica que pode parecer que um robô o criou. A triste verdade? Pode ser apenas um jovem escritor tentando atingir uma cota ou atingir certas frases-chave, inserindo uma série de links e seguindo inúmeros outros processos e procedimentos que os gostos do Google Search favorecem a qualquer momento.
Relacionado: Modelos de IA treinados em ‘dados sintéticos’ podem quebrar e regurgitar absurdos ininteligíveis, alertam cientistas
Isso não significa que a maioria da internet agora esteja infestada de bots. Este artigo em particular está otimizado até certo ponto. A editora da Live Science, Future Publishing, também tem uma divisão dedicada estabelecida para dar suporte às páginas da web de suas publicações para que tenham uma classificação mais alta nos mecanismos de busca.
No entanto, onde parte disso poderia ser automatizado, o Google — com seu mecanismo de busca líder — tem sido dogmático sobre penalizar artigos que tentam burlar seu algoritmo de Busca. Além disso, com publicações que fornecem artigos oferecendo conselhos, especialmente conselhos de compra, o Google persegue conteúdo que prova que um humano usou um serviço ou produto recomendado. Isso pode variar de citar exemplos da vida real, digamos, da duração da bateria de um telefone, a ter fotos originais que mostram um dispositivo em uso. Portanto, a orientação atual de SEO está efetivamente pressionando por mais conteúdo feito por humanos e centrado em humanos.
Quando se trata de plataformas de mídia social — incluindo X, Facebook, TikTok e Instagram — as águas em torno da teoria da internet morta ficam turvas. Embora não haja dúvidas de que milhões de pessoas usam essas plataformas — a capacidade de configurar bots para postar com base em palavras-chave dá força à ideia de que a internet está repleta de agentes inteligentes em vez de humanos.
Graças à IA generativa, muitos modelos e influenciadores do Instagram gerados por IA agora espreitam online renderizações aparentemente perfeitas de pessoas, muitas vezes, seminuas.
É claro que a ascensão de influenciadores e estrelas das mídias sociais e a infinidade de filtros — além da ideia de que a vida de uma pessoa não é representada com precisão nas mídias sociais — já dão um toque de falsidade à participação online.
Apesar da evolução das mídias sociais para parecer uma ferramenta de propaganda às vezes, elas ainda exercem uma enorme influência sobre milhões. As revoltas da Primavera Árabe de 2011 foram parcialmente creditado a um movimento construído no Facebook. Mais recentemente, os motins liderados por activistas de direita no Reino Unido eclodiram a partir de desinformação espalhada nas redes sociais.
Com isso em mente, há potencial para agentes de IA promoverem informações falsas e interagirem entre si para aumentar o engajamento, atiçando assim futuras chamas. Um estudo histórico publicado em Natureza descobriu que, de 14 milhões de mensagens espalhando 400.000 artigos no Twitter (agora conhecido como X) em 10 meses ao longo de 2016 e 2017, “bots sociais” desempenharam um papel desproporcional na disseminação de artigos de “fontes de baixa credibilidade”. Isso levou à amplificação do conteúdo — o que chamaríamos de “viralização”.
Isto deixa espaço para preocupação. Dado que o Instituto Reuters para o Estudo do Jornalismo Relatório de Notícias Digitais 2024 descobriu que as mídias sociais eram uma fonte de notícias para 48% dos americanos, mas ainda há um grande número de pessoas que são alvos fáceis de influência por desinformação propagada por bots.
A teoria da Internet morta não significa que todas as suas interações online sejam com bots, escreveram pesquisadores de IA Jake Renzella e Vlada Rozova em um postagem de blog para a University of New South Wales, Sydney. Mas é um lembrete de que se deve ser cético em relação às interações públicas nas mídias sociais. Além disso, a ideia de que a internet compreende conteúdo feito por humanos consumido por outros humanos é uma suposição que não podemos mais fazer.
Humanos e robôs navegando juntos na web
A busca do SEO para capturar a atenção humana já levou a artigos um tanto semelhantes que turvaram os resultados de busca — alguns mais úteis do que outros. Isso também serviu de inspiração para um artigo humorístico e satírico sobre o “melhor impressora 2024“.
Alguém poderia até argumentar que este artigo em si está alimentando o problema ao reagir ao interesse em uma teoria da conspiração em desenvolvimento, embora a Live Science tenha se esforçado para trazer pesquisa e percepção sobre o tópico — e a perspectiva de um ser humano. Com isso em mente, a IA pode ser o próximo passo, levando a uma internet que parece morta devido à falta de conteúdo notavelmente original e artigos que carecem de um toque humano — seja um ponto de vista, experiência ou simplesmente humor seco.
Um vislumbre de esperança aqui é que Google e outros gigantes online têm tomado medidas para restringir o uso de bots, ou assim eles dizem. Tais medidas são em grande parte devido aos anunciantes se tornarem mais experientes em relação ao que constitui visualizações humanas reais versus visualizações geradas por bots. E como alguém com uma carreira em jornalismo e publicação online — estou profundamente ciente da preferência do Google por artigos feitos por humanos que exibam perícia, autoridade e confiança. Acrescente-se a isso que a Meta, empresa-mãe do Facebook, é usando IA para ajudar a detectar desinformação em vez de espalhá-lo; há um argumento de que Ironicamente, os algoritmos de notícias do Facebook alimentam esse fogoum exemplo é como a plataforma foi usada para incitar o genocídio em Mianmar com algoritmos que aceleraram a disseminação de conteúdo anti-rohingya não moderado e prejudicial, de acordo com Anistia.
Mais pessoas também estão se juntando a comunidades online privadas e sites que buscam financiamento por meio de assinaturas e filiação em troca de conteúdo selecionado especificamente para elas — em vez de depender de apelar para mecanismos de busca muitas vezes inescrutáveis. Plataformas online privadas como Discord e WhatsApp também agem como comunidades onde os dados não podem ser cultivados e os bots que buscam engajamento ainda não se infiltraram.
Então, não, a internet não está morta. Pelo menos ainda não. Mas temos que aceitar que humanos compartilham espaços online com uma proporção crescente de bots e agentes de IA. À medida que as informações se espalham mais rápido do que nunca em plataformas digitais, é aconselhável cautela: nunca presuma que é realmente um humano com quem você está interagindo do outro lado da tela.