post_excerpt ) ) { $og_description = wp_strip_all_tags( $post->post_excerpt, true ); } else { $og_description = wp_trim_words( wp_strip_all_tags( $post->post_content, true ), 30 ); } $og_description = esc_attr( $og_description ); // --- IMPRESSÃO DAS TAGS --- echo '' . "\n"; echo '' . "\n"; echo '' . "\n"; echo '' . "\n"; if ( !empty( $og_image ) ) { echo '' . "\n"; } echo '' . "\n"; } } add_action( 'wp_head', 'add_manual_open_graph_tags' ); ?>
BRASILDESTAQUES

Conteúdos falsos com uso de IA crescem 308% no Brasil em um ano, aponta estudo

Panorama da Desinformação do Observatório Lupa mostra avanço de deepfakes e uso estratégico da tecnologia em disputas políticas

Freepik

A divulgação de conteúdos falsos criados com o uso de inteligência artificial (IA) mais do que triplicou no Brasil entre 2024 e 2025, registrando um crescimento de 308%. O dado consta no primeiro Panorama da Desinformação no Brasil, estudo inédito divulgado nesta quinta-feira (5) pelo Observatório Lupa.

O levantamento analisou, de forma qualitativa e quantitativa, 617 conteúdos verificados pela Agência Lupa ao longo de 2025, em comparação com 839 checagens realizadas em 2024. Segundo o estudo, peças de desinformação produzidas com IA — como deepfakes — passaram de 39 casos em 2024 para 159 em 2025, um aumento de 120 ocorrências. Proporcionalmente, o número saltou de 4,6% para 25% do total de verificações.

Deepfakes são tecnologias que permitem a manipulação de rostos e vozes em vídeos e áudios, criando conteúdos falsos com alto grau de realismo. De acordo com o Observatório Lupa, a edição inaugural do estudo, que terá periodicidade anual, aponta uma mudança estrutural no ecossistema da desinformação no país.

Em 2024, o uso da IA estava concentrado principalmente em golpes digitais, como vídeos falsos de celebridades promovendo plataformas fraudulentas. Já em 2025, a tecnologia passou a ser utilizada de forma mais estratégica como instrumento político. Quase 45% dos conteúdos com IA analisados apresentavam viés ideológico, ante 33% no ano anterior.

O estudo também identificou que mais de três quartos das peças falsas geradas com IA em 2025 exploraram a imagem ou a voz de pessoas conhecidas, sobretudo lideranças políticas. Entre os principais alvos estão o presidente Luiz Inácio Lula da Silva, citado em 36 ocorrências; o ex-presidente Jair Bolsonaro, com 33; e o ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes, alvo de 30 conteúdos falsos.

Outro dado relevante do panorama é a mudança nas plataformas usadas para a disseminação de desinformação. O WhatsApp, que concentrava quase 90% da difusão de fakes em 2024, caiu para 46% em 2025. Segundo o Observatório Lupa, a redução não indica diminuição do problema, mas uma maior dispersão dos conteúdos em diferentes redes sociais.

Além de Facebook, Instagram, Threads, WhatsApp e X, plataformas de vídeos curtos como Kwai e TikTok ganharam relevância na circulação de conteúdos falsos gerados com inteligência artificial.

Deixe um comentário