Vídeos manipulados, áudios falsos e imagens hiper-realistas circulam com cada vez mais intensidade nas redes sociais. Em muitos casos, o nível de sofisticação é tão elevado que até usuários mais atentos encontram dificuldade para identificar se um conteúdo é real ou produzido por inteligência artificial. Não por acaso, já se tornaram comuns vídeos que viralizam justamente com a pergunta: “isso é real ou foi feito por IA?”. A alta taxa de erros nessas tentativas revela a complexidade e a gravidade do problema.
Esse cenário se torna ainda mais sensível em anos eleitorais. A combinação entre Tecnologia avançada, rapidez na disseminação e um ambiente político polarizado cria um terreno fértil para a desinformação. Conteúdos manipulados passam a ser utilizados para distorcer falas, criar situações que nunca aconteceram ou reforçar narrativas enganosas, influenciando a percepção do eleitor antes que qualquer checagem seja realizada.
O risco vai além de acreditar em uma informação falsa isolada. A escala e a repetição ampliam o impacto. Diferentemente das fake news tradicionais, conteúdos gerados ou alterados por IA conseguem parecer plausíveis, emocionais e verossímeis, reduzindo a desconfiança inicial. Em pouco tempo, vídeos e áudios falsos podem alcançar milhares ou até milhões de pessoas, moldando opiniões e gerando ruído no debate público.
Segundo Wesley Araújo, líder de inteligência artificial na BlueShift Brasil, referência em soluções tecnológicas para negócios, a desinformação impulsionada por IA raramente se apresenta como uma mentira evidente. “Em períodos eleitorais, esse tipo de material pode interferir na formação de opinião antes mesmo que haja tempo para checagem ou contestação. Por isso, desenvolver senso crítico e compreender como a IA é usada na criação desses conteúdos se torna tão importante quanto acompanhar o debate político”, afirma.
Em um ano de eleição, esse tipo de prática afeta diretamente a qualidade da informação que chega ao eleitor. Quando conteúdos falsos circulam mais rápido do que os esclarecimentos, o impacto já está consolidado. Entender como identificar sinais de manipulação passa a ser uma habilidade essencial para o consumo responsável de informação.
Apesar do avanço acelerado da tecnologia, alguns padrões ainda ajudam a acender alertas. Especialistas recomendam desconfiar do contexto antes mesmo da aparência do conteúdo, verificando quem publicou, onde surgiu primeiro e se há data, local e fonte claramente identificados. Também é importante observar se a informação existe apenas nas redes sociais, sem repercussão em veículos jornalísticos ou fontes confiáveis.
Outros indícios podem estar nos detalhes visuais e sonoros. Expressões faciais pouco naturais, movimentos rígidos ou desalinhados com a fala, além de texturas de pele excessivamente lisas, borradas ou com brilhos incomuns, podem indicar uso de inteligência artificial. O uso de ferramentas de fact-checking também é recomendado para confirmar ou refutar a autenticidade de vídeos, imagens e áudios.
Embora a própria tecnologia possa ajudar a combater a desinformação, especialistas reforçam que nenhuma solução substitui o olhar crítico do cidadão. Em um cenário eleitoral marcado pelo excesso de informação, saber questionar, contextualizar e verificar se torna tão importante quanto acompanhar propostas e debates.
“A democracia depende diretamente da qualidade da informação que circula. Em tempos de inteligência artificial, isso exige mais atenção, mais educação midiática e mais responsabilidade coletiva”, conclui Wesley Araújo.


















