Vivemos uma era em que a guerra não se limita ao campo físico. Ela é travada também na mente — e na tela. A propaganda, velha conhecida dos conflitos, foi elevada a um novo patamar com o uso de inteligência artificial. Agora, cada narrativa, imagem ou vídeo que circula pode não ser apenas fruto do acaso ou de testemunhos espontâneos, mas parte de uma engenharia precisa, calculada, que opera com um objetivo claro: controlar a percepção.
O conflito entre Israel e Irã revelou isso de forma explícita. Assim que os ataques começaram, redes sociais foram inundadas por vídeos filmados a poucos metros de explosões, imagens chocantes, supostamente espontâneas, mas que carregam o traço da encenação ou da seleção intencional. A dúvida se impõe: quem grava explosões supersônicas em tempo real, como se estivesse à espera do momento exato? A resposta pode estar nos algoritmos — e na estratégia.
Os “dez mandamentos da propaganda de guerra”, formulados desde o século passado, hoje encontram suporte em sistemas automatizados. Plataformas como YouTube, TikTok, WhatsApp ou X distribuem, impulsionam e moldam conteúdos com base em padrões de engajamento. Mas esses padrões também podem ser manipulados. Um vídeo falso bem roteirizado, acompanhado de sons reais, ativado por IA generativa, pode viralizar em segundos, alimentando sentimentos específicos: medo, ódio, comoção.
Israel, segundo reportagens da 972 Magazine e do Local Call, já opera com sistemas como o Lavender e o The Gospel — programas de IA que classificam alvos militares e civis com base em metadados e comportamentos. O algoritmo define o inimigo, e um operador humano apenas confirma em segundos. Essa racionalização da violência, feita por softwares, revela a fusão entre propaganda e guerra técnica: quando o alvo é selecionado por IA e sua eliminação é convertida em conteúdo midiático, temos um novo modelo de guerra-espetáculo.
Mas o mais perturbador é que o mesmo processo começa a se infiltrar fora dos campos de batalha convencionais. No Brasil, por exemplo, facções criminosas já testam drones com explosivos — como ocorreu recentemente quando uma granada caiu numa praça. Não se trata apenas de imitação: é um sinal de que o know-how das guerras do Oriente Médio e da Europa Oriental está sendo importado e calibrado domesticamente. E junto com ele, a propaganda local: vídeos de execuções, confrontos armados e “mensagens” às facções rivais circulam como peças de guerra psicológica.
A IA não apenas seleciona alvos; ela também seleciona as emoções que queremos gerar. Sistemas capazes de interpretar rostos, padrões de fala e expressões emocionais são utilizados para calibrar a narrativa ideal, inclusive no tempo certo para viralização. Isso vale para guerras entre Estados e também para a política, onde modelos de linguagem preveem quais frases terão mais impacto, quais hashtags mobilizarão mais apoio e quais memes devem ser priorizados.
A propaganda de guerra deixou de ser um panfleto impresso ou um anúncio no rádio. Hoje, ela é o código-fonte de um vídeo que emociona, um drone que filma um ataque e, às vezes, executa. Ela é o filtro invisível que define o que você vê — e o que você não verá. E quanto mais dependemos das plataformas digitais para entender o mundo, mais vulneráveis nos tornamos à manipulação dos sensores, algoritmos e narrativas programadas para nos conduzir ao erro.
Neste contexto, a dúvida se torna mais perigosa do que a bala: quando não sabemos mais o que é verdade, não conseguimos mais reagir com clareza. E quando até a dúvida se torna uma ameaça — como diz o décimo mandamento da propaganda de guerra (“quem duvida é traidor”) —, então já não estamos mais apenas em guerra: estamos sob ocupação cognitiva.
Para mais detalhes sobre o tema, assista ao vídeo completo do programa no link.