Avaliações falsas geradas por IA podem custar até 15 milhões à sua loja online

Avaliações falsas geradas por IA: o problema de confiança que pode custar até 15 milhões à sua loja online

Por detrás do entusiasmo com a inteligência artificial generativa em e-commerce, está a crescer um problema silencioso: a perda de confiança nas avaliações de produto. Um conjunto de estudos publicados nas últimas semanas confirma o que muitos profissionais do setor já intuíam — 30% das avaliações exibidas em lojas online são falsas ou enganosas, e a IA generativa está a aumentar esta percentagem.

O que os dados mostram

23% dos consumidores reconhece ter usado IA generativa para escrever uma avaliação que publicou num site de retalho. Ao mesmo tempo, 64% afirma considerar inautêntica qualquer avaliação assistida por IA — mesmo quando o autor é um cliente real e a opinião é genuína. 82% dos consumidores diz deparar-se com avaliações falsas pelo menos uma vez por ano.

Estamos perante um paradoxo operacional. A tecnologia que reduz o esforço de escrever uma opinião é a tecnologia que está a contaminar todo o repositório de opiniões publicadas. O cliente lê, desconfia, e o efeito acumula-se sobre a marca — não apenas sobre a avaliação individual.

A regulação europeia entra em vigor a 2 de agosto

A questão deixou de ser apenas reputacional. A 2 de agosto de 2026 entra em vigor o artigo do Regulamento Europeu da Inteligência Artificial (AI Act) que obriga a identificar, de forma clara, conteúdo significativamente gerado por IA. A regra aplica-se a textos publicados em ambientes acessíveis ao público — incluindo descrições de produto, FAQs e avaliações exibidas em lojas online.

Há uma exceção importante: se o conteúdo gerado por IA passar por revisão humana documentada, e essa pessoa ou entidade assumir responsabilidade editorial, a obrigação de identificação cai. As sanções para o incumprimento podem chegar a 15 milhões de euros, ou 3% do volume de negócios anual global, consoante o valor mais elevado.

Porque é que isto importa para o gestor de e-commerce

Há três consequências práticas para quem gere catálogos online.

A primeira é o risco direto de coima. Cada descrição automatizada, cada resposta a uma avaliação publicada sem revisão, cada FAQ gerada sem supervisão pode constituir incumprimento.

A segunda é a quebra de confiança no catálogo. À medida que o consumidor associa “conteúdo gerado por IA” a “potencialmente falso”, as marcas que não conseguirem demonstrar autenticidade nas avaliações perdem terreno para concorrentes mais transparentes.

A terceira é o efeito sobre os agentes de IA que recomendam produtos a outros consumidores. Estes agentes leem as avaliações como sinal de confiança. Quando o sinal é suspeito, o produto é descartado da recomendação antes de ser sequer mostrado ao cliente final.

Três ações concretas a implementar antes de 2 de agosto

Para chegar a agosto sem exposição regulatória ou reputacional, recomendo três medidas concretas.

  1. Audite todas as avaliações publicadas nos últimos doze meses; remova as que mostrem padrões claros de geração automática — uniformidade de tom, ausência de erros tipográficos, vocabulário promocional repetido, descrição de atributos que o produto não tem.
  2. Documente o processo de revisão humana sempre que o conteúdo do catálogo for assistido por IA. A documentação — quem reviu, quando, com que critérios — é o que distingue um conteúdo conforme de um conteúdo sancionável.
  3. Publique, de forma visível, a política de avaliações da loja online: o que é aceite, o que é removido, como o cliente pode reportar suspeitas. A transparência é, em si, um sinal de confiança que o consumidor reconhece.

Lojas online que esperarem por agosto para começar este trabalho vão ter de o fazer sob pressão regulatória, com decisões mais conservadoras e menos espaço para escolhas estratégicas. Garanta que a sua equipa entra no segundo semestre de 2026 com a casa arrumada.