Quando a IA Errou — e os Clientes Foram os Primeiros a Saber
Três histórias reais de negócios que confiaram demais na IA — e pagaram um preço que ninguém esperava.
Já teve aquele momento em que contratou alguém para "tratar de tudo" — e só descobriu que algo correu mal quando um cliente se queixou?
Com a inteligência artificial acontece exatamente o mesmo. Não porque a tecnologia seja má. Mas porque a confiança cega em qualquer ferramenta, humana ou digital, costuma ter um preço.
Aqui estão três histórias reais — com nomes e detalhes alterados para proteger as empresas envolvidas. Não para assustar ninguém, mas para que possa aprender com o erro dos outros.
A Empresa Cujo Chatbot Vendeu ao Preço Errado
Uma empresa de serviços de limpeza em Lisboa instalou um chatbot no site para responder a clientes fora do horário de trabalho. A ideia era boa: menos chamadas, mais orçamentos automáticos, clientes atendidos às 23h.
O problema? O chatbot foi configurado uma vez — e ninguém o voltou a tocar. Passados oito meses, os preços subiram por causa da inflação. O site foi atualizado. O chatbot, não.
Durante semanas, clientes receberam orçamentos automáticos com os preços antigos. Quando chegou a fatura real, a confusão foi grande. Alguns acharam que estavam a ser enganados. Dois clientes cancelaram o contrato antes mesmo de o serviço começar.
A lição: Um chatbot não é um colaborador. Não lê os seus emails internos, não sabe que os preços mudaram, não "percebe" o contexto. Precisa de manutenção regular — tal como um carro.
A Loja Cujas Descrições Tinham Factos Errados
Uma loja de suplementos naturais decidiu usar IA para escrever as descrições de todos os produtos do site. Rápido, barato, eficiente. Em dois dias, tinham mais de 200 textos prontos.
O que ninguém verificou: a IA inventou benefícios. Não por mal, mas porque foi isso que aprendeu a fazer — soar convincente, mesmo quando não tem certeza.
Num dos produtos, a descrição afirmava que o ingrediente principal tinha sido "aprovado pela EFSA" (a autoridade europeia de segurança alimentar). Não tinha. Noutros casos, misturou nomes de ingredientes com propriedades de plantas completamente diferentes.
Quando um cliente com problemas de saúde contactou a loja com base nessa informação, a situação ficou séria. Além do risco para o cliente, havia um problema legal real: informação de saúde incorreta num produto regulado.
A lição: A IA gera texto com confiança. Não com precisão. Para qualquer conteúdo que envolva saúde, finanças, direito ou factos verificáveis, um humano tem de rever antes de publicar.
A Startup Que Lançou uma App com uma Porta Aberta
Esta é a que mais me preocupa — porque envolve segurança.
Uma pequena startup de tecnologia usou IA para escrever boa parte do código da sua aplicação. Isto chama-se "vibe coding" no mundo tech: dizer à IA "faz uma app que faz isto e aquilo" e ir colando o código que ela sugere, sem o entender completamente.
A app foi lançada. Funcionava bem. Os primeiros clientes adoraram.
Três meses depois, descobriram que qualquer pessoa com conhecimentos básicos conseguia aceder às contas de outros utilizadores. Bastava alterar um número no endereço da página. A vulnerabilidade — uma coisa chamada IDOR (insecure direct object reference), basicamente uma porta mal fechada — estava ali desde o primeiro dia.
Tiveram de encerrar a app, notificar os utilizadores e reconstruir partes inteiras do sistema. O custo foi muito maior do que teria sido contratar um programador de raiz.
A lição: A IA escreve código que parece funcionar. Mas "parece funcionar" e "é seguro" são coisas completamente diferentes. Código de produção — aquele que vai ao público — precisa de ser revisto por alguém que entenda o que está a fazer.
Então, Devo Evitar a IA?
Não. De todo.
A IA é uma ferramenta poderosa e, usada bem, pode poupar tempo, dinheiro e energia. Mas é uma ferramenta — como uma berbequim eléctrica. Nas mãos certas, faz maravilhas. Sem supervisão, pode fazer um buraco no sítio errado.
As três histórias acima têm algo em comum: a IA foi usada para substituir o julgamento humano em vez de o apoiar.
O chatbot substituiu a equipa de vendas. Os textos substituíram um redator. O código substituiu um programador. E em todos os casos, quando algo correu mal, não havia ninguém que soubesse onde estava o problema — porque ninguém tinha percebido verdadeiramente o que foi criado.
A boa notícia? Com um pouco de supervisão, todos estes problemas eram evitáveis.
O Que Fazer de Forma Diferente
- Reveja tudo antes de publicar. Textos gerados por IA precisam de olhos humanos, especialmente em áreas sensíveis.
- Mantenha os sistemas atualizados. Chatbots, preços automáticos, integrações — precisam de manutenção periódica.
- Não publique código que não entende. Se está a construir algo para clientes, trabalhe com alguém que possa explicar cada decisão técnica.
- Use IA para rascunhos, não para decisões finais. É uma excelente primeira versão. Raramente é uma versão final.
A IA não vai desaparecer — e não devia. Mas entre "usar IA" e "confiar cegamente em IA" há uma diferença que pode custar caro ao seu negócio.
Se quiser uma segunda opinião sobre o seu projeto, estou disponível — entre em contacto aqui.
Precisa de ajuda com seu projeto?
Trabalho como desenvolvedor freelance e engenheiro de dados. Vamos construir algo juntos.
Entre em contato