Acontece que vivemos um momento de transição, no qual as expectativas precisam ser calibradas: ao mesmo tempo que cada novo lançamento de IA generativa faz crescer a convicção no público de que a IA “sabe tudo”, a realidade muitas vezes decepciona.
Esse “in dubio pro IA” nasce de uma visão profundamente arraigada de que o humano erra onde a máquina, lendo milhões dados e fazendo sabe-se lá quantas inferências, tende a cravar a resposta certa.
A nossa tomada de decisão seria perturbada por fatores estranhos à IA, como a desatenção, a preguiça e o desleixo, além da inafastável racionalidade limitada dos seres humanos.
Se um atendente humano dá uma informação estranha, o cliente desconfia na hora, pede para falar com o supervisor ou busca outra fonte. Já com a IA, a tendência é confiar.
Exemplos não faltam sobre como implementações de IA podem gerar problemas no contato com clientes, revelando os altos e baixos dessa transformação digital do atendimento.
No Canadá, o chatbot da companhia aérea Air Canada inventou uma vantajosa política de reembolso de passagens durante suas interações com um cliente que, ao solicitar a devolução dos valores, ficou surpreso com a negativa da empresa. O caso acabou na Justiça, e a companhia área foi condenada.
Outro caso emblemático veio do McDonald’s. A rede testou um sistema de drive thru automatizado com IA para acelerar o serviço. A realidade: a ferramenta de IA falhou em compreender o que os clientes estavam falando e duplicou hambúrgueres, escolheu molhos aleatoriamente e adicionou literalmente centenas de nuggets de frango a um pedido.
Vídeos com os pedidos mais caóticos viralizaram, e a rede suspendeu o projeto. A tentativa de inovar gerou mais constrangimento do que eficiência.
Na educação, os riscos são ainda mais delicados.
Ferramentas de correção automática usadas em escolas podem dar notas arbitrárias, feedbacks incoerentes e até deixaram passar erros grosseiros. E a crença de que “se a máquina falou, deve ser o certo” encontra aqui um público mais receptivo, que usa IA para aprender. A tecnologia, que deveria apoiar o ensino, acaba por minar a confiança no processo educativo.
No site Reclame Aqui, um cliente de uma plataforma de treinamento para concursos comentou: “Pagamos pelo serviço de poder ter explicações dos professores nas questões, mas agora é tudo feito por IA. A IA erra muito e cria muita informação inventada. (…) A gente fica aprendendo errado graças a vocês”.
Esses não são casos isolados. Pesquisas internacionais mostram que até 30% dos consumidores deixam de usar uma marca depois de uma experiência ruim com um chatbot de IA.
O que nasce como uma medida para economizar tempo e gerar uma impressão de modernidade acaba criando atrasos, processos custosos e danos na reputação.
Enquanto as empresas correm para adotar IA em seus canais de atendimento, em paralelo vão se transformando as expectativas e a compressão dos clientes sobre a utilidade dessas aplicações.
Quando a IA não entrega, a frustração é proporcional ao hype.
No fim, o que fideliza o cliente não é a tecnologia usada, mas a experiência de ser bem atendido.
Pelos aeroportos do Brasil, você encontra a publicidade de uma empresa de “agentes digitais com inteligência artificial”, na qual aparecem dois sorridentes jovens brancos criados por IA. Ao lado do casal está a frase “trabalho 24hs por dia, sem férias!” e a pergunta “posso trabalhar na sua empresa?”.
Fico encarando esses dois e me pergunto: “será que vocês sabem quando chegam as minhas compras”?
Opinião
Texto em que o autor apresenta e defende suas ideias e opiniões, a partir da interpretação de fatos e dados.
** Este texto não reflete, necessariamente, a opinião do UOL