De acordo com um relatório da McKinsey & Company de outubro de 2025, o mercado de “agentic commerce”, compras conduzidas por agentes de IA que decidem e executam transações, poderia atingir US$ 900 bilhões a US$ 1 trilhão só no mercado de varejo B2C dos EUA até 2030. Globalmente, o valor projetado alcançaria entre US$ 3 trilhões e US$ 5 trilhões.
Mas o que é comércio agêntico? Em termos mais simples, trata-se de compras impulsionadas por agentes inteligentes de IA, capazes de antecipar, personalizar e automatizar cada etapa do processo para criar experiências melhores de consumo. Possibilitado por avanços de ponta em IA, o comércio agêntico representa uma mudança transformadora no mercado digital pois ele não apenas aprimorará a maneira como compramos e vendemos, como também representa uma potencial mudança de paradigma que pode redefinir todo o ecossistema comercial.
Para se ter uma ideia, o comportamento do consumidor já está começando a mudar, pois 44% dos usuários que experimentaram a busca com IA afirmam que ela se tornou sua fonte preferida para buscas na internet, em comparação com 31% que preferem usar a busca tradicional, de acordo com uma pesquisa recente da McKinsey.
Neste caminho, a Mastercard e a Visa anunciaram que estão trabalhando a todo vapor para lançar agentes de IA prontos para fazer compras para você, pois afirmam que o futuro dos gastos está no comércio de agentes. A ferramenta combina um conjunto de APIs integradas, incluindo cartões prontos para IA com tokenização e autenticação, juntamente com um programa de parceria comercial para plataformas de IA, permitindo que os desenvolvedores implantem os recursos de comércio de IA. Os agentes de IA vão além dos mecanismos de recomendação tradicionais, permitindo que agentes de IA façam compras em nome dos usuários incorporando ferramentas de pagamento em plataformas de IA conversacional, criando experiências de compra fluidas, orientadas por voz ou chat.
Os agentes de IA da Visa e da Mastercard podem fazer compras automaticamente, com base em preferências do usuário. Isso traz praticidade, mas também preocupa pois quando a máquina decide o que comprar, o usuário pode perder parte do controle. É importante que a pessoa saiba exatamente o que o agente pode fazer e tenha sempre a opção de autorizar, revisar ou cancelar as compras com a decisão final deve continuar sendo humana.
Esses agentes de inteligência artificial funcionam a partir do uso de uma grande quantidade de dados pessoais, como o histórico de compras, as preferências do usuário, seus hábitos de consumo, a localização e até informações biométricas. O principal problema é saber exatamente quem tem acesso a esses dados e de que forma eles são utilizados, pois quando não há transparência sobre esse processo, aumenta o risco de que as informações sejam usadas de maneira indevida ou até mesmo expostas em vazamentos. Por isso, é fundamental que o usuário seja claramente informado sobre quais dados estão sendo coletados, para quais finalidades eles serão usados e que tenha o direito de limitar esse uso ou até apagar seus registros, conforme prevê a Lei Geral de Proteção de Dados (LGPD).
Além disso, a inteligência artificial pode acabar favorecendo alguns grupos de pessoas e prejudicando outros, dependendo de como o sistema é treinado e configurado. Em muitos casos, os algoritmos podem oferecer melhores ofertas a consumidores com maior poder aquisitivo ou dar preferência a determinadas marcas, o que gera desigualdade e falta de equilíbrio no tratamento dos usuários. Para evitar esse tipo de distorção, é essencial que os agentes de IA atuem de forma justa e imparcial, sem discriminar perfis de consumidores, e que passem por auditorias e revisões independentes capazes de garantir que todos os usuários tenham acesso igual às oportunidades e vantagens oferecidas.
Outro ponto importante é a responsabilidade pelas ações do agente. Quando o sistema realiza uma compra errada ou causa algum prejuízo, surge a dúvida sobre quem deve responder por isso: o usuário, a empresa do cartão ou o desenvolvedor da inteligência artificial. As empresas precisam deixar essa questão bem clara, definindo de maneira transparente quem é o responsável em cada situação. Também é essencial que o usuário consiga entender os motivos que levaram o agente a tomar determinada decisão, pois o sistema deve ser capaz de explicar suas escolhas de forma compreensível. Sem essa explicação, o processo se torna obscuro e a confiança do consumidor tende a diminuir.
Esses agentes, por lidarem diretamente com dinheiro e dados financeiros sensíveis, também são alvos potenciais para ataques cibernéticos e tentativas de fraude. Caso sejam invadidos, há o risco de que terceiros consigam realizar compras ou movimentações em nome do usuário. Além disso, existe a possibilidade de que o próprio sistema influencie o comportamento do consumidor, incentivando-o a gastar mais do que realmente precisa. Por isso, é essencial que as empresas responsáveis adotem medidas rigorosas de segurança, como autenticação em duas etapas, limites automáticos de gasto, alertas de uso e monitoramento constante de atividades suspeitas.
Se a confiança serve como base do comércio agêntico, o risco atua como um teste de fogo. A confiança incentiva a participação, enquanto o risco delimita os limites desse engajamento. À medida que os agentes ganham autonomia, operando em diferentes sistemas, fronteiras e setores, surgem novos riscos que as estruturas tradicionais de conformidade e a governança tecnológica estão mal preparadas para enfrentar.
Agentes autônomos são mais do que apenas interfaces pois eles são tomadores de decisão e isso em escala introduz risco sistêmico, onde uma única solicitação incorreta pode desencadear uma cascata de consequências não intencionais. Eles podem voltar atrás? Como as empresas podem reparar danos à reputação causados por um erro não humano? Quando um agente de IA toma uma decisão ruim, determinar a responsabilidade é complexo. Quem é o culpado por essa transação errada? A plataforma que desenvolveu o modelo? A marca que implantou o agente? O usuário que o aprovou? Atualmente, não há consenso global sobre responsabilidade. A Lei de IA da União Europeia fornece alguma clareza para sistemas de alto risco, mas a aplicação ainda está em evolução. Nos Estados Unidos, regulamentações fragmentadas deixam as empresas navegando ainda sem maiores responsabilidades. Até que surjam estruturas mais claras, a divulgação excessiva e a cautela podem ser a abordagem mais segura, mesmo sabendo que isso possa sufocar a inovação, especialmente para startups sem amplos recursos legais.
Eu trago aqui um exemplo prático para analisarmos. Se um agente de IA reserva uma viagem que é cancelada, quem é o responsável? O site de viagens? O agente? Um plug-in de terceiros com defeito? Erros cometidos por agentes podem levar à responsabilidade da marca e as empresas que integram agentes enfrentam o desafio de alinhar a autonomia da tomada de decisão com a explicabilidade. Os consumidores precisam entender não apenas o que um agente fez, mas também o porquê. A explicabilidade provavelmente se tornará um direito do consumidor, e registros auditáveis podem em breve ser um requisito regulatório.
Como os agentes de IA operam com dados, a questão da propriedade dos dados torna-se cada vez mais geopolítica. Isso levanta questões críticas pois se um agente processa dados de cidadãos da União Européia por meio de uma API baseada nos EUA, ele está em conformidade? Se ele é treinado em dados globais, mas atua localmente, é legal? Embora conselhos de IA, estruturas multinacionais e grupos de fiscalização estejam surgindo, a padronização global é insuficiente. Até que tais padrões existam, o risco não é apenas técnico e sim político entre os países.
Por fim, é importante lembrar que, quando a inteligência artificial começa a tomar decisões de compra no lugar das pessoas, o papel humano nesse processo tende a diminuir. Essa substituição pode levar os consumidores a refletirem menos sobre o que compram e sobre como gastam seu dinheiro, tornando o consumo mais automático e menos consciente. A automação deve servir para facilitar a vida das pessoas, e não para substituí-las completamente nas decisões. Manter um equilíbrio entre o que é decidido pela máquina e o que continua sob o controle do ser humano é essencial para que a tecnologia continue sendo uma aliada, e não um risco à autonomia individual.
Referências:
- MCKINSEY & COMPANY. The Agentic Commerce Opportunity: How AI Agents Are Ushering in a New Era for Consumers and Merchants. McKinsey Digital, outubro de 2025. Disponível em: https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-agentic-commerce-opportunity-how-ai-agents-are-ushering-in-a-new-era-for-consumers-and-merchants. Acesso em: 24 out. 2025.
- FAST COMPANY. Visa’s new agentic AI will shop for you—and reshape e-commerce in the process. Fast Company, 15 ago. 2025. Disponível em: https://www.fastcompany.com/91420311/visa-agentic-ai-ecommerce. Acesso em: 24 out. 2025.
- FORBES. SCHMELZER, Ron. The End of Checkout: AI Agents Could Soon Be Buying Everything for You. Forbes Technology, 11 set. 2025. Disponível em: https://www.forbes.com/sites/ronschmelzer/2025/09/11/the-end-of-checkout-ai-agents-could-soon-be-buying-everything-for-you. Acesso em: 24 out. 2025.
- TECHRADAR. Consumers are warming up to AI assistants: Survey finds 1 in 3 of us would allow AI to make purchases. TechRadar Pro, 22 ago. 2025. Disponível em: https://www.techradar.com/pro/consumers-are-warming-up-to-ai-assistants-survey-finds-1-3-of-us-would-allow-ai-to-make-purchases. Acesso em: 24 out. 2025..
- EUROPEAN COMMISSION. Artificial Intelligence Act: Regulation (EU) 2024/1689 of the European Parliament and of the Council. Official Journal of the European Union, Bruxelas, 2024. Disponível em: https://eur-lex.europa.eu/eli/reg/2024/1689/oj. Acesso em: 24 out. 2025.

