Hoje em dia é impossível negar os benefícios da agilidade para o desenvolvimento com menor time-to-market e uma maior adaptabilidade a um ambiente de negócios dinâmico e vertiginosamente cambiante.
Por outro lado, existe um consenso empírico quanto à importância de um bom processo de testing para garantir a máxima qualidade de um produto de software.
O que acontece quando somamos essa agilidade a uma estratégia de testes adequada? Os maiores níveis de satisfação e compromisso por parte dos usuários e os melhores resultados possíveis que o desenvolvimento digital poderia entregar.
Os agentes baseados em IA estão aqui. São muitos, estão recarregados e vêm por tudo.
Os agentes baseados em IA se diferenciam dos grandes modelos de linguagem e dos tradicionais modelos de IA porque realizam tarefas de forma autônoma, têm iniciativa, memória persistente, planos e objetivos a longo prazo. Além disso, podem aprender, especializar-se e interagir com outros agentes.
Por exemplo, um agente de IA pode controlar as câmeras de um lar, detectar situações de perigo e reagir tomando ações, ou invocar outros agentes que gerenciem domótica para fechar portas ou ativar medidas de segurança. E aprender que, no final, nosso gato não é realmente um perigo, mesmo que suba no televisor. Um agente de atendimento ao cliente responde consultas as 24 horas, mas, diferentemente de um chatbot, toma iniciativas, monitora o produto, solicita feedback e propõe melhorias ou atualizações – incluindo serviço técnico remoto. E eventualmente aprende a negociar da melhor forma com o agente de IA ao qual o cliente incumbiu de resolver o problema com o cabo.
Os agentes estão assumindo tarefas que antes requeriam equipes completas de humanos, mas não precisam de café para começar a trabalhar, nunca pedem férias, não têm crises existenciais nas segundas-feiras de manhã, e jamais chegam atrasados porque “tinha muito trânsito”.
Outra particularidade desses agentes baseados em silício é que é barato multiplicar seu número: podemos ter dezenas que interajam entre si. Em um trabalho de pesquisa recente, colocaram centenas de agentes dentro do universo do jogo Minecraft, com o objetivo de que interajam para formar uma civilização. Uma das ideias era observar e identificar comportamentos emergentes, como interagiam os agentes e que problemas surgiam, entre outras coisas. Por exemplo, detectou-se que os agentes se especializavam em tarefas (agricultores, mineradores, exploradores…) de forma autônoma, sem terem recebido instruções para fazê-lo, como uma forma de otimizar as interações. Ademais, os próprios agentes geravam regras que eles mesmos deviam respeitar, mas também revisavam e propunham mudanças a essas regras. Minecraft é um bom contexto porque é suficientemente complexo e se expande de forma ilimitada. Parte do aprendizado é que além da potência de cada agente, a interação produz resultados inesperados.
Contar com numerosos agentes não é só “colocá-los em uma bolsa”. Os agentes funcionam de forma concorrente e em tempo real, portanto, não podem “tirar um tempo” para pensar em situações de perigo ou que demandam ações imediatas.
Além disso, manter coerência ao longo do tempo nas respostas de cada agente e entre todos é um desafio (a falta de coerência é a irmã das alucinações dos modelos de linguagem; um agente pode dizer “te dou minha pá” e agir como se o tivesse feito quando na realidade não tinha uma pá). Por esses motivos, estão sendo propostos diferentes frameworks e arquiteturas para os agentes, que permitem resolver todos esses problemas.
Há hoje outra classe de problemas que não têm a ver com o uso de agentes, mas com o estado atual da tecnologia. Bastante problemático é que um assistente baseado em IA generativa nos conte casos que não existem e cite referências inventadas, mas um agente que decida mandar um e-mail com informação confidencial para toda a lista de contatos porque entendeu que era uma boa forma de conseguir amigos é outro nível de problema.
Os agentes atuais ainda confundem contextos complexos, mal interpretam o sarcasmo, e ocasionalmente oferecem soluções tão criativas que beiram o absurdo. Por exemplo, um assistente de programação ao qual pedimos para otimizar o código poderia decidir eliminar todas as funções de segurança porque retardam a execução. Todos estes problemas vão ser resolvidos, e acreditamos que 2025 é um ano de mudança: quando os agentes começam a ser adotados no contexto corporativo de forma massiva.
O desafio dos agentes baseados em IA não é competir com eles, ou temer que se tornem nossos chefes. O desafio é aprender a trabalhar com esses novos colegas digitais.
A próxima geração de Alexa vai te repreender quando vir que está comendo batatas fritas antes do jantar, a seguinte vai lembrar algum agente para escondê-las, ou as apagará da lista de compras. A grande vantagem é que, por enquanto, ainda podem ser desligados.
Se você quer saber mais sobre IA e os Agentes baseados nela, clique aqui e fale com nossos especialistas e nos siga em nossas redes sociais LinkedIn e Instagram.



