Jump to content

Recommended Posts

Postado

Dia 14 de abril de 2026 a Anthropic anunciou Routines, transformando o Claude Code de um assistente que responde dentro de uma sessão interativa em um agente de fato, que executa trabalho sozinho, de madrugada, sem terminal aberto, sem operador presente. A documentação oficial descreve uma routine como "a saved Claude Code configuration: a prompt, one or more repositories, and a set of connectors, packaged once and run automatically". Uma definição que subestima a mudança de categoria que isso representa, se você me perguntar.

Pra quem vem de ops, imagine um cron job que, em vez de rodar um script engessado, determinístico, usa um modelo de linguagem com acesso a repositórios, conectores MCP e pode commitar, enviar pushes e abrir pull requests. A Anthropic posiciona o projeto Routines entre cron jobs e "agentes persistentes com estado contínuo". Na prática, ele é mais flexível que um cron e mais efêmero que agentes persistentes.

Quando li sobre Routines pela primeira vez, me veio logo à cabeça o Manus. Me perguntei se ele seria a próxima vítima da Anthropic. Afinal, os dois estão tentando responder à mesma pergunta: o que acontece quando o agente roda sem supervisão? Mas o Manus opera numa categoria diferente: é um agente de propósito geral com VM dedicada, browser real, terminal e sistema de arquivos, rodando tarefas de longa duração independentes do contexto de desenvolvimento. As duas arquiteturas divergem desde a fundação, e são disparadas de forma completamente distintas.

As Routines são iniciadas por agendamento (horário, diário, semanal, ou cron customizado com intervalo mínimo de uma hora), webhook (GitHub, usando o Claude GitHub App, disparado por pull requests, releases e outros eventos) ou API (um POST HTTP com bearer token pra um endpoint dedicado). É possível que uma routine combine os três gatilhos. A Anthropic destaca como exemplo o review automático de PRs: um trigger de pull_request.opened executa a routine, que aplica um checklist do time e deixa comentários inline. Cada evento de webhook gera uma sessão isolada.

Já o Manus não opera por triggers. Você descreve um objetivo em linguagem natural e o agente monta um plano com navegação web num Chromium real, execução de código numa sandbox e produção de arquivos. Só para quando considera a tarefa concluída, com uma média de cerca de 50 chamadas de ferramenta por sessão.

Ganho real

Não creio que o real valor das routines esteja no agendamento em si. Agendar tarefas é trivial. O ganho está no ciclo completo proporcionado: desde a intenção descrita no prompt, a execução autônoma na infraestrutura de nuvem da Anthropic, seguida do resultado materializado num PR ou numa mensagem de Slack/Telegram, concluindo com a possibilidade de inspecionar e analisar a sessão posteriormente. Ou seja, o ciclo entre "o que eu quero que aconteça" e "o que de fato aconteceu" que roda em loop, sem intervenção manual, até que o resultado seja atingido. Este é o valor efetivamente entregue pelas Routines, quando comparado com um script agendado via API do Claude.

No caso do Manus, o mesmo problema de ciclo completo também é resolvido, mas pra um domínio mais amplo. A arquitetura usa CodeAct (ações primárias executadas via código Python) ao invés de tool calls pré-definidas, fazendo uso inclusive do Claude e de versões fine-tuned de Qwen como modelos de raciocínio, escolhendo qual deles deve executar cada sub-tarefa em VMs isoladas, com seus próprios recursos de: rede, automação de navegador e sistema de arquivos (inclusive como memória externa, para contornar os limites da janela de contexto, funcionando como contexto expandido e persistente).

Nem tudo são flores

Routines rodam em sessões completas de Claude Code na nuvem, sem permission mode e sem prompts de aprovação durante a execução. Ou seja, um --dangerously-skip-permissions por padrão. A documentação oficial é clara: "there is no permission-mode picker and no approval prompts during a run". Ou seja, o agente pode rodar comandos shell, usar skills commitadas no repositório e chamar qualquer conector MCP incluído na configuração. Se a configuração for excessivamente permissiva, o raio de alcance de um erro é potencialmente catastrófico: uma sessão com acesso total ao repositório e a todos os serviços conectados.

O Manus usa contenção por isolamento físico. Tem acesso root dentro da sandbox, mas as operações não alcançam dados da conta nem outras sessões. Se alguma coisa quebra, a sandbox é recriada automaticamente. Mas o controle granular é grosseiro tanto quanto nas routines. Nenhum dos dois oferece policies declarativas pra restringir ações específicas dentro do perímetro. Escolhas diferentes de governança, mas com consequências parecidas.

O histórico recente do Claude Code reforça a preocupação com as Routines. A Check Point Research publicou duas CVEs em 2025-2026: CVE-2025-59536 (CVSS 4.0: 8.7, execução arbitrária de código via configuração maliciosa em repositórios clonados) e CVE-2026-21852 (CVSS 4.0: 5.3, exfiltração de API keys via override de ANTHROPIC_BASE_URL). Todas corrigidas, mas ilustram que ataques via configuração de projeto operam abaixo do nível de prompt injection, com privilégios de desenvolvedor. Quando se tem agentes clonando repositórios automaticamente a cada execução, a superfície de ataque deste vetor continua relevante.

Observabilidade

Em janeiro, quando escrevi sobre debugging de agentes em produção, mostrei que o trace que captura apenas entrada e saída de cada chamada ao modelo mostra onde a saída divergiu, mas não por que divergiu. Com Routines o problema se agrava ainda mais porque a execução acontece sem ninguém assistindo. A Anthropic até oferece session URLs inspecionáveis em tempo real durante a execução e depois do fato e Manus mostra o replay com timeline de cada ação. Duas soluções necessárias, mas insuficientes, já que mostram o quê aconteceu, mas não o porquê. Se uma routine de review deixou um falso positivo num PR, você vê o output mas não o raciocínio intermediário que levou àquela decisão. Se o Manus gastou 3.000 créditos numa pesquisa que devolveu resultados irrelevantes (o que infelizmente não é raro), o replay mostra cada passo do browser sem explicar por que o agente decidiu seguir aquele caminho.

Um time que precisa rodar 25 routines por dia (que é o limite do plano Team/Enterprise na data deste post) precisa de métricas agregadas: custo por routine, taxa de sucesso por trigger, tempo médio de execução, drift de comportamento. Funcionalidade que continua ausente nativamente nas duas ferramentas.

Custo

Routines consomem créditos da mesma forma que sessões interativas. No plano Pro (US$ 20/mês), o limite é de 5 routines por dia. No Max (US$ 100-200/mês) sobe pra 15. Os planos Team e Enterprise chegam a 25, com custo adicional pra quem exceder. Pela minha experiência, uma sessão típica de codificação usando técnicas de otimização consome entre 50 e 200 mil tokens de input e 5 a 20 mil de output, o que dá algo entre US$ 0,20 e US$ 4,00 por tarefa dependendo do modelo e da complexidade do contexto. Uma routine noturna rodando contra um monorepo com contexto complexo pode consumir uma fração significativa do orçamento mensal sem que ninguém perceba até o ciclo de billing fechar.

O Manus opera por créditos: o plano Pro a US$ 20/mês dá 4.000 créditos mensais, mas uma pesquisa de 30 minutos consome entre 500 e 900, e um workflow autônomo longo passa facilmente de 5.000 (pergunte a qualquer usuário de Manus e assista a um adulto começar a chorar). Uma única tarefa complexa pode consumir o orçamento mensal inteiro de uma só vez. E ainda mais grave: os créditos gastos em tarefas que falham não são reembolsados, a menos que você consiga mostrar que foi um bug da plataforma, confirmado após investigação dos logs de execução. A variância de custo é alta nos dois, mas no Manus é pior porque a duração das sessões é aberta e o modelo de créditos não tem a limitação implícita que a assinatura do Claude impõe.

Onde usar

O que me interessa como decisão arquitetural é onde cada produto se encaixa no espectro de automação dos times que já operam em produção. A maioria dos times com CI/CD em escala já tem GitHub Actions, tarefas agendadas em infraestrutura própria, hooks customizados, e etc. Routines competem com essa camada. A vantagem é que o agente entende tanto o código como o contexto em linguagem natural. A desvantagem é que ele é estocástico, e a mesma routine pode produzir resultados diferentes em execuções consecutivas com o mesmo input. Pra validação de schema ou lint, um script continua sendo a opção segura. Para triagem de alertas e correlação de stack traces e commits recentes, Routines oferecem algo que scripts não conseguem entregar.

Para todo o espaço de tarefas exploratórias eu prefiro o Manus, com seu navegador, dados heterogêneos e entrega fora do repositório: relatório, análise de mercado, protótipo. Routines herdam o que o Claude Code oferece (repositórios Git, skills commitadas, conectores MCP pra Slack, Telegram, Jira, Linear, PRs automáticos) e se limitam ao ecossistema de engenharia. Onde eles competem de fato: relatórios recorrentes que dependem de dados externos e triagem que precisa consultar documentação fora do repositório. Nestes casos, o fator de desempate que eu uso é se o artefato final vai para dentro do repositório (Routines) ou não (Manus).

Se você ainda está avaliando qual delas usar, sugiro observar uma questão além dos fatores técnicos, mas que pode pesar na questão da dependência operacional. A China recentemente vetou a aquisição do Manus pela Meta. O acordo de US$ 2 bilhões anunciado em dezembro de 2025 foi bloqueado, mas até a data de publicação deste artigo ainda não sabemos se a reversão vai ocorrer de fato, pois a Meta já integrou funcionários e produto. Isto é um risco de continuidade que não aparece nos benchmarks, mas que deveria ser considerado na sua decisão final.

Por outro lado, o projeto Routines ainda está em research preview, e a Anthropic já avisou que "behavior, limits, and the API surface may change". Além disso, o endpoint de API roda com o cabeçalho experimental-cc-routine-2026-04-01, e as duas versões anteriores mantêm compatibilidade temporária pra dar tempo de migração. Ou seja, prepare-se para refatorar tudo que desenvolver neste momento para esta API.

Publicado originalmente em https://rcoelho.dev/post?slug=routines-vs-manus

  • Respostas 5
  • Criado
  • Última resposta

Os que mais comentaram nesse tópico

DIAS POPULARES

Os que mais comentaram nesse tópico

Postado
2 horas atrás, Sergio T disse:

Pra mim eh só mais uma das features soltadas pra demonstrar que estão em constante evolução.

Pra quem já eh de tech isso aí não agrega muita coisa não e vc ainda ganha o lockin de algo trivial

 

Eu achei bem útil porque já tira bastante da complexidade do workflow local. Se você pode delegar isto para uma outra camada, o pipeline fica bem mais simples e o contexto demanda menos podas.

É verdade que aumenta o lock-in, mas nada que não possa ser revertido facilmente ou mesmo delegado a uma instância em um VPS. Pessoalmente eu gostei muito da ideia. Quando estiver pronto de fato acho que vai ser ainda mais útil.

Postado

agora to no pc e consigo responder legal
adoro esse tipo de discussao e ainda mais com qqer coisa relacionada a automacao com IA

vc citou a parte mais importante, o dela nunca ser deterministica e com isso temos alguns pontos pra discutir

 

5 horas atrás, Ricardo Coelho disse:

Para triagem de alertas e correlação de stack traces e commits recentes, Routines oferecem algo que scripts não conseguem entregar.

isso ja existe a um bom tempo, principalmente nos apm mais premium, mas em qqer apm/log/siem vc consegue sim fazer essa correlacao, basta um minimo de setup e programacao (ainda mais se usar MCP, ai fica facil), mas continuando neste mesmo cenario, a IA vai brilhar qdo vc precisa parsear conteudos diversos tendo como premiasa a mesma regra, ou seja, foda-se se a origem eh json, xml, plain text, csv. vc a partir de uma unica premissa, consegue parsear diferentes tipos de conteudo.

 

e por conseguir, vc vai continuar tendo esta bagunca de dados? sera q o melhor eh pegar a IA pra gerar um script pra vc pra que vc normalize todos os dados e com isso em seguida, ter outro script q faca as consultas necessarias, garantindo sempre o mesmo nivel de resultado q vc precisa?

delegar tudo pra ia, executar sempre, vc esta pedindo q ela julgue o teu cenario a cara interacao, eh isso mesmo q vc quer?

no dia a dia nao queremos interpretacao alguma, queremos o mesmo resultado, 0 margem de erro, entao pq nao usar a IA para arquitetar, desenhar e codar a solucao? vc garante o que vc deseja.

 

vc vai ter o lock in, vai pagar mto caro, se alarmar 100x, serao 100x que a IA vai ter q interpretar tudo.

nao podemos esquecer que a anthropic quer abrir capital, sera q essa vomitada insana de features medianas, nao eh apenas para aumentar o valor de mercado dela? inclusive todo este estardalhaco em volta do mythos

Postado

Meu caso de uso é muito diferente disso. Meu objetivo não é usar a IA pra automatizar rotinas. É usar a IA para gerar código que automatiza rotinas. Isso é muito diferente. 

Quando você citou APM e SIEM ficou claro pra mim o seu prisma, mas este é um uso muito limitado e que te deixa dependente da IA pra sempre. Nesse contexto eu concordo com a sua visão. Mas este não é nem de longe o meu uso atual.

Routines pra mim funciona muito bem porque eu consigo remover todo o pipeline de controle de versão do meu workflow principal. Posso focar na geração de código e análise de qualidade (não só testes unitários, mas end-to-end, UI/UX, segurança, pra citar alguns). 

Eu já faço isso hoje em um VPS dedicado e por isso me empolguei com a possibilidade de delegar esta camada inteira para um serviço gerenciado. Entendo que para você talvez não faça sentido, mas para a minha dinâmica atual é algo extremamente útil e reversível.

Nos meus pipelines o controle de epics, stories, tasks e issues são centrais. Eu converso com meus agentes inserindo tarefas no quadro. A atuação dos agentes é automática, disparada pela inclusão de novos itens. Em seguida, o workflow é iniciado com as análises que citei em um loop de implementação-verificação-correção, até o all-green. Todos os agentes são instruídos a trabalhar em feature-branches, submeter pull requests que são avaliados e incorporados por outros agentes criados especificamente para este fim.

É como um escritório de desenvolvimento de software, mas operado por agentes, usando skills, baseados em rules, dentro de um workflow previsível. Esta pra mim é a grande beleza deste ecossistema. Eu consigo desenvolver quatro, cinco projetos em paralelo, simplesmente cuidando da especificação e avaliação. 

Todo o processo de geração de PRD.md, SPEC.md, STACK.md, WORKFLOW.md ocorre a "quatro mãos", mas a partir daí, tudo cabe ao pipeline automatizado.

É um admirável mundo novo e as primeiras naus apenas começaram a zarpar.

 

Crie uma conta ou entre para comentar

You need to be a member in order to leave a comment

Crie sua conta

Matricule-se na AUVP e faça parte da maior comunidade de influenciadores do Brasil.

Matricule-se na AUVP

Sign in

Already have an account? Sign in here.

Login
×
×
  • Criar novo...