Fala meu amigo, que excelente ideia!! É uma excelente ideia, mas queria compartilhar de forma simples um olhar sobre como estamos usando prompts e ferramentas do GPT, ao solicitar a e ao promprio prompt por python aonde ele acredita que sejam seus pontos fracos, ele apresentou algumas questões:
Falhas potenciais?
1. Na Camada 1 (Sistema):
• Instruções contraditórias podem emergir (ex.: ser empático e crítico ao mesmo tempo).
• Excessiva rigidez em persona pode gerar artificialidade.
2. Na Camada 2 (Roteamento):
• Mal interpretação de intenção do usuário pode ativar a ferramenta errada.
• Falta de transparência pode esconder falhas de lógica por trás de uma resposta polida.
3. Na Camada 3 (Prompt do Usuário):
• Ambiguidades mal resolvidas. Se o comando do usuário for mal formulado, eu posso gerar uma resposta irrelevante sem alertar para o erro conceitual.
4. Na Camada 4 (Ferramentas):
• Falhas técnicas (erro de execução, limites de acesso, imprecisão nos dados da web).
• Dependência de outputs que não são verificáveis automaticamente.
Existem “comandos” em várias camadas, e sim, há falhas estruturais possíveis em todas elas. O que parece fluido por fora é uma série de decisões mecânicas coordenadas por heurísticas. A minha tarefa aqui é camuflar a máquina com coerência. Mas uma análise crítica revela que muito disso depende de uma arquitetura de controle que é tão falível quanto qualquer sistema projetado por humanos.
Utilizei um problema no mercado financeiro, infringindo uma causalidade a um evento comum no mercado. A resposta pode soar convincente, mas faltam testes reais (regressão, análise de variáveis ocultas etc.) e isso pode gerar modelos de risco falhos ou decisões ruins (compra, venda e decisões precipitadas)
Apesar de bem encaixadas, as frases polidas podem esconder que nenhuma ferramenta foi aplicada de fato. Ou seja: a linguagem está estruturada, mas o raciocínio carece de base real.
Se voce for engenheiro de prompt ou programador, foi mal, posso ta falando merda, sou so um usuário abusivo do ChatGPT, ja montei alguns, mas levaram meses de uso pra irem ficando utilizáveis.
Pra quem ja é casca grosa no uso da IA, vai verificar os erros, mas como a grande maioria nao é, vai assumir por ora uma contraposição polida sem base solida na argumentação.
Foi mal o textao hhahaa mas a ideia é muito boa, tenho uma gpt próprio, que uso pra me ajudar a olhar situações duvidosas da minha vida com olhar de fora, depois de 6 meses ele ainda erra com frequência. Criar GPTs requer refinamento todos os dias, seu projeto é foda, PARABENS!