Pensamento
Interaja com o ChatGPT de maneiras alternativas.
Trabalhe com ramos alternativos de conversa
- Sua conversa pode se ramificar em dois ou mais a qualquer momento
- Evite ter um contexto de informação irrelevante
- Faça facilmente uma nova virada na conversa, sem desistir do velho
- Não há necessidade de excluir algo interessante
- Um modelo tem mais respostas se você perguntar novamente
Conheça seu custo
- Seu orçamento ou sua cota por mês pode estar limitando
- Os modelos têm preços muito diferentes por token
- Veja o tráfego no log do console, aprenda a otimizar
Edite seu histórico de bate -papo
- Corrija os problemas que você encontra diretamente, mesmo no código de programação
- Remova o que não é importante
- Tenha um registro de console, incluindo o que você excluiu para referência
Tenha as ferramentas que você precisa
- Salve os blocos de código com um nome de arquivo gerado
- Execute o código
- Renderizar o conteúdo, como látex ou SVG
- Abra aplicativos como planilha para saída CSV
- Execute os avisos preparados no modo de lote
- Executar instruções geradas por ferramentas externas
- Veja abaixo em "Recursos"
[Nota: isso é apenas parcialmente implementado. Veja este software não foi lançado]
Uma interface do usuário para GPT-4 e ChatGPT, que suporta a maneira comum de conversar com o modelo, mensagem por mensagem de maneira linear. Mas acima disso, ele suporta uma perspectiva totalmente nova: ramifique a conversa para obter tópicos menos relacionados. E trabalhe com essa conversa como algo fácil de mudar, em vez de vê -la como a história estática de uma sessão.
Prompts e bate -papos lineares são um método poderoso. Mas não há apenas uma maneira de uma conversa se desenvolver. Trabalhe em várias linhas do tempo, sem excluir o que aconteceu antes.
Uma conversa com GPT-4 ou ChatGPT pode ser linear, de modo que cada linha produzida depende de tudo o que foi entrada ou saída antes. Isso acontece - em experimentos científicos, mas com muito menos frequência no uso da vida real. Se não for linear, isso significa que há peças no contexto de uma conclusão que não é necessária. O modelo gasta exatamente a mesma atenção, pode distorcer seus resultados. Você paga por esses tokens. E é provável que você pague mais por eles do que pelos tokens que você realmente usa. Isso é difícil de evitar, com um trabalho manual e colar complexo, ou muitas vezes até impossível. O pensamento resolve esse problema fornecendo as ferramentas certas. E muito mais.
Uma chave de API do OpenAI é necessária.
(https://platform.openai.com/signup, https://platform.openai.com/account/api-keys)
Características
- Trabalhe com várias conclusões , assim como você geraria várias imagens com uma imagem generativa AI.
- Você pode trabalhar facilmente em conversas alternativas . Volte para tentar outra coisa, sem perder nada.
- Você pode editar livremente a história : o que a IA acha que você disse e o que a IA acha que ela disse.
- Você está trabalhando em texto contínuo , mas as mensagens de você e da IA são mantidas separadas.
- Você pode alterar opções como temperatura ou até alterar o modelo no meio da conversa.
- Você tem o controle do que acontece: Conte os tokens , consulte as opções atuais, veja por que a conclusão anterior terminou.
- Gerencie o que precisa estar no contexto , quando ficar difícil.
- Navegue pela história. E a árvore da história.
- Lidar com seções e arquivos de código. Salve -os, inclua -os, execute -os.
- Salvar seções nos arquivos
- Execute blocos de código
- Crie documentos a partir de seções de código, como PDF do LATEX ou PNG da SVG
- Incluir arquivos
- Reduza o custo por não incluir texto irrelevante no contexto, sem excluí -lo.
- Mudar os modelos da tecla de atalho em um segundo: pressione Ctrl+4 para mudar de chatgpt para GPT-4.
- Use um modelo rápido e barato primeiro e apenas execute o prompt em um modelo melhor.
- Mantenha os tópicos separados: se você tiver consulta em um tópico novo e relacionado, tenha apenas as partes relevantes da história no contexto: outras peças podem impedir e causar custos.
Notas:
O programa espera uma chave de API do OpenAI fornecida no ambiente do shell, por exemplo, no arquivo ~/.profile como export OPENAI_API_KEY="..."
- https://www.python.org/downloads/
- https://pypi.org/project/thoughttree/
- https://github.com/vsiegel/thoughttree
- https://openai.com/chatgpt
- https://openai.com/gpt-4
- https://platform.openai.com/docs/introduction
- https://openai.com/pricing
- https://platform.openai.com/account/usage
- https://arxiv.org/abs/2303.08774
- https://cdn.openai.com/papers/gpt-4.pdf
- GPT-4 vs. GPT-3.5: Um confronto conciso
- Doi: 10.36227/techrxiv.22312330