Este projeto implementa um sistema automatizado para otimizar as solicitações de IA usando algoritmos genéticos e técnicas de aprendizado de máquina. Ele foi projetado para evoluir e melhorar qualquer prompt de LLM. O exemplo neste repositório está focado na triagem de ações orientada pela IA.
Leia mais sobre isso aqui.
Otimizar os avisos usando essa estrutura pode ser muito caro! Não aceito nenhuma responsabilidade por quaisquer custos incorridos. Se o custo for uma consideração, use LLMs locais como Ollama para otimização.
Para ver os resultados do prompt otimizado, consulte Nexustrade.io. A Nexustrade é uma plataforma automatizada de negociação e investimento automatizada a IA que permite que os usuários criem, testem, otimizem e implantem estratégias de negociação algorítmica.
Com o rastreador de ações, você pode fazer qualquer uma das perguntas do diretório de soldados, incluindo:
Qualquer pergunta sobre dados técnicos ou fundamentais, o rastreador de ações da AI da Nexustrade pode responder. Experimente hoje de graça!
Antes de executar este projeto, verifique se você tem os seguintes pré -requisitos configurados:
Node.js : verifique se você tem o Node.js instalado. Você pode baixá -lo de nodejs.org.
Preencher inputs.ts : Crie e preencha o arquivo de inputs.ts com o seguinte formato:
const inputs = [
{
text : "<Question to ask the model>" ,
foldername : "foldername_for_the_input_output" ,
} ,
] ;
export default inputs ;additionalSystemPrompts.ts : Crie e preenche o arquivo do additionalSystemPrompts.ts com o seguinte formato: const additionalSystemPrompts = [
"System Prompt 1" ,
"System Prompt 2" ,
"System Prompt 3" ,
"System Prompt 4" ,
"System Prompt 5" ,
] ;
export default additionalSystemPrompts ;.env no diretório raiz do projeto e adicione as seguintes variáveis de ambiente: ANTHROPIC_API_KEY=your_anthropic_api_key
OPENAI_API_KEY=your_openai_api_key
OLLAMA_SERVICE_URL=http://localhost:11434
GOOGLE_APPLICATION_CREDENTIALS_JSON=path_to_your_google_application_credentials_json
CLOUD_DB=your_cloud_db_connection_string
LOCAL_DB=your_local_db_connection_string
MODEL_NAME=your_model_name
Replace your_anthropic_api_key , your_openai_api_key , path_to_your_google_application_credentials_json , your_cloud_db_connection_string , your_local_db_connection_string , and your_model_name with your actual API keys, the path to your Google application credentials JSON file, your database connection strings, and the model nome. Você pode alterar o modelo para um modelo de código aberto de Ollama ou um do antropic, configurando a variável de ambiente MODEL_NAME .
Para o banco de dados local, você pode preenchê -lo com o seguinte:
LOCAL_DB="mongodb://127.0.0.1:27017/promptoptimizer"
Por padrão, o sistema usará o banco de dados local especificado em process.env.LOCAL_DB . Se você deseja usar um banco de dados em nuvem, verifique se process.env.CLOUD_DB está preenchido e modifique o código para usá -lo conforme necessário.
Para instalar as dependências Node.js necessárias, execute o seguinte comando no diretório raiz do projeto:
npm install Para executar os arquivos do TypeScript diretamente, você precisa instalar ts-node . Você pode instalá -lo globalmente usando o seguinte comando:
npm install -g ts-nodeComo alternativa, você pode adicioná -lo como uma dependência de desenvolvimento ao seu projeto:
npm install --save-dev ts-nodePara instalar as dependências do Python necessárias, verifique se você instalou o Python e execute o seguinte comando no diretório raiz do projeto:
pip install -r requirements.txtIsso instalará os seguintes pacotes Python:
matplotlibseabornpandasPara instalar o MongoDB localmente, siga estas etapas:
Faça o download do MongoDB : vá para o MongoDB Download Center e faça o download do servidor comunitário do MongoDB para o seu sistema operacional.
Instale o MongoDB :
.msi baixado e siga as instruções de instalação.brew tap mongodb/brew
brew install [email protected]mongod no prompt de comando.brew services start mongodb/brew/mongodb-communitysudo systemctl start mongodmongoIsso deve abrir o shell do MongoDB, indicando que o MongoDB está instalado e funcionando corretamente.
Para direcionar o modelo para o comportamento desejado, você precisa saber exatamente como deseja que o modelo responda a uma ampla gama de entradas. Para fazer isso, você atualizará o arquivo input.ts com nomes de arquivos e entradas que deseja que o modelo entenda. Em seguida, você executará o script populateGroundTruth.ts . Este script permite criar verdades fundamentais de uma maneira semi-automatizada.
Usando algum método (como um modelo de idioma grande), você precisa quantificar o quão perto a saída está da saída desejada. Você pode fazer isso usando o "Avaliador Prompt" baseado em LLM no repositório. O "Avaliador Prompt" pega a saída do modelo e a saída esperada e retorna uma pontuação.
Para usar o Ollama como uma alternativa ao OpenAI, siga estas etapas:
Faça o download do Ollama : acesse ollama.com/download e faça o download da versão apropriada para o seu sistema operacional.
Faça o download do modelo : visite ololama.com/library/llama3.1 para baixar o modelo que deseja usar.
Defina a variável de ambiente : Certifique -se de definir a seguinte variável de ambiente no seu arquivo .env :
OLLAMA_SERVICE_URL=http://localhost:11434
Se você possui um ANTHROPIC_API_KEY , pode usar alternativamente Antrópico para otimização imediata.
Para executar o script TypeScript, você pode usar ts-node . Certifique-se de ter ts-node instalado como descrito acima e execute o seguinte comando:
ts-node main.tsComo alternativa, você pode compilar o código TypeScript para JavaScript e executá -lo usando o Node.js:
tscnode dist/main.js Para visualizar a aptidão de treinamento e validação ao longo de gerações, você pode usar o script python graph.py . Esse script gera gráficos para que você possa ver como o desempenho do seu prompt mudou com o tempo. Para executar o script, use o seguinte comando:
python graph.pySeguindo estas instruções, você poderá otimizar qualquer prompt arbitrário, quantificar seu desempenho e visualizar como ele melhora com o tempo.