Use Navamai para sobrealimentar su productividad y flujo de trabajo con IA personal, rápida y de calidad. Convierta su terminal en una aplicación de IA personal configurable, interactiva y discreta. Potencia de 15 LLM y 7 proveedores en las puntas de sus dedos. Combina con flujos de trabajo en Markdown, VS Code, Obsidian y GitHub. Obtenga su signo productivo con tres comandos simples.
El comando es todo lo que necesitas: entonces, los fanáticos de LLM Science obtendrán el juego de palabras en nuestro lema. Es una obra de teatro en el famoso artículo que introdujo el mundo para transformador de la arquitectura de modelos: la atención es todo lo que necesitas. Con Navamai, un comando simple a través de su terminal o caparazón favorito es todo lo que necesita para doblar un modelo de idioma grande o pequeño a sus deseos. Navamai proporciona una interfaz de usuario rica allí mismo dentro de su símbolo del sistema. No hay pestañas de navegador para abrir, sin aplicaciones para instalar, sin conmutación de contexto ... solo flujo de trabajo puro, simple y rápido. Pruébelo con un comando simple como ask "create a table of planets" y ver que su terminal cobra vida al igual que una interfaz de usuario de chat con respuestas de transmisión rápida, tablas formateadas de markdown e incluso bloqueos de código con resaltados de color si su mensaje requiere código en respuesta. Navamai ha lanzado 14 comandos para ayudar a personalizar su flujo de trabajo personal de IA.
Top Models and Providers: puede cambiar de modelos privados o LLM de Frontier alojados con facilidad. Navamai viene con soporte configurable para más de 15 modelos líderes (GPT 4O, Sonnet 3.5, Gemini 1.5 Pro, Mistral Nemo, Sonar Llama 3.1 ...) de 7 proveedores (Ollama, Anthrope, OpenAi, Groq, Google, Bedrock y Perplexity).
Flujos de trabajo de Markdown: Navamai funciona con el contenido de Markdown (archivos de texto con comandos de formato simples). Por lo tanto, puede usarlo con muchas herramientas populares como VS Code y Obsidian para diseñar rápida y sin problemas un flujo de trabajo personalizado que mejore su oficio.
Haga más con menos: Navamai es muy simple de usar fuera de la caja mientras aprende su puñado de comandos poderosos. A medida que se siente cómodo, puede personalizar los comandos de Navamai simplemente cambiando un archivo de configuración y alinean Navamai para adaptarse a su flujo de trabajo. Todo en Navamai tiene valores de valor sensato para comenzar rápidamente.
Hágalo suyo: cuando esté listo, todo es configurable y extensible, incluidos comandos, modelos, proveedores, indicaciones, parámetros del modelo, carpetas y tipos de documentos. Otra cosa mágica sucede cuando la interfaz de su IA generativa es un símbolo del sistema humilde. Experimentará una sensación de control. En control de su flujo de trabajo, su privacidad, sus intenciones y sus artefactos. Usted tiene el control de su flujo de trabajo personal de IA con Navamai.
Vaya a una carpeta donde desee inicializar Navamai. Esta podría ser su bóveda de obsidiana o una carpeta de proyecto de código VC o incluso una carpeta vacía.
pip install -U navamai # upgrade or install latest NavamAI
navamai init # copies config file, quick start samples
navamai id # identifies active provider and model
ask " How old is the oldest pyramid? " # start prompting the model Deberá configurar las teclas de modelo de modelo. Edite su entorno config ~/.zshrc así.
export ANTHROPIC_API_KEY= # https://docs.anthropic.com/en/api/getting-started
export OPENAI_API_KEY= # https://openai.com/index/openai-api/
export GROQ_API_KEY= # https://console.groq.com/keys
export GEMINI_API_KEY= # https://ai.google.dev/gemini-api
export PERPLEXITY_KEY= # https://www.perplexity.ai/settings/api Si no desea utilizar ninguno de los modelos, todo lo que necesita hacer es eliminar las entradas correspondientes de navamai.yml en las secciones model-mapping y provider-model-mapping . También asegúrese de que las otras configuraciones del modelo solo se refieran a los modelos disponibles.
Para modelos locales, instale Ollama y descargue los últimos modelos que desea ejecutar.
Ahora está listo para probar todos los modelos y proveedores.
navamai test ask
navamai test visionOmita esta sección si tiene su entorno Python ya funcionando.
Primero, debería ejecutar el último Python en su sistema con Python Package Manager actualizado a lo último.
python --version
# should return Python 3.12.x or higher as on Sep'24pyenv .Primero cambie al directorio a su espacio de trabajo VS Code, una bóveda de obsidiana o una carpeta donde desea instalar Navamai. A continuación, cree el entorno virtual.
python -m venv env Ahora puede activar su entorno virtual así. Notará que el directorio prefijo (env) para indicar que ahora se está ejecutando en el entorno virtual.
. env/bin/activate Para dejar el entorno virtual utilizando el comando deactivate . Vuelva a ingresar usando el mismo comando que antes.
Ahora estás listo para instalar Navamai.
*Tenga en cuenta que navamai , ask , image and refer son cuatro comandos de nivel superior disponibles para usted cuando instala Navamai.
| Dominio | Ejemplo y descripción |
|---|---|
| * preguntar | ask "your prompt"Solicite al LLM para una respuesta rápida y nítida (predeterminada hasta 300 palabras), respuesta de un solo turno askExamine la carpeta de indicaciones configuradas, enumera las plantillas de solicitud para que el usuario se ejecute. |
| auditoría | navamai auditAnalice su propio uso de Navamai con el tiempo con un perspicacia de la línea de comandos de comandos e informe de Markdown. |
| configuración | navamai config ask save trueEditar configuración de archivo navamai.yml desde la línea de comandos |
| recolectar | navamai gather "webpage url"Raspe un artículo de una página web, sin los menús, la barra lateral, el pie de página. Incluye imágenes. Ahorra como markdown formateado de manera similar a la fuente HTML. Consulte el contenido de Markdown raspado utilizando el comando refer gather .Use la visión en imágenes raspadas utilizando el comando navamai vision . |
| * referirse | refer text-to-extractExplore un conjunto de archivos de texto sin procesar y ejecute indicaciones personalizadas para extraer un nuevo contenido estructurado. refer inline-prompts-to-runEjecutar indicaciones integradas en línea dentro del texto para expandir, cambiar y convertir los documentos existentes. refer intentsExpandir un conjunto de intentos y indicaciones dentro de una plantilla de intentos refer your-commandPuede configurar sus propias extensiones para referir el comando simplemente copiando y cambiando cualquiera de las configuraciones del modelo refer-existing . |
| correr | navamai run¡Explore la carpeta Code para archivos Markdown con bloques de código, cree, configure y ejecute la aplicación en un solo comando!Los archivos de Markdown de la carpeta Code con bloques de código se crean utilizando ask comando solicitar la plantilla de solicitud Create Vite App.md o similar. |
| identificación | navamai idIdentifica el proveedor actual y el modelo para el comando asknavamai id section-nameIdentifica el proveedor y el modelo definidos en la sección específica |
| * imagen | imageSeleccione una plantilla de solicitud para generar una imagen. image "Prompt for image to generate"Solicitado generar una imagen. |
| inicio | navamai initInicialice Navamai en cualquier carpeta. Copia la configuración predeterminada navamai.yml e intentos de inicio rápido e incrusta las carpetas y archivos. Cheques antes de sobrescribir. Use la opción -Force para forzar archivos y carpetas de sobrescribencia. |
| intentos | navamai intents "Financial Analysis"Elija interactivamente una lista de intentos dentro de una plantilla para referirse a las incrustaciones de contenido |
| unir | navamai merge "Source File"Encuentra Source File updated con etiquetas de marcador de posición [merge here] o como se define personalizado en la configuración merge , luego fusiona los dos archivos en Source File merged . Use junto con refer inline-prompts-to-run para reducir el número de tokens procesados al editar texto largo para el contexto pero actualizar solo una sección. |
| dividir | navamai split "Large File"Use este comando para dividir un archivo grande en fragmentos dentro de una relación especificada del contexto del modelo de destino. Puede configurar el modelo de destino y la relación en la sección split de la configuración. El archivo original permanece intacto y se crean archivos nuevos con el mismo nombre y sufijo part # . |
| prueba | navamai test askPrueba el comando Navamai utilizando todos los proveedores y modelos definidos en la configuración navamai.yml y proporciona un resumen de prueba.navamai test visionModelos de visión de prueba. |
| tendencias | navamai trendsVisualice la latencia y las tendencias de longitud del token basadas en navamai test se ejecutan para los comandos de ask y vision en modelos y proveedores. Puede tendencia durante un período de días usando la opción de comando --days 7 . |
| validar | navamai validate "Financial Analysis"Valida las incrustaciones generadas anteriormente que ejecutan otro modelo e informa la diferencia porcentual entre el contenido validado y el original. |
| visión | navamai vision -p path/to/image.png "Describe this image"Ejecuta modelos de visión en imágenes de la ruta local (-p), URL (-u) o cámara (-c) y responde en función de la solicitud. |
Usando Navamai con pocos comandos simples en su terminal, puede crear un administrador de contenido de IA personal simple pero poderoso con su herramienta de Markdown de elección como Obsidian o VS Code. Por ejemplo, puede escribir publicaciones de blogs parciales, escribir sus ideas de semillas, comenzar con una lista de intentos y indicaciones, o capturar notas parciales de una conferencia donde estaba ligeramente distraído.
Luego, puede usar el comando refer junto con las configuraciones personalizadas refer-section dentro de navamai.yml para expandir este contenido parcial, incompleto o de semilla en publicaciones, notas, artículos, plantillas de inmediato e incluso documentos bien investigados. Puede experimentar con la elección de modelos y proveedores, ajustar la configuración del modelo en la configuración por tipo de documento, definir carpetas personalizadas para su contenido y especificar las indicaciones del sistema específicas del documento para obtener exactamente el resultado que desea en función del tipo del documento. Solo tiene que recordar una refer comando simple y está todo configurado.
Como ejemplo rápido, consulte la carpeta de Posts con una muestra parcialmente escrita en la publicación sobre estrategias de crecimiento de inicio. Ahora vea la sección de configuración relacionada dentro de navamai.yml para expandir publicaciones.
refer-post-to-update :
lookup-folder : Posts
max-tokens : 4000
model : sonnet
provider : claude
save : true
save-folder : Posts
system : You will be given a partially written blog post on a topic.
Your job as an expert blog writer is to expand the post...
temperature : 0.5 Tenga en cuenta que para brevedad no estamos enumerando el mensaje completo del sistema aquí. Obviamente, puede cambiarlo para adaptarse a su flujo de trabajo. Por ahora, simplemente ejecute el comando refer post-to-update "startup-growth-hacking" dentro de la carpeta de trabajo donde inicializó Navamai. Pronto la respuesta del modelo comienza a transmitirse a su terminal. La publicación expandida se guarda en la carpeta de Posts con prefijo updated para que pueda compararse con el original.
Para crear un nuevo tipo de documento, como trabajos de investigación, notas de clase, recetas de cocina o lo que sea, todo lo que necesita hacer es copiar y personalizar una de las secciones refer-post-to-update o refer-intents-to-expand en algo como su sección personalizada refer-notes-to-summarize . Luego, puede ejecutar un comando personalizado en su nuevo tipo de documento, como refer notes-to-summarize "your-notes-file" y lograr los mismos resultados.
Cuando se combina con otros comandos de Navamai, este flujo de trabajo puede ser aún más poderoso. Como ejemplo, comience definiendo la plantilla de su documento para un conjunto de intentos y indicaciones como un simple marcado. Por ejemplo, Financial Analysis o Product Management se muestran aquí. A continuación, agregue algunos intentos como encabezados como Macro Factors Impact Stocks o Top Companies by ROCE , etc. Luego agregue las indicaciones simples en estos intentos para generar contenido. Ahora puede usar Navamai para expandir el conjunto de intentos y indicaciones en su plantilla de documento con el comando refer intents-to-expand "Financial Analysis" y el modelo hará una lluvia de ideas sobre intentos e indicaciones relacionadas para que lo use.
Ahora ejecute navamai intents-to-expand "Financial Analysis" y elija entre una lista de intentos generar como incrustaciones de contenido. La respuesta se guarda en la carpeta Embeds automáticamente y la inserción está vinculada en su plantilla de documento al instante. Enjuague, repita.
Este flujo de trabajo puede ser realmente útil muy rápido. Como cada plantilla ha vinculado las incrustaciones, la vista del gráfico de Obsidian se puede usar para visualizar los enlaces. Puede obtener plantillas creativas y relacionadas con vincular o incluso mejorar las incrustaciones generadas con más intentos. Por supuesto, esto también significa que puede usar todos los excelentes complementos de obsidiana para generar sitios web, PDF y más. Tu creatividad + obsidiana + navamai = magia!
Navamai viene con soporte configurable para más de 15 modelos líderes de cinco proveedores (Ollama, Anthrope, OpenAI, Groq, Google). El comando navamai test se puede usar para ejecutar cada uno de los comandos Navamai sobre todas las combinaciones de proveedores y modelos y responder con un resumen de los resultados de la prueba del modelo y la evaluación. Use esto para comparar rápidamente modelos y proveedores, así como cuándo agrega o elimina un nuevo modelo o proveedor en la configuración.
Este comando es muy útil al comparar el tiempo de respuesta del modelo (latencia), la calidad de la respuesta (sigue el sistema y las instrucciones indicadas), la precisión de la respuesta y la longitud del token (costo) para el mismo aviso. Puede configurar las indicaciones de prueba dentro de navamai.yml en la sección test .
Aquí hay un ejemplo de ejecutar el comando navamai test vision y el resumen de la prueba resultante. En este aviso predeterminado e imagen, estamos compartiendo una imagen de alrededor de 150-160 personas que se encuentran muy cerca en un círculo y pidiendo al modelo que cuente el número de personas. El número correcto es entre 150-160. Esto se puede usar para calcular la precisión relativa de cada modelo en función de la respuesta. Qué tan estrechamente la respuesta sigue la solicitud del sistema y las indicaciones del usuario son indicativas de la calidad de la respuesta.
También puede notar que los tiempos de respuesta parecen proporcionales al tamaño del modelo. Para Claude, Opus> Sonnet> Haiku. Para Gemini, Pro> Flash. Para OpenAi, GPT-4O> GPT-4-Mini.
De manera similar, puede ejecutar el comando navamai test ask para probar en todos los modelos y proveedores. En esta carrera, puede encontrar a Groq se encuentra entre los proveedores más rápidos cuando se trata del tiempo de respuesta.
Por supuesto, es posible que necesite múltiples pruebas para obtener una mejor intuición de los tiempos de respuesta, ya que hay múltiples factores que afectan la latencia que no sea el tamaño o la arquitectura del modelo, como la latencia de la red, que pueden cambiar en múltiples ejecuciones de pruebas.
Cada comando navamai test ejecuta los datos de resumen de la prueba en la carpeta de Metrics por timestamp y proveedor-modelo. Con el tiempo, puede visualizar las tendencias de latencia y métricas de conteo de tokens para ver si los modelos funcionan de manera consistente. Ejecute el comando navamai trends para ver las tendencias durante 7 días (predeterminado).
La visualización utiliza líneas de chispas para mostrar tendencias de datos con el tiempo. Use esto para decidir cuándo/IF para cambiar modelos según las tendencias de rendimiento.
¿Quieres comparar múltiples modelos uno al lado del otro? Todo lo que necesita hacer es abrir múltiples conchas o instancias terminales. Ahora, en cada uno de estos, uno por uno, cambie el modelo, ejecute la misma ask "prompt" y compare los resultados uno al lado del otro. ¡Simple!
A medida que los comandos Navamai usan la configuración navamai.yml en la carpeta actual cada vez que se ejecutan, puede crear flujos de trabajo paralelos más complejos, multimodelo y proveedores cruzados simplemente copiando el archivo de configuración en múltiples carpetas y ejecutando comandos allí. De esta manera, puede ejecutar algunas tareas de larga duración en un modelo local en una carpeta y terminal. Mientras haces tu flujo de trabajo diario en otro. Etcétera.
No hay marketing conductual o piratería de crecimiento que una empresa puede hacer dentro de su símbolo del sistema. Guíe su flujo de trabajo como se siente en forma. Ejecute el proveedor de modelos más rápido (Groq con Llama 3.1), o el modelo más capaz en este momento (soneto 3.5 o GPT-4O), o el último modelo pequeño en su computadora portátil (Nemo Mistral), o el modelo con el contexto más grande (Gemini 1.5 Flash), usted decide. Ejecute con WiFi rápido o no Wifi (usando modelos locales), sin restricciones. Busque, investigue, investiga, preguntas y respuestas instantáneos para aprender algo o generar un conjunto de artefactos para ahorrar para más adelante. Cambiar a cualquiera de estos flujos de trabajo son un par de cambios en un archivo de configuración o algunos comandos fáciles de recordar en su terminal.
También puede configurar los nombres de modelos personalizados para la asignación de la versión del modelo real para simplificar los comandos de conmutación de modelos. Con la siguiente asignación, los comandos para cambiar los modelos son navamai config ask model llama o navamai config intents model haiku , etc.
model-mapping :
# Claude models
sonnet : claude-3-5-sonnet-20240620
opus : claude-3-opus-20240229
haiku : claude-3-haiku-20240307
# Ollama models
llama : llama3.1
gemma : gemma2
mistral : mistral-nemo
# Groq models
groq-mixtral : mixtral-8x7b-32768
groq-llama : llama2-70b-4096
# OpenAI models
gpt4mini : gpt-4o-mini
gpt4o : gpt-4o
# Gemini models
gemini-pro : gemini-1.5-pro
gemini-flash : gemini-1.5-flash Usted decide en qué modelo y proveedor confía, o incluso elige ejecutar un LLM localmente en su computadora portátil. Usted tiene el control de cómo permanecen sus datos y preferencias privadas. Navamai apoya modelos de última generación de Anthrope, OpenAI, Google y Meta. Puede elegir un proveedor alojado o Ollama como proveedor de modelo local en su computadora portátil. Cambie entre modelos y proveedores que usan un comando simple como navamai config ask model llama cambie del modelo actual.
También puede cargar conjuntos de configuración del modelo personalizado asignados a cada comando. Configurarlos en el archivo navamai.yml . Aquí hay un ejemplo de restricción de cómo los comandos de los intentos de navamai ask y navamai intents se comportan de manera diferente utilizando proveedores de modelos locales y alojados.
ask :
provider : ollama
model : mistral
max-tokens : 300
save : false
system : Be crisp in your response. Only respond to the prompt
using valid markdown syntax. Do not explain your response.
temperature : 0.3
intents :
provider : claude
model : sonnet
max-tokens : 1000
save : true
folder : Embeds
system : Only respond to the prompt using valid markdown syntax.
When responding with markdown headings start at level 2.
Do not explain your response.
temperature : 0.0 Navamai guarda un rastro de comandos, indicaciones, plantillas, carpetas de búsqueda y archivos guardados en el archivo trail.yml . Puede visualizar esto en cualquier momento utilizando el comando navamai audit para obtener información sobre su uso de Navamai con el tiempo.
Sus intentos son tareas que desea ejecutar, objetivos que desea lograr, planes que desea realizar, las decisiones que desea tomar o las preguntas que desea responder. Controlas toda tu experiencia Navamai con tus intentos. Puede guardar sus intentos como un simple esquema de tareas en un archivo de texto. Puede recordarlos cuando lo necesite. Puede ejecutar modelos en sus intenciones mientras se siente en forma. Puede ahorrar resultados en función de sus intentos.
Puede verificar el contenido generado por un LLM con validación de otro modelo. Asegúrese de ejecutar el comando Validate después de que haya ejecutado el comando refer intents para generar el primer paso de incrustaciones. Use navamai validate "Financial Analysis" o cualquier plantilla de intención que haya creado. El flujo de trabajo para la validación es similar a los intentos de expansión. Solo en este caso la configuración del modelo Validate decide qué modelo y proveedor usar. También puede modificar el indicador de validación para verificar cualquier cosa específica relevante para su caso de uso. El DIFF se calcula en el texto original y validado que elimina las nuevas líneas, el espacio en blanco o el formato de marcado al hacer la comparación de Diff utilizando la puntuación de similitud. Use esto para automatizar la validación de calidad del contenido generado.