Diseñado para la simplicidad, personalización y productividad del desarrollador.
Descripción general
Manifestación
Características
Empezando
Configuración
Ejemplos
Que contribuye
Importante
Visite la documentación oficial para obtener guías y tutoriales detallados.
ReadMe-AI es una herramienta de desarrollador que genera automáticamente archivos de markdown ReadMe utilizando un motor de procesamiento de repositorio robusto y modelos de lenguaje avanzado. Simplemente proporcione una URL o ruta a su base de código, y se generará un readMe bien estructurado y detallado.
¿Por qué ReadMe-Ai?
Esta herramienta está diseñada para optimizar el proceso de documentación para los desarrolladores, ahorrando tiempo y esfuerzo al tiempo que garantiza archivos ReadMe de alta calidad. Los beneficios clave incluyen:
AI: Avance modelos de lenguaje para la generación de contenido inteligente.
Consistencia: garantizar la documentación limpia y estandarizada en todos los proyectos.
Personalización: adapte la salida para que se ajuste a los requisitos de su proyecto.
Lenguaje Agnóstico: funciona con la mayoría de los lenguajes/marcos de programación.
Ahorre tiempo: genere lecturas integrales en menos de un minuto.
Corriendo desde la línea de comando:
Corriendo directamente en su navegador:
Documentación automatizada: genere archivos ReadMe completos automáticamente desde su base de código.
Salida personalizable: Adapte el estilo, el formato, las insignias, los diseños de encabezados y más preferencias.
Backends flexibles: integrarse sin problemas con OpenAI , Ollama , Anthropic , Google Gemini .
Lenguaje Agnóstico: compatible con una amplia gama de lenguajes de programación y tipos de proyectos.
Modo fuera de línea: cree archivos README Boilerplate fuera de línea, sin ninguna llamada de API externa.
Las mejores prácticas: garantiza la documentación limpia y profesional, adherida a las mejores prácticas de Markdown.
Echemos un vistazo a algunas posibles personalizaciones creadas por ReadMe-AI:
| Pepita Método recomendado para la mayoría de los usuarios: ❯ PIP Instale ReadMeai Pipa Use PIPX para usar ❯ Pipx Instale ReadMeai Uva Use UV para la forma más rápida de instalar ❯ UV Tool Instalar ReadMeai Estibador Para ejecutar ❯ Docker Pull Zeroxeli/ReadMe-AI: Último De la fuenteHaga clic para expandir las instrucciones
Alternativamente, el proyecto se puede configurar utilizando el script bash a continuación: Intento
O use Poesía
Importante Para usar los clientes antrópicos y Google Gemini , se requieren dependencias adicionales. Instale el paquete con los siguientes extras:
? Ejecutando el CLI1. Configurar variables de entorno Con OpenAi: ❯ Exportar Operai_api_key = <Your_api_Key># o para usuarios de Windows: ❯ Establezca Operai_api_Key = <Your_api_Key> Proveedores adicionales (Ollama, Anthrope, Google Gemini)OllamaConsulte la documentación de Ollama para obtener más información sobre cómo configurar la API Ollama. Aquí hay un ejemplo básico:
Antrópico
Google Géminis
2. Generar un readme Ejecute el siguiente comando, reemplazando la URL del repositorio con la suya: ❯ READMEAI-Repository https://github.com/eli64s/readme-ai --api Openai Importante Por defecto, se utiliza el modelo Ejecutar con ❯ ReadMeai --api Ollama --Model Llama3 ---Repository https://github.com/eli64s/readme-ai Correr con ❯ ReadMeai --api Anthrope -M Claude-3-5-Sonnet-20240620 -R https://github.com/eli64s/readme-ai Ejecute con ❯ ReadMeai --api Gemini -M Gemini-1.5-flash -r https://github.com/eli64s/readme-ai Use una ruta de directorio ReadMeai -Repository/Path/To/Your/Project Agregue más opciones de personalización: ❯ ReadMeai-Repository https://github.com/eli64s/readme-ai
--output readMeai.md
-API OpenAi
-Modelo GPT-4
--Badge-Color A931EC
-Badge Style Flat-cuadrado
-compacto de estilo header
-Doble de estilo-toc
--Temperatura 0.9
--Tree-DePth 2
--image llm
-emojisEstibadorEjecute el contenedor Docker con el cliente Operai: ❯ Docker Run -it - -Rm
-e OpenAI_API_KEY = $ OPERAI_API_KEY
-v "$ (pwd)":/app zeroxeli/readme-ai: Último
-Repository https://github.com/eli64s/readme-ai
-API OpenAiDe la fuenteHaga clic para expandir las instruccionesIntentoSi instaló el proyecto desde la fuente con el script bash, ejecute el siguiente comando:
Poesía
RacionalizarPruebe ReadMe-AI directamente en su navegador, no se requiere instalación. Vea el repositorio ReadMe-AI-Streamlit para obtener más detalles. PruebasLos marcos Pytest y NOx se utilizan para el desarrollo y las pruebas. Instale las dependencias usando poesía: ❯ Instalación de poesía -con desarrollo, prueba Ejecute la suite de prueba unitaria con Pytest: ❯ Haga la prueba Ejecute la suite de prueba contra Python 3.9, 3.10, 3.11 y 3.12 usando NOX: ❯ Hacer test-nox Consejo Nox es una herramienta de automatización que automatiza las pruebas en múltiples entornos de Python. Se utiliza para garantizar la compatibilidad en diferentes versiones de Python. ConfiguraciónPersonalice su generación ReadMe utilizando estas opciones de CLI:
Ejecute el siguiente comando para ver todas las opciones disponibles: ❯ Readmeai --help Visite la documentación oficial para obtener información más detallada sobre opciones de configuración, ejemplos y mejores prácticas. EjemplosVer ejemplo de archivos ReadMe generados por ReadMe-AI en varias pilas de tecnología:
Encuentre ejemplos de lectura adicionales en el directorio de ejemplos. Hoja de ruta
Que contribuye¡Las contribuciones son bienvenidas! Lea la guía contribuyente para comenzar.
Expresiones de gratitud
Licencia Copyright © 2023 ReadMe-AI. | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||