¡Adiós a todos!
Como habrás notado, el paisaje de LLMS ha cambiado drásticamente en los últimos meses. Con la introducción de modelos con la friolera de más de 100,000 tokens de memoria de contexto y los grandes jugadores como OpenAi, Google y Anthrope Integing Rag directamente en sus sitios web oficiales, creo que este repositorio ha cumplido su propósito.
También me he centrado en otros proyectos y priorizando mi vida personal y mi bienestar mental. Como resultado, no he podido dedicar tiempo a actualizar este repositorio, lo cual es evidente por la falta de comodidades en los últimos meses.
Mirando hacia atrás, este repositorio se creó inicialmente para abordar las limitaciones del contexto 4096 GPT-3, ya que ese tamaño de contexto era simplemente demasiado pequeño. Sin embargo, con los avances en LLM y la aparición de mejores GUI, creo que el contexto superior ahora es preferible a usar incrustaciones para el trapo.
Si está buscando algunas GUI de LLM increíbles, estas son mis principales recomendaciones:
(¿Por favor no desestrendas este repositorio?)
¡Ejecute gpt-3.5-turbo o cualquier otro modelo GPT ( text-davinci-003 ) con este programa!
Use gpt-4 o gpt-4-32k para usar los nuevos modelos GPT-4 si tiene acceso.
Puede cambiar modelos en el archivo config.json .
Es como https://chat.openai.com/ pero en su CMD y mejor (en términos de memoria).
¡Puede agregar indicaciones iniciales personalizadas y guardar/cargar su historial de chat!
Descargue y haga doble clic en GPT3Bot.exe o run.bat ¡Bat para ejecutar el programa!
En Linux y MacOS, puede ejecutar ./GPT3Bot para ejecutar el programa.
Haga clic para descargar: lanzamiento estable | Desarrollo de desarrollo
Consulte el wiki para obtener más información: haga clic en mí
debug_reference en true en config.json !/stop para terminar y guardar el chat./undo para deshacer su último mensaje./reset para restablecer su chat completo./dump para volcar su historial de chat a un archivo .txt dentro de la carpeta dump ./stop , el programa le pedirá que ingrese el nombre de archivo para guardar. Puede presionar ENTER directamente para omitir esto y no guardar el chat. Si ingresa cualquier otro texto y luego presiona Entrar, el chat se guardará en un JSON en la carpeta "guardada". Cuando abra el programa la próxima vez, simplemente puede ingresar "S" (lo que significa guardado), presione ENTER, luego escriba el nombre del archivo JSON del chat guardado para cargar su chat guardado.config.json , se puede modificar fácilmente.Escrito en C ++ (Bibliotecas utilizadas: Boost, Curl, Nlohmann/JSON, LibProxy, CPP-terminal, FTXUI, ONETBB, Clip, CPP-Tiktoken, PCRE2, UTF8Proc)