Página de inicio | Documentación | Blog | Discordia | Gorjeo
Neum AI es una plataforma de datos que ayuda a los desarrolladores a aprovechar sus datos para contextualizar modelos de idiomas grandes a través de la generación de recuperación aumentada (RAG) Esto incluye la extracción de datos de fuentes de datos existentes como el almacenamiento de documentos y NoSQL, procesando los contenidos en integridades vectoriales e ingerir las incrustaciones vectoriales en las datos vectoriales para la búsqueda de similitud.
Le proporciona una solución integral para RAG que puede escalar con su aplicación y reducir el tiempo dedicado a integrar servicios como conectores de datos, modelos de incrustación y bases de datos vectoriales.
Puede comunicarse con nuestro equipo, ya sea por correo electrónico ([email protected]), en Discord o programando una llamada con nosotros.
Regístrese hoy en Dashboard.neum.ai. Vea nuestro inicio rápido para comenzar.
NEUM AI Cloud admite una arquitectura distribuida a gran escala para ejecutar millones de documentos a través de la incrustación de vectores. Para el conjunto completo de características, consulte: Cloud Vs Local
Instale el paquete neumai :
pip install neumaiPara crear sus primeras tuberías de datos, visite nuestros rápidos.
En un nivel alto, una tubería consta de una o múltiples fuentes para extraer datos, un conector de inserción para vectorizar el contenido y un conector de sumidero para almacenar dichos vectores. Con este fragmento de código elaboraremos todos estos y ejecutaremos una tubería:
from neumai . DataConnectors . WebsiteConnector import WebsiteConnector
from neumai . Shared . Selector import Selector
from neumai . Loaders . HTMLLoader import HTMLLoader
from neumai . Chunkers . RecursiveChunker import RecursiveChunker
from neumai . Sources . SourceConnector import SourceConnector
from neumai . EmbedConnectors import OpenAIEmbed
from neumai . SinkConnectors import WeaviateSink
from neumai . Pipelines import Pipeline
website_connector = WebsiteConnector (
url = "https://www.neum.ai/post/retrieval-augmented-generation-at-scale" ,
selector = Selector (
to_metadata = [ 'url' ]
)
)
source = SourceConnector (
data_connector = website_connector ,
loader = HTMLLoader (),
chunker = RecursiveChunker ()
)
openai_embed = OpenAIEmbed (
api_key = "<OPEN AI KEY>" ,
)
weaviate_sink = WeaviateSink (
url = "your-weaviate-url" ,
api_key = "your-api-key" ,
class_name = "your-class-name" ,
)
pipeline = Pipeline (
sources = [ source ],
embed = openai_embed ,
sink = weaviate_sink
)
pipeline . run ()
results = pipeline . search (
query = "What are the challenges with scaling RAG?" ,
number_of_results = 3
)
for result in results :
print ( result . metadata ) from neumai . DataConnectors . PostgresConnector import PostgresConnector
from neumai . Shared . Selector import Selector
from neumai . Loaders . JSONLoader import JSONLoader
from neumai . Chunkers . RecursiveChunker import RecursiveChunker
from neumai . Sources . SourceConnector import SourceConnector
from neumai . EmbedConnectors import OpenAIEmbed
from neumai . SinkConnectors import WeaviateSink
from neumai . Pipelines import Pipeline
website_connector = PostgresConnector (
connection_string = 'postgres' ,
query = 'Select * from ...'
)
source = SourceConnector (
data_connector = website_connector ,
loader = JSONLoader (
id_key = '<your id key of your jsons>' ,
selector = Selector (
to_embed = [ 'property1_to_embed' , 'property2_to_embed' ],
to_metadata = [ 'property3_to_include_in_metadata_in_vector' ]
)
),
chunker = RecursiveChunker ()
)
openai_embed = OpenAIEmbed (
api_key = "<OPEN AI KEY>" ,
)
weaviate_sink = WeaviateSink (
url = "your-weaviate-url" ,
api_key = "your-api-key" ,
class_name = "your-class-name" ,
)
pipeline = Pipeline (
sources = [ source ],
embed = openai_embed ,
sink = weaviate_sink
)
pipeline . run ()
results = pipeline . search (
query = "..." ,
number_of_results = 3
)
for result in results :
print ( result . metadata ) from neumai . Client . NeumClient import NeumClient
client = NeumClient (
api_key = '<your neum api key, get it from https://dashboard.neum.ai' ,
)
client . create_pipeline ( pipeline = pipeline )Si está interesado en implementar Neum AI en su propia nube, contáctenos en [email protected].
Tenemos una arquitectura de backend de muestra publicada en GitHub que puede usar como punto de partida.
Para una lista actualizada, visite nuestros documentos
Nuestra hoja de ruta está evolucionando con solicitaciones, por lo que si falta algo, siéntase libre de abrir un problema o enviarnos un mensaje.
Conectores
Buscar
Extensibilidad
Experimental
Las herramientas adicionales para Neum AI pueden encontrar aquí: