Source du document juridique: https://github.com/lawrefbook/laws
Modèle de projet: https://github.com/supabase-community/nextjs-openai-doc-search
Ce projet prend tous les fichiers .mdx dans le répertoire pages et les transforme en un contexte personnalisé à utiliser dans les invites d'observation automatique de texte OpenAI.
![]() Assistant d'écriture intelligente | ![]() Encyclopédie IA | ![]() Générateur rapide |
![]() Expert en traduction de l'IA | ❤️ Récompense et parrainage ❤️ |
Déployez ce démarreur à Vercel. L'intégration Supabase définit automatiquement les variables d'environnement requises et configure votre profil de base de données. Il vous suffit de définir OPENAI_KEY et vous êtes prêt à partir!
L'affiche est trop paresseuse, grâce à Gojun d'avoir aidé à écrire le tutoriel: https://eibot3u32o.feishu.cn/docx/l46pdp3fjoupuvxanzpckkctno3
La construction de votre propre chatpt personnalisé implique quatre étapes:
pages .mdx Les étapes 1 et 2 se produisent au moment de la construction, comme lorsque Vercel construit votre application suivante.js. À l'heure actuelle, le script generate-embeddings est exécuté, qui effectue les tâches suivantes:
séquenchestre
participant Vercel
DB participant (PGVector)
Participant Openai (API)
Boucle 1. Base de connaissances de prétraitement Vercel - >> Vercel: Divisez la page .mdx en parties Loop 2. Créer et stocker ENCHED Vercel - >> Openai (API): Créer Embed Openai (API) pour la partie de la page - >> Vercel: Vector intégré (1536)
Vercel - >> DB (PGVector): ENCRIPTION DE LA PAGE DE PAGE
fin
En plus de stocker les vecteurs d'intégration, ce script génère une somme de contrôle pour chaque fichier .mdx et le stocke dans une autre table de base de données pour s'assurer que les vecteurs d'intégration ne sont régénérés que si le fichier change.
Les étapes 3 et 4 se produisent au moment de l'exécution, c'est-à-dire lorsque l'utilisateur soumet le problème. Lorsque cela se produit, effectuez la série de tâches suivantes:
séquenchestre
client de participant
Fonction Edge du participant
DB participant (PGVector)
Participant Openai (API)
Client - >> Fonction Edge: {Query: Lorem Ispum}
Critique 3. Effectuer la fonction de recherche de recherche de similitude vectorielle - >> OpenAI (API): Créez un OpenAI intégré (API) pour une requête - >> Fonction Edge: Vector Embed (1536)
Fonction Edge - >> DB (PGVector): Vector Simility Search DB (PGVector) - >> Fonction Edge: Contenu du document associé Fin
Critique 4. Injecter le contenu dans la fonction de bord invite - >> OpenAI (API): Invite complète de la demande: requête + Contenu du document connexe OpenAI (API) - >> Client: Texte / Stream d'événements: Achèvement automatique de la fin de la réponse
Il s'agit du fichier pertinent responsable SearchDialog(客户端) et vector-search(边缘函数) .
L'initialisation de la base de données, y compris les paramètres de pgvector , est stockée dans supabase/migrations et est automatiquement appliquée à l'instance PostgreSQL locale lorsque supabase start est exécuté.
cp .env.example .envOPENAI_KEY dans le fichier .env nouvellement créé.Assurez-vous que Docker est installé et en cours d'exécution localement. Puis courez
npx supabase startExécuter dans une nouvelle fenêtre de terminal
pnpm dev Déployez simplement ce démarreur à Vercel. L'intégration Supabase définit automatiquement les variables d'environnement requises et configure votre schéma de base de données. Il vous suffit de définir OPENAI_KEY et de commencer!
此文件由 ChatGPT 提供翻译