chatgpt patterns
1.0.0

L'objectif est que ce référentiel est d'évaluer et d'étendre le framework de données de l'API , Langchain et Llamaindex pour créer des applications. Ces techniques incluent
| Emballer | Version |
|---|---|
| python | 3.9.16 |
| torche | 2.0.1 |
| Openai | 0,27.1 |
| matplotlib | 3.7.1 |
| scikit-apprend | 1.2.2 |
| nombant | 1.24.3 |
| pandas | 2.0.2 |
| lubriole | 0.0.227 |
| polaires | 0.17.0 |
| fastapi | 0,97.0 |
| index lama | 0.7.4 |
| Date | Version |
|---|---|
| 06.07.2023 | 0.1 |
| 06.18.2023 | 0,2 |
| Emballer | Description |
|---|---|
| user | Classe de services publics |
| Openai | Cours liés à l'utilisation et à un réglage fin pour le chatppt |
| llm_langchain | Classes liées au chargeur, au séparateur, à la chaîne et aux agents utilisant le cadre de Langchain |
| llm_llama | Cours liés à la chaîne et aux agents à l'aide du cadre Llamaindex |
| domaine | Code d'application cible spécifique au domaine à des fins de test |
À partir du papier séminal "Un catalogue de motifs rapides pour améliorer l'ingénierie rapide avec Chatgpt".
| Nom | Aperçu | Déclarations contextuelles |
|---|---|---|
| Personnage | Personnalisation de la sortie Attribuez un expert en personnage, rôle ou domaine à LLM. Le personnage peut être exprimé comme un rôle, une description de poste, un titre, une figure historique ou connue. | - J'aimerais que vous me posiez des questions pour réaliser X. - Vous devez poser des questions jusqu'à ce que X soit atteint ou que la condition X soit remplie. Posez-moi des questions concernant X One à l'époque. |
| Modèle | Personnalisation de la sortie Assurez-vous que la sortie suit un modèle précis (c.-à-d. Format, URL, exemple…). Ce modèle demande à LLM d'utiliser un format unique dans une partie spécifique de la réponse. | Je vais vous fournir un modèle pour votre sortie X est mon porte-lieu pour le contenu Essayez d'adapter la sortie dans un ou plusieurs espaces réservés que j'ai énumérés Veuillez préserver le formatage et le modèle que j'ai fourni Voici le modèle à suivre: Modèle avec l'espace réservé. |
| Liste de vérification des faits | Identification des erreurs Demandez à LLM de fournir / ajoute une liste de faits / hypothèses à la réponse, afin que l'utilisateur puisse effectuer la diligence. | Générer un ensemble de faits contenus dans la sortie L'ensemble des faits doit être inséré / annexé à la sortie L'ensemble des faits devrait être les faits fondamentaux qui pourraient saper la véracité de la production si l'un d'eux est incorrect. |
| Réflexion | Identification des erreurs Demandez à LLM d'expliquer automatiquement la justification derrière une réponse donnée à l'utilisateur. Le modèle clarifie tous les points de confusion, les hypothèses sous-jacentes, les lacunes dans les connaissances…. | Chaque fois que vous générez une réponse, expliquez le raisonnement et les hypothèses derrière votre réponse, afin que je puisse améliorer ma question. |
| Automatique | Personnalisation de la sortie Le fait que LLM génère un script ou une tâche automatisée qui peut être exécuté toutes les étapes que LLM recommande. | Chaque fois que vous produisez une sortie avec des étapes, faites-le toujours. Produisez un artefact exécutable de type X qui automatisera ces étapes. |
| Générateur de visualisation | Personnalisation de la sortie Utilisez du texte généré pour créer une visualisation car les concepts complexes sont plus faciles à saisir avec des diagrammes et des images. La sortie LLM doit créer une voie pour l'outil pour produire des images. | Générez un X que je peux fournir à l'outil Y pour le visualiser. |