Une collection WIP d'invites raffinées, denses, nouvelles et / ou exceptionnelles pour les modèles de grande langue réglés par l'instruction, en particulier le modèle hérité de GPT-4 et Chatgpt.
Beaucoup sont des projets en eux-mêmes - des programmes en langage naturel pour lesquels Chatgpt sert de frontend décent. Les invites sont généralement structurées dans un format de type PSUeDocode à la netteté (inséré en tant que message utilisateur); Plus à ce sujet plus tard.
![]() |
|---|
| Frontend Gradio |
Les nouveaux utilisateurs opérant LLMS via des interfaces comme Chatgpt peuvent observer le modèle faisant un travail décent à excellent pour effectuer des tâches de base ou complexes lorsqu'elles sont données de question / instructions simples, mais souvent les sorties sont terne, et non pour la faute du modèle.
Ce projet cherche à démontrer que la qualité et la présentation du langage naturel (et parfois pas si naturel) fournie à un modèle influencent considérablement la qualité de ses résultats.
Collectivement, nous n'avons à peine exploité le potentiel de GPT-3, et nous sommes incroyablement loin d'atteindre les GPT-4.
Les invites dans cette bibliothèque sont des programmes en langage naturel (à la fois dans leur structure littérale / écrite et dans l'échelle et la valeur exponentielle de leurs sorties) qui agissent sur les concepts et les données, représentées comme du texte.
Le projet sert de base aux outils et aux services publics à construire au fil du temps pour les explorateurs, les développeurs, les travailleurs du savoir et éventuellement le grand public.
(coming soon)