CMS sans serveur ( juste du texte brut !!! ) basé sur Markdown avec des extensions pour la classification de la taxonomie multidimensionnelle, permettant de naviguer dans le contenu en fonction des sujets (axes) et des sous-thèmes (coordonnées).
Ces projets visent à fournir un outil facile à utiliser pour la gestion de la «longue durée de vie» (années ou dizaines d'années).
Recommandé de stocker et de classer en toute sécurité le travail de recherche (PhD), de documentation logicielle complexe, de procédures complexes, de rédaction de livres, de pages Web "industrielles". Quelques exemples pour l'impatient:
Étant donné que le contenu est tout simplement du texte (vs un format de base de données binaire étrange), cela signifie que de nombreux outils peuvent être réutilisés pour modifier et gérer le contenu en suivant la "Faire une chose et faites-le correctement!" Philosophie Unix.
Les prochaines fonctionnalités viennent gratuitement:
┌──────────────────────────────────────────────────────────────┐
├─ CONVENTIONAL CMS (CONFLUENCE, SHAREPOINT, ...) ────────────┤
├──────────────────────────────────────────────────────────────┤
│ │
│1) Central CMS Server 2) "Fool" Browser │
│ ────────────────── ────────────────│
│ DDBB <··· network···> Render conent │
│ Single place of failure │
│ (single place of attack) │
│ Binary format │
│ Server/CMS/Network Admins │
│ │
├──────────────────────────────────────────────────────────────┤
├─ STATIC SITE GENERATOR (NEXT, ...) ─────────────────────────┤
├──────────────────────────────────────────────────────────────┤
│ │
│1) "Source" Content 3) Web Server │
│ ───────────────── ┌····> ──────────── ···┐ │
│ (git versioned, p2p · Publish · │
│ distributed) · "compiled" html · │
│ · · · │
│ · · · │
│ · · v │
│ · 2) Compile 4)"Fool" Browser │
│ └─····> ───────────────── ────────────── │
│ Generates HTML Render content │
│ in opinionated ways │
│ using "complex" tooling │
│ (npm, transpilers, modules, │
│ packagers, ...) │
│ │
├──────────────────────────────────────────────────────────────┤
├─ TXT WORLD DOMINATION PROJECT ──────────────────────────────┤
├──────────────────────────────────────────────────────────────┤
│ │
│1) "Source" Content 2) "Inteligent" Browser │
│ ───────────────────────── ··> ─────────────────────────── │
│ markdown+topic.sub. tags Fetch local/remote "payload"│
│ (git versioned, p2p Processes it. Generate │
│ distributed) HTML, taxonomy, indexes, │
│ · extensions, ... │
│ · │
│ ├─·· or ··········>2) Printer │
│ · ─────────────────────────── │
│ · Print to paper │
│ · (extensions ignored) │
│ · │
│ ├─·· or ··········>2) LLM Learning Algorithm │
│ · ─────────────────────────── │
│ · - LLM training algorithm. │
│ · topics/subtopics provide │
│ · (huge) dimensionality │
│ · reduction!!! │
│ · │
│ ├─·· or ···········>2) JAVA/Rust/Python/... IDE │
│ · ─────────────────────────── │
│ · Improve source code │
│ · navigation based on │
│ · topics.subtopics concerns │
│ · like UI, QA, security, .... │
│ · │
│ ├─·· or ···········>2) (Fill with new ideas and │
│ · use-cases) │
└──────────────────────────────────────────────────────────────┘
Les ensembles ou les sous-ensembles de fichiers texte (Markdown, code source) peuvent être regroupés en un seul "grand" fichier virtuel final via des listes de "charge utile". La liste est juste un fichier TXT normal indiquant sur une nouvelle ligne la liste des fichiers de démarrage à concaténer afin de former le document final Markdown. Exemple:
full_book.payload security_book.payload frontend_book.payload
----------------- --------------------- ---------------------
./introduction.md ./chapter4.md ./chapter1.md
./chapter1.md ./chapter5.md ./chapter2.md
./chapter2.md ./chapter9.md ./chapter9.md
./chapter3.md
./chapter4.md
./chapter5.md
./chapter6.md
./chapter7.md
./chapter8.md
./chapter9.md
Juste quelques exemples sur la façon dont ce projet est utilisé pour documenter la documentation du monde réel:
Pourquoi prendre des notes à l'ère de l'apprentissage automatique et de grands modèles de langue?
Mettez simplement. Ils se complètent:
L'IA fonctionne "Fine" lorsqu'elle est appliquée à des contextes limités (pas nécessairement petits), par exemple, des tâches de programmation de base ou des tâches de type mathématique (pas si basiques) avec un ensemble et des opérations bien définis (problèmes algébriques, problèmes d'échecs, ...).
Je travaille dans le monde du développement de logiciels. Permettez-moi de résumer mon expérience:
De l'autre côté, lorsque nous prenons des notes d'experts, nous pouvons marquer des produits concurrents, mettre en évidence les avantages / inconvénients, prendre des feuilles de triche, annoter avec des cas d'utilisation, des fonctionnalités en attente, des trucs comme ça.
Nous pouvons récupérer des "informations" et compléter une note précédente (peut-être écrite il y a 4 ans) afin que le contenu incomplet commence à "avoir un sens". Enfin, nous pouvons prendre des décisions beaucoup plus sensées.
Il est possible grâce à l'ingénierie rapide avancée de rendre les réponses sensibles à retour sur l'IA .. mais l'ingénierie rapide avancée est beaucoup plus difficile et prend du temps à prendre et à classer les notes . En fait, je dirais que prendre et classer les notes, créant une taxonomie bien définie et stable est un "must" pour une ingénierie rapide "avancée" .
Nous pouvons demander à un bot LLM de résoudre une tâche et plusieurs fois cela fonctionnera. Certaines questions se posent:
Nous demandons le LLM parce que nous ignorons la solution en premier lieu, nous ignorons donc probablement des solutions alternatives et nous ignorons probablement beaucoup d'autres choses (rappelez-vous le risque des inconnues inconnues .). Si nous prenons des notes sur les tâches connexes et les alternatives connexes pour des problèmes similaires, nous pouvons désormais ajouter de ces informations à notre invite et nous pouvons également envisager de remplir des aspects "orthogonaux" (QA, sécurité, standarisation, meilleurs modèles, ...). De cette façon, nous aidons le LLM à réduire la dimensionnalité du problème et notre invite sera une invite beaucoup plus efficace.
Il estsible de dire qu'un LLM peut également nous aider à concevoir notre taxonomie en suggérant des sujets et des sous-thèmes. En ce sens, les deux systèmes peuvent se nourrir mutuellement dans une boucle infinie. Super, n'est-ce pas?