Aliciter la liste de lecture de l'apprentissage automatique
But
Le but de ce programme est d'aider les nouveaux employés à apprendre des antécédents dans l'apprentissage automatique, en mettant l'accent sur les modèles de langue. J'ai essayé de trouver un équilibre entre les articles pertinents pour le déploiement de la ML dans la production et les techniques qui comptent pour une évolutivité à plus long terme.
Si vous ne travaillez pas encore chez ELICT - nous embauchons des ingénieurs ML et logiciels.
Comment lire
Ordre de lecture recommandée:
- Lisez «Tier 1» pour tous les sujets
- Lisez «Tier 2» pour tous les sujets
- Etc
Ajouté après 2024/4/1
Table des matières
- Fondamentaux
- Introduction à l'apprentissage automatique
- Transformateurs
- Architectures de modèle de fondation clés
- Formation et Finetuning
- Raisonnement et stratégies d'exécution
- Raisonnement en contexte
- Décomposition des tâches
- Débat
- Utilisation et échafaudage d'outils
- Honnêteté, factualité et épistémiques
- Applications
- Science
- Prévision
- Recherche et classement
- ML dans la pratique
- Déploiement de la production
- Repères
- Ensembles de données
- Sujets avancés
- Modèles mondiaux et causalité
- Planification
- Incertitude, étalonnage et apprentissage actif
- Interprétabilité et modification du modèle
- Apprentissage du renforcement
- La vue d'ensemble
- Échelle AI
- Sécurité d'IA
- Impacts économiques et sociaux
- Philosophie
- Maintienneur
Fondamentaux
Introduction à l'apprentissage automatique
Niveau 1
- Une courte introduction à l'apprentissage automatique
- Mais qu'est-ce qu'un réseau neuronal?
- Descente de gradient, comment les réseaux de neurones apprennent
Niveau 2
- Une compréhension intuitive de la rétro-épropagation
- Que fait vraiment la rétropropagation?
- Une introduction à l'apprentissage en renforcement profond
Niveau 3
- L'introduction orthographiée aux réseaux de neurones et à la rétro-propagation: construire un micrograd
- Calcul de rétropropagation
Transformateurs
Niveau 1
- Mais qu'est-ce qu'un GPT? Intro visuelle aux transformateurs
- L'attention dans les transformateurs, expliquée visuellement
- Attention? Attention!
- Le transformateur illustré
- Le GPT-2 illustré (visualiser les modèles de langue transformateur)
Niveau 2
- Construisons le tokenizer GPT
- Traduction de machine neurale en apprenant conjointement à aligner et à traduire
- Le transformateur annoté
- L'attention est tout ce dont vous avez besoin
Niveau 3
- Une enquête pratique sur les transformateurs plus rapides et plus légers
- Tabpfn: un transformateur qui résout de petits problèmes de classification tabulaire dans une seconde
- GROKKING: Généralisation au-delà de la sur-ajustement sur les petits ensembles de données algorithmiques
- Un cadre mathématique pour les circuits de transformateur
Tier 4+
- Capacités de composition des transformateurs autorégressifs: une étude sur les tâches synthétiques et interprétables
- Mémoriser les transformateurs
- Les couches d'alimentation transformateur sont des souvenirs de valeur clé
Architectures de modèle de fondation clés
Niveau 1
- Les modèles de langue sont des apprenants multitâches non surveillés (GPT-2)
- Les modèles de langue sont des apprenants à quelques coups (GPT-3)
Niveau 2
- LLAMA: Modèles de langue de base ouverts et efficaces (LLAMA)
- Modélisation efficace de longues séquences avec des espaces d'état structurés (vidéo) (S4)
- Exploration des limites de l'apprentissage du transfert avec un transformateur de texte à texte unifié (T5)
- Évaluation de modèles de grandes langues formés sur le code (Openai Codex)
- Modèles de langue de formation pour suivre les instructions avec les commentaires humains (Openai Instruct)
Niveau 3
- Mistral 7b (Mistral)
- Mixtral d'experts (mixtral)
- Gémeaux: une famille de modèles multimodaux hautement capables (Gémeaux)
- Mamba: modélisation de séquences linéaires avec des espaces d'état sélectifs (Mamba)
- Échelle des modèles de langage au plateau d'instructions (Flan)
Tier 4+
- Modèles de cohérence
- Carte de modèle et évaluations pour les modèles Claude (Claude 2)
- Olmo: accélérer la science des modèles de langue
- Rapport technique de Palm 2 (Palm 2)
- Les manuels sont tout ce dont vous avez besoin II: PHI-1.5 Rapport technique (PHI 1.5)
- Réglage de l'instruction visuelle (llava)
- Un assistant de langue générale en tant que laboratoire d'alignement
- Les modèles de langage finetuned sont des apprenants à tirs zéro (Google Instruct)
- GALACTICA: un modèle grand langage pour la science
- Lamda: modèles de langue pour les applications de dialogue (boîte de dialogue Google)
- OPT: Open Modèles de langue transformatrice pré-formés (Meta GPT-3)
- PAMPE: Modélisation du langage à l'échelle avec voies (palmier)
- Synthèse du programme avec des modèles de grands langues (Google Codex)
- Modèles de langage d'échelle: méthodes, analyse et perspectives de la formation Gopher (Gopher)
- Résoudre des problèmes de raisonnement quantitatif avec les modèles de langue (Minerva)
- UL2: paradigmes d'apprentissage des langues unificatrices (UL2)
Formation et Finetuning
Niveau 2
- Programmes de tense
- Apprendre à résumer avec les commentaires humains
- Formation des vérificateurs pour résoudre les problèmes de mots mathématiques
Niveau 3
- Modèles de langue pré-entraînement avec des préférences humaines
- Généralisation faible à forte: susciter de fortes capacités avec une supervision faible
- Un réglage fin à quelques coups de paramètres est meilleur et moins cher que l'apprentissage dans le contexte
- LORA: Adaptation de faible rang des modèles de grandes langues
- Traduction de machine neuronale non surveillée avec des modèles de langage génératifs uniquement
Tier 4+
- Au-delà des données humaines: la mise à l'échelle de l'auto-entraînement pour la résolution de problèmes avec les modèles de langues
- Améliorer la génération de code en s'entraînant avec la rétroaction du langage naturel
- La modélisation du langage est une compression
- Lima: moins c'est plus pour l'alignement
- Apprendre à comprimer les invites avec les jetons GIST
- Perdu au milieu: comment les modèles de langue utilisent de longs contextes
- Qlora: Fintuning efficace des LLM quantifiés
- Quiet-Star: les modèles de langue peuvent s'apprendre à réfléchir avant de parler
- Auto-formation renforcé (reste) pour la modélisation du langage
- Résoudre la géométrie des Olympiades sans manifestations humaines
- Dites, ne montrez pas: les faits déclaratifs influencent la façon dont les LLM se généralisent
- Les manuels sont tout ce dont vous avez besoin
- Tinystories: Quelle est la petite langue des modèles de langue et parle toujours un anglais cohérent?
- Modèles de langue de formation avec rétroaction du langage à grande échelle
- Transformateurs complets Turing: deux transformateurs sont plus puissants qu'un
- BYT5: Vers un avenir sans jeton avec des modèles d'octets pré-formés
- Les propriétés de distribution de données entraînent l'apprentissage émergent dans le contexte dans les transformateurs
- Diffusion-lm améliore la génération de texte contrôlable
- Ernie 3.0: les connaissances à grande échelle améliorées pré-formation pour la compréhension et la génération du langage
- Formation efficace des modèles de langue pour remplir le milieu
- Ext5: Vers une échelle extrême multi-tâches pour l'apprentissage du transfert
- Préfixe-réglage: optimisation des invites continues pour la génération
- Auto-attention entre points de données: aller au-delà des paires individuelles d'entrée-sortie dans l'apprentissage en profondeur
- Vraie-shot apprentissage avec des invites - une perspective du monde réel
Raisonnement et stratégies d'exécution
Raisonnement en contexte
Niveau 2
- Chaîne de pensée L'incitation suscite un raisonnement dans des modèles de grande langue
- Les grands modèles de langue sont des raisonneurs à tirs zéro (pensons étape par étape)
- L'auto-cohérence améliore le raisonnement de la chaîne dans les modèles de langues
Niveau 3
- Raisonnement de la chaîne de pensées sans inciter
- Pourquoi penser étape par étape? Le raisonnement émerge de la localité de l'expérience
Tier 4+
- Baldur: Génération et réparation entièrement imperméables avec de grands modèles de langue
- La formation de cohérence au biais réduit le raisonnement biaisé dans la chaîne de pensées
- Raisonnement certifié avec des modèles de langue
- Recherche d'hypothèses: raisonnement inductif avec les modèles de langue
- LLMS et l'abstraction et le raisonnement corpus: succès, échecs et importance des représentations basées sur les objets
- Les modèles de grandes langues ne peuvent pas encore corriger le raisonnement
- Stream of Search (SOS): Apprendre à rechercher dans la langue
- Formation de la chaîne de pensée via une inférence la latente variable
- Repenser le rôle des démonstrations: qu'est-ce qui fait du travail d'apprentissage en contexte?
- Compétition de la forme de surface: pourquoi la réponse la plus élevée de probabilité n'est pas toujours bonne
Décomposition des tâches
Niveau 1
- Superviser le processus, pas les résultats
- Superviser les apprenants forts en amplifiant les experts faibles
Niveau 2
- Arbre de pensées: résolution de problèmes délibérée avec de grands modèles de langue
- Cognition factorisée
- Distillation et amplification itérées
- Résumer récursivement des livres avec des commentaires humains
- Résoudre les problèmes de mots mathématiques avec les commentaires basés sur les processus et les résultats
Niveau 3
- Vérification prise en compte: détection et réduction de l'hallucination dans les résumés des documents académiques
- Raisonnement fidèle en utilisant de grands modèles de langue
- Les humains consultant HCH
- Décomposition itérée: améliorer les questions et réponses scientifiques en supervisant les processus de raisonnement
- Cascades du modèle de langue
Tier 4+
- Décontextualisation: faire des phrases autonomes
- Amorce cognitive factorisée
- Graphique des pensées: résoudre des problèmes élaborés avec de grands modèles de langue
- PARLE: Un cadre de langue naturelle unifiée pour le raisonnement algorithmique
- Chaînes d'IA: interaction humaine-AI transparente et contrôlable par le chainage des invites de modèle de langue
- Remettre en question les tâches de gros banc et si la chaîne de pensées peut les résoudre
- Évaluer les arguments une étape à la fois
- La moindre incitation la plus la plus importante permet un raisonnement complexe dans des modèles de langue importants
- Invite maieutique: raisonnement logiquement cohérent avec des explications récursives
- Mesurer et rétrécir l'écart de compositionnalité dans les modèles de langues
- PAL: Modèles linguistiques assistés par le programme
- React: Synergie Raisonnement et Agissant dans les modèles de langues
- Indication de sélection: exploiter des modèles de grande langue pour le raisonnement logique interprétable
- Montrez votre travail: ScratchPads pour le calcul intermédiaire avec des modèles de langue
- Summer ^ n: un cadre de résumé en plusieurs étapes pour les dialogues et documents de longues entrées
- Thinksum: raisonnement probabiliste sur les ensembles utilisant de grands modèles de langue
Débat
Niveau 2
- Sécurité de l'IA via le débat
Niveau 3
- Le débat aide à superviser les experts peu fiables
- Le débat à deux tours n'aide pas les humains à répondre aux questions de compréhension en lecture dure
Tier 4+
- Sécurité de l'IA évolutive via un débat doublement efficace
- Amélioration de la factualité et du raisonnement dans les modèles de langues grâce à un débat multi-agents
Utilisation et échafaudage d'outils
Niveau 2
- Mesurer l'impact des améliorations post-formation
- Webgpt: réponses aux questions assistées par le navigateur avec commentaires humains
Niveau 3
- Les capacités de l'IA peuvent être considérablement améliorées sans recyclage coûteux
- Découverte de modèle statistique automatisée avec des modèles de langue
Tier 4+
- DSPY: Compilation du modèle de langue déclarative appelle les pipelines auto-améliorées
- Promptbreeder: auto-amélioration auto-référentielle via une évolution rapide
- Optimiseur autodidacte (arrêt): génération de code auto-améliorante récursive
- Voyager: un agent incarné à extrémité ouverte avec de grands modèles de langue
- Regal: Refactoring Programs pour découvrir les abstractions généralisables
Honnêteté, factualité et épistémiques
Niveau 2
- Modèles d'autocritique pour aider les évaluateurs humains
Niveau 3
- Quelles preuves les modèles linguistiques trouvent-ils convaincants?
- Comment attraper un AI LIAR: la détection de mensonge dans les LLMS Black-Box en posant des questions sans rapport
Tier 4+
- Les modèles linguistiques ne disent pas toujours ce qu'ils pensent: des explications infidèles en chaîne de réflexion
- Factualité longue dans les modèles de grande langue
Applications
Science
Niveau 3
- Les modèles de grands langues peuvent-ils fournir des commentaires utiles sur les documents de recherche? Une analyse empirique à grande échelle
- Les modèles de grandes langues codent les connaissances cliniques
- L'impact des grands modèles de langue sur la découverte scientifique: une étude préliminaire utilisant GPT-4
- Un ensemble de données de questions et réponses de recherche d'informations ancrées dans des articles de recherche
Tier 4+
- Les modèles de fondation généraliste peuvent-ils dépasser le réglage à usage spécial? Étude de cas en médecine
- Nougat: compréhension optique neurale des documents académiques
- SCIM: Soutien de l'écrémage intelligent pour les articles scientifiques
- Synergpt: apprentissage en contexte pour la prédiction de synergie de médicaments personnalisés et la conception de médicaments
- Vers un diagnostic différentiel précis avec des modèles de langues importants
- Vers une référence pour la compréhension scientifique chez l'homme et les machines
- Un moteur de recherche pour la découverte de défis et de directions scientifiques
- Un examen systématique complet a été achevé en 2 semaines à l'aide d'outils d'automatisation: une étude de cas
- Fait ou fiction: vérification des allégations scientifiques
- Multi-Xscience: un ensemble de données à grande échelle pour une résumé à plusieurs documents à plusieurs documents d'articles scientifiques
- Peer: un modèle de langue collaborative
- PubMedqa: un ensemble de données pour la question de recherche biomédicale répondant
- SCICO: CoreFerence hiérarchique inter-documents pour les concepts scientifiques
- Scitail: un ensemble de données d'implication textuelle de la question de la question scientifique répondant
Prévision
Niveau 3
- Prédictions AI-Augmentation: les assistants LLM améliorent la précision des prévisions humaines
- Approchant des prévisions de niveau humain avec des modèles de langue
- Les transformateurs sont-ils efficaces pour les prévisions de séries chronologiques?
- Prévision des événements mondiaux futurs avec des réseaux de neurones
Recherche et classement
Niveau 2
- Apprendre des représentations denses des phrases à grande échelle
- Texte et code incorporés par pré-formation contrastive (openai embeddings)
Niveau 3
- Les modèles de grandes langues sont des rangs de texte efficaces avec un classement par paire
- Toutes les bases de données vectorielles ne sont pas égales
- Royaume: Modèle de langue de la récupération Pré-formation
- Génération auprès de la récupération pour les tâches NLP à forte intensité de connaissances
- Récupération de la tâche avec des instructions
Tier 4+
- RANKZEPHYR: Le rediffusion efficace et robuste de la liste zéro est un jeu d'enfant!
- Quelques erreurs courantes dans l'évaluation IR et comment ils peuvent être évités
- Boosting des moteurs de recherche avec des agents interactifs
- Colbert: Recherche de passage efficace et efficace via une interaction tardive contextualisée sur Bert
- Aller au-delà de la précision des tâches en aval pour la récupération d'informations.
- UnifiedQA: Crossing Format Limites avec un seul système QA
ML dans la pratique
Déploiement de la production
Niveau 1
- Apprentissage automatique à Python: développements principaux et tendances technologiques en science des données, apprentissage automatique et IA
- Apprentissage automatique: la carte de crédit à intérêt élevé de la dette technique
Niveau 2
- Concevoir des applications à forte intensité de données
- Une recette pour la formation de réseaux de neurones
Repères
Niveau 2
- GPQA: une benchmark à l'épreuve des questions-réponses sur Google au niveau des diplômés Google
- SWE-BENCH: Les modèles de langue peuvent-ils résoudre les problèmes de github réels?
- Vérirfulqa: mesurer comment les modèles imitent les mensonges humains
Niveau 3
- FLEX: Évaluation unificatrice de NLP à quelques coups
- Évaluation holistique des modèles linguistiques (HELM)
- Mesurer une compréhension massive du langage multitâche
- Radeau: une référence réelle de classification de texte à quelques coups
- Vraie-shot apprentissage avec des modèles de langue
Tier 4+
- Gaia: une référence pour les assistants généraux de l'IA
- ConditionalQA: un ensemble de données complexe de compréhension en lecture avec des réponses conditionnelles
- Mesurer la résolution de problèmes mathématiques avec l'ensemble de données mathématiques
- Qualité: Question répondant avec de longs textes d'entrée, oui!
- Scrolls: comparaison standardisée sur les séquences de langage long
- Que faudra-t-il pour réparer l'analyse comparative dans la compréhension du langage naturel?
Ensembles de données
Niveau 2
- Rampe
- La pile: un ensemble de données de 800 Go d'un texte diversifié pour la modélisation du langage
Niveau 3
- INSPESION DE LA LOGAGE: transformer les documents en dialogue
- Mme Marco: un ensemble de données de compréhension de la lecture de machines générées par l'homme
- Graphique académique Microsoft
- TLDR9 +: une ressource à grande échelle pour un résumé extrême des publications sur les réseaux sociaux
Sujets avancés
Modèles mondiaux et causalité
Niveau 3
- Représentations mondiales émergentes: explorer un modèle de séquence formé sur une tâche synthétique
- Des modèles de mots aux modèles mondiaux: traduire du langage naturel à la langue probabiliste de la pensée
- Les modèles de langue représentent l'espace et le temps
Tier 4+
- Amortir une inférence intraitable dans les modèles de grande langue
- CLADDER: Évaluation du raisonnement causal dans les modèles de langues
- Optimisation bayésienne causale
- Raisonnement causal et modèles de langue importants: ouvrir une nouvelle frontière pour la causalité
- Agents génératifs: Simulacra interactive du comportement humain
- Apprentissage passif des stratégies de causalité actives dans les agents et les modèles de langue
Planification
Tier 4+
- Au-delà de A *: meilleure planification avec Transformers via la dynamique de recherche Bootstrapage
- Architectures cognitives pour les agents linguistiques
Incertitude, étalonnage et apprentissage actif
Niveau 2
- Les experts ne trichent pas: apprendre ce que vous ne savez pas en prédisant les paires
- Une simple base de référence pour l'incertitude bayésienne dans l'apprentissage en profondeur
- Plex: vers la fiabilité en utilisant des extensions de grandes modèles prédéfinies
Niveau 3
- Inférence de préférence active à l'aide de modèles de langue et de raisonnement probabiliste
- Provoquer des préférences humaines avec des modèles de langue
- Apprentissage actif en acquérant des exemples contrastifs
- Décrire les différences entre les distributions de texte avec le langage naturel
- Les modèles d'enseignement pour exprimer leur incertitude dans les mots
Tier 4+
- Faire des expériences et réviser des règles avec un langage naturel et un raisonnement probabiliste
- Star-Gate: Enseigner des modèles de langue pour poser des questions de clarification
- Test actif: évaluation de modèle économe en échantillons
- Estimation de l'incertitude pour les modèles de récompense du langage
Interprétabilité et modification du modèle
Niveau 2
- Découvrir les connaissances latentes dans les modèles de langue sans supervision
Niveau 3
- Interprétabilité à l'échelle: identifier les mécanismes causaux dans l'alpaga
- Analyse mécaniquement des effets de l'affiche sur les tâches définies de manière procédurale
- Ingénierie de la représentation: une approche descendante de la transparence de l'IA
- Étudier la généralisation du modèle de langue grande avec des fonctions d'influence
- Interprétabilité dans la nature: un circuit pour l'identification indirecte des objets dans GPT-2 Small
Tier 4+
- Caractéristiques du livre de codes: interprétabilité clairsemée et discrète pour les réseaux de neurones
- Provoquer des prédictions latentes des transformateurs avec la lentille réglée
- Comment les modèles de langue lient-ils les entités en contexte?
- Ouverture de la boîte noire AI: synthèse du programme via l'interprétabilité mécaniste
- Circuits de caractéristiques clairsemées: découvrir et modifier les graphiques causaux interprétables dans les modèles de langues
- Découvrir les algorithmes d'optimisation Mesa dans les transformateurs
- Édition rapide du modèle à grande échelle
- Git Re-Basin: Modèles Modèles Symmétries de permutation modulo
- Localisation et modification des associations factuelles dans GPT
- Mémoire d'édition de masse dans un transformateur
Apprentissage du renforcement
Niveau 2
- Optimisation directe des préférences: votre modèle de langue est secrètement un modèle de récompense
- Réflexion: agents linguistiques avec apprentissage du renforcement verbal
- Master les échecs et Shogi par auto-play avec un algorithme d'apprentissage en renforcement général (Alphazero)
- Muzero: Mastering Atari, Go, Chess et Shogi en planifiant avec un modèle savant
Niveau 3
- Problèmes ouverts et limites fondamentales de l'apprentissage du renforcement de la rétroaction humaine
- Alphastar: maîtriser le jeu de stratégie en temps réel Starcraft II
- Transformateur de décision
- Master les jeux Atari avec des données limitées (Efficientzero)
- Mastering Stratego, le jeu classique d'informations imparfaites (Deepnash)
Tier 4+
- Alphastar Unplugged: apprentissage de renforcement hors ligne à grande échelle
- Apprentissage du renforcement bayésien avec charge cognitive limitée
- Apprentissage contrastif de la préfence: apprendre à partir de la rétroaction humaine sans RL
- Les échecs de niveau grand-maître sans recherche
- Une approche basée sur les données pour apprendre à contrôler les ordinateurs
- Acquisition de connaissances d'échecs en alphazer
- Joueur des jeux
- Apprentissage de renforcement auprès de la récupération
La vue d'ensemble
Échelle AI
Niveau 1
- Échelle des lois pour les modèles de langage neuronal
- Vitesses de décollage
- La leçon amère
Niveau 2
- IA et calcul
- Échelle des lois pour le transfert
- Formation des modèles de grande langue calculés (chinchilla)
Niveau 3
- Capacités émergentes des modèles de grande langue
- Lois de mise à l'échelle transcendante avec 0,1% de calcul supplémentaire (U-PALM)
Tier 4+
- Physique des modèles de langue: partie 3.3, Lois de mise à l'échelle de la capacité de connaissances
- Tendances de la loi du pouvoir dans la vitesse et l'apprentissage automatique
- Échelle des lois pour l'apprentissage du renforcement à un seul agent
- Au-delà des lois sur l'échelle neuronale: battre la mise à l'échelle de la loi de puissance via l'élagage des données
- Capacités émergentes des modèles de grande langue
- Échelle des lois sur l'échelle avec les jeux de société
Sécurité d'IA
Niveau 1
- Trois impacts de l'intelligence des machines
- À quoi ressemble l'échec
- Sans contre-mesures spécifiques, le chemin le plus simple de l'IA transformatrice conduit probablement à la prise de contrôle de l'IA
Niveau 2
- Un aperçu des risques de l'IA catastrophique
- Clarifier «à quoi ressemble l'échec» (partie 1)
- RL profond des préférences humaines
- Le problème d'alignement d'un point de vue d'apprentissage en profondeur
Niveau 3
- Impchet AIS: AIS va-t-il simuler l'alignement pendant la formation afin d'obtenir du pouvoir?
- Mesurer les progrès sur la surveillance évolutive pour les modèles de grandes langues
- Risques de l'optimisation apprise dans les systèmes d'apprentissage automatique avancées
- Alignement de l'agent évolutif via la modélisation des récompenses
Tier 4+
- Déception de l'IA: une étude des exemples, des risques et des solutions potentielles
- Benchmarks pour détecter la falsification des mesures
- Les échecs comme un terrain d'essai pour l'approche Oracle de la sécurité de l'IA
- Fermez les portes à un avenir inhumain: comment et pourquoi nous devons choisir de ne pas développer l'intelligence artificielle surhumaine à usage général
- Évaluation du modèle pour les risques extrêmes
- Rapports responsables pour le développement de l'IA frontalière
- Cas de sécurité: comment justifier la sécurité des systèmes d'IA avancés
- Agents dormeurs: entraînement des LLM trompeurs qui persistent grâce à l'entraînement en matière de sécurité
- Rapport technique: les modèles de grandes langues peuvent tromper stratégiquement leurs utilisateurs lorsqu'ils sont mis sous pression
- Tensor Trust: Attaques d'injection rapide interprétables d'un jeu en ligne
- Outils pour vérifier les données de formation des modèles neuronaux
- Vers un scientifique prudent avec des limites de sécurité convergentes
- Alignement des agents linguistiques
- Provoquer des connaissances latentes
- Modèles de langue en équipe rouge pour réduire les dommages: méthodes, comportements d'échelle et leçons apprises
- Modèles de langage en équipe rouge avec des modèles de langue
- Problèmes non résolus dans la sécurité ML
Impacts économiques et sociaux
Niveau 3
- Croissance explosive de l'automatisation de l'IA: une revue des arguments
- Les modèles de langue peuvent réduire l'asymétrie sur les marchés de l'information
Tier 4+
- Combler le lac de connaissances de l'homme-AI: découverte et transfert de concept en Alphazer
- Modèles de fondation et utilisation équitable
- Les GPT sont GPTS: un aperçu précoce du potentiel d'impact sur le marché du travail des modèles de grande langue
- Niveaux d'AGI: Opérationnalisation des progrès sur la voie de l'AGI
- Opportunités et risques de LLMS pour une délibération évolutive avec polis
- Sur les opportunités et les risques des modèles de fondation
Philosophie
Niveau 2
- Signification sans référence dans les modèles de grande langue
Tier 4+
- Conscience dans l'intelligence artificielle: perspectives de la science de la conscience
- Les philosophes devraient développer, théoriser et utiliser l'IA pertinente philosophiquement
- Vers l'évaluation des systèmes d'IA pour le statut moral en utilisant les auto-évaluations
Maintienneur
[email protected]