Elicite a lista de leitura de aprendizado de máquina
Propósito
O objetivo deste currículo é ajudar os novos funcionários eliciados a aprender experiência em aprendizado de máquina, com foco nos modelos de idiomas. Tentei encontrar um equilíbrio entre os documentos relevantes para a implantação de ML em produção e técnicas importantes para escalabilidade a longo prazo.
Se você ainda não trabalha na Elicic - estamos contratando ML e engenheiros de software.
Como ler
Ordem de leitura recomendada:
- Leia “Nível 1” para todos os tópicos
- Leia “Nível 2” para todos os tópicos
- Etc.
Adicionado após 2024/4/1
Índice
- Fundamentos
- Introdução ao aprendizado de máquina
- Transformadores
- Principais arquiteturas de modelos de fundação
- Treinamento e Finetuning
- Estratégias de raciocínio e tempo de execução
- Raciocínio no contexto
- Decomposição de tarefas
- Debate
- Uso da ferramenta e andaimes
- Honestidade, factualidade e epistemias
- Aplicações
- Ciência
- Previsão
- Pesquisa e classificação
- ML na prática
- Implantação de produção
- Benchmarks
- Conjuntos de dados
- Tópicos avançados
- Modelos mundiais e causalidade
- Planejamento
- Incerteza, calibração e aprendizado ativo
- Interpretabilidade e edição de modelos
- Aprendizagem de reforço
- O quadro geral
- Ai escala
- Segurança da IA
- Impactos econômicos e sociais
- Filosofia
- Mantenedor
Fundamentos
Introdução ao aprendizado de máquina
Nível 1
- Uma breve introdução ao aprendizado de máquina
- Mas o que é uma rede neural?
- Descendência de gradiente, como as redes neurais aprendem
Nível 2
- Uma compreensão intuitiva de retropropagação
- O que está realmente fazendo a backpropagation?
- Uma introdução ao aprendizado de reforço profundo
Nível 3
- A introdução soletrada em redes neurais e retropropagação: Construindo Micrograd
- Cálculo de backpropagação
Transformadores
Nível 1
- Mas o que é um GPT? Introdução visual aos transformadores
- Atenção em transformadores, explicados visualmente
- Atenção? Atenção!
- O transformador ilustrado
- O GPT-2 ilustrado (visualizando modelos de linguagem de transformadores)
Nível 2
- Vamos construir o tokenizador GPT
- Tradução da máquina neural aprendendo em conjunto a alinhar e traduzir
- O transformador anotado
- Atenção é tudo que você precisa
Nível 3
- Uma pesquisa prática sobre transformadores mais rápidos e leves
- Tabpfn: um transformador que resolve pequenos problemas de classificação tabular em um segundo
- Grokking: generalização além do excesso de ajustes em pequenos conjuntos de dados algorítmicos
- Uma estrutura matemática para circuitos de transformadores
Nível 4+
- Capacidades de composição de transformadores autoregressivos: um estudo sobre tarefas sintéticas e interpretáveis
- Memorizando transformadores
- Camadas de feed-forward de transformador são memórias de valor-chave
Principais arquiteturas de modelos de fundação
Nível 1
- Modelos de idiomas são alunos de multitarefa não supervisionados (GPT-2)
- Modelos de idiomas são poucos alunos (GPT-3)
Nível 2
- LLAMA: Modelos de idiomas de fundação abertos e eficientes (LLAMA)
- Modelando com eficiência sequências longas com espaços de estado estruturados (vídeo) (S4)
- Explorando os limites do aprendizado de transferência com um transformador de texto em texto unificado (T5)
- Avaliando grandes modelos de linguagem treinados no código (Codex OpenAI)
- Modelos de idiomas de treinamento para seguir as instruções com feedback humano (OpenIl Instruct)
Nível 3
- Mistral 7b (Mistral)
- Mixtral de especialistas (mixtral)
- Gêmeos: Uma família de modelos multimodais altamente capazes (Gemini)
- Mamba: modelagem de sequência de tempo linear com espaços de estado seletivos (Mamba)
- Modelos de idiomas de instrução de escala Finetuned (flan)
Nível 4+
- Modelos de consistência
- Modelo Card e Avaliações para Modelos Claude (Claude 2)
- Olmo: acelerando a ciência dos modelos de linguagem
- Palm 2 Relatório Técnico (Palm 2)
- Livros didáticos são tudo o que você precisa ii: Phi-1.5 Relatório Técnico (PHI 1.5)
- Ajuste de instrução visual (llava)
- Um assistente de idioma geral como laboratório de alinhamento
- Os modelos de idiomas Finetuned são alunos de tiro zero (Google Instruct)
- Galactica: um grande modelo de linguagem para a ciência
- LAMDA: Modelos de idiomas para aplicativos de diálogo (diálogo do Google)
- OPT: Aberto dos modelos de linguagem de transformadores pré-treinados (Meta GPT-3)
- Palm: escala de modelagem de linguagem com caminhos (Palm)
- Síntese de programas com grandes modelos de idiomas (Google Codex)
- Modelos de linguagem de escala: métodos, análise e insights do treinamento Gopher (Gopher)
- Resolvendo problemas de raciocínio quantitativo com modelos de linguagem (Minerva)
- UL2: Unificando paradigmas de aprendizado de idiomas (UL2)
Treinamento e Finetuning
Nível 2
- Programas Tensor V: Ajustando grandes redes neurais via transferência de hiperparâmetro zero-tiro
- Aprendendo a resumir com feedback humano
- Verificadores de treinamento para resolver problemas de palavras matemáticas
Nível 3
- Modelos de idiomas pré -treinamento com preferências humanas
- Generalização fraca a forte: provocando fortes capacidades com supervisão fraca
- A afinação com poucos eficientes de parâmetro é melhor e mais barata do que o aprendizado no contexto
- Lora: adaptação de baixo rank de grandes modelos de linguagem
- Tradução da máquina neural não supervisionada apenas com modelos de linguagem generativa
Nível 4+
- Além dos dados humanos: dimensionar o auto-treinamento para solução de problemas com modelos de linguagem
- Melhorando a geração de código treinando com feedback de linguagem natural
- A modelagem de idiomas é compressão
- Lima: menos é mais para o alinhamento
- Aprendendo a compactar os avisos com tokens esbeltos
- Perdido no meio: como os modelos de idiomas usam contextos longos
- Qlora: Finetuning eficiente de LLMs quantizados
- Quiet-Star: Modelos de idiomas podem se ensinar a pensar antes de falar
- Auto-treinamento reforçado (descanso) para modelagem de idiomas
- Resolvendo a geometria da Olimpíada sem demonstrações humanas
- Diga, não mostre: fatos declarativos influenciam como os LLMs generalizam
- Livros didáticos são tudo que você precisa
- TinyStories: Quão pequenos os modelos de idiomas podem ser e ainda falam inglês coerente?
- Treinando modelos de idiomas com feedback de idiomas em escala
- Turing Complete Transformers: dois transformadores são mais poderosos que um
- BYT5: em direção a um futuro sem token com modelos de byte a byte pré-treinados
- Propriedades distributivas de dados conduzem a aprendizagem emergente no contexto em transformadores
- Difusão-LM melhora a geração de texto controlável
- Ernie 3.0: Conhecimento em larga escala aprimorou pré-treinamento para compreensão e geração de idiomas
- Treinamento eficiente de modelos de linguagem para preencher o meio
- Ext5: em direção à escala extrema de várias tarefas para o aprendizado de transferência
- Tuneamento de prefixos: otimizando instruções contínuas para geração
- ATAÇÃO DE AUTO DATAPONS: Indo além dos pares individuais de entrada de entrada em aprendizado profundo
- Aprendizagem de pouquíssimos com pequenos anos-uma perspectiva do mundo real
Estratégias de raciocínio e tempo de execução
Raciocínio no contexto
Nível 2
- Cadeia de pensamento provocando provas o raciocínio em grandes modelos de linguagem
- Modelos de idiomas grandes são os motivos de tiro zero (vamos pensar passo a passo)
- A autoconsistência melhora o raciocínio da cadeia de pensamentos em modelos de idiomas
Nível 3
- Raciocínio da cadeia de pensamento sem levar
- Por que pensar passo a passo? O raciocínio emerge da localidade da experiência
Nível 4+
- Baldur: geração e reparo à prova de integrais com grandes modelos de linguagem
- O treinamento de consistência agitado em preconceito reduz o raciocínio tendencioso na cadeia de pensamento
- Raciocínio certificado com modelos de idiomas
- Pesquisa de hipótese: raciocínio indutivo com modelos de linguagem
- LLMS e o corpus de abstração e raciocínio: sucessos, falhas e a importância das representações baseadas em objetos
- Modelos de linguagem grandes não podem se autocporcionar o raciocínio ainda
- Fluxo de pesquisa (SOS): Aprendendo a pesquisar na linguagem
- Cadeia de pensamento de treinamento por meio de inferência de variável latente
- Repensando o papel das demonstrações: o que faz o aprendizado no contexto funcionar?
- Competição de forma de superfície: por que a resposta mais alta de probabilidade nem sempre é certa
Decomposição de tarefas
Nível 1
- Supervisionar o processo, não os resultados
- Supervisionando alunos fortes, ampliando especialistas fracos
Nível 2
- Árvore dos pensamentos: resolução deliberada de problemas com grandes modelos de linguagem
- Cognição fatorada
- Destilação e amplificação iterada
- Resumindo recursivamente livros com feedback humano
- Resolvendo problemas de palavras matemáticas com feedback baseado em processos e baseado em resultados
Nível 3
- Verificação fatorada: Detectar e reduzir a alucinação nos resumos de artigos acadêmicos
- Raciocínio fiel usando modelos de linguagem grandes
- HUMANS CONSULTING HCH
- Decomposição iterada: melhorando as perguntas e respostas da ciência supervisionando os processos de raciocínio
- Modelo de idioma Cascades
Nível 4+
- Descontextualização: tornando as frases independentes
- Primer de cognição fatorada
- Gráfico de pensamentos: resolvendo problemas elaborados com grandes modelos de linguagem
- Parsel: Uma estrutura de linguagem natural unificada para raciocínio algorítmico
- Cadeias de IA: interação humana-AI transparente e controlável, encadeando grandes prompts de modelo de linguagem
- Desafiar tarefas de grande banco e se a cadeia de pensamento pode resolvê-las
- Avaliando argumentos uma etapa de cada vez
- Promoção menos ao máximo permite o raciocínio complexo em grandes modelos de linguagem
- Promotamento Maiêutico: Raciocínio Logicamente Consistente com Explicações Recursivas
- Medindo e estreitando a lacuna de composicionalidade em modelos de linguagem
- Pal: modelos de idiomas auxiliados pelo programa
- Reação: sinergizando raciocínio e atuação em modelos de idiomas
- Inferência de seleção: explorando grandes modelos de linguagem para raciocínio lógico interpretável
- Mostre seu trabalho: ScratchPads para computação intermediária com modelos de idiomas
- Summ^n: Uma estrutura de resumo de vários estágios para diálogos e documentos longos de entrada
- Pensamento: raciocínio probabilístico sobre conjuntos usando grandes modelos de linguagem
Debate
Nível 2
- Segurança da IA via debate
Nível 3
- O debate ajuda a supervisionar especialistas não confiáveis
- O debate de duas curvas não ajuda os humanos a responder a perguntas de compreensão de leitura difícil
Nível 4+
- Segurança de IA escalável por meio de debate duplo eficiente
- Melhorando a factualidade e o raciocínio em modelos de idiomas através do debate multiagente
Uso da ferramenta e andaimes
Nível 2
- Medindo o impacto das melhorias pós-treinamento
- WebGPT: Perguntas assistidas pelo navegador-Respondendo a feedback humano
Nível 3
- Os recursos de IA podem ser significativamente melhorados sem reciclagem cara
- Descoberta de modelo estatístico automatizado com modelos de linguagem
Nível 4+
- DSPY: Compilar o modelo de linguagem declarativa chama em pipelines auto-improvantes
- PromptBreeder: Auto-aperfeiçoamento auto-referencial por meio de evolução imediata
- Otimizador autodidata (Stop): geração de código auto-improvante recursivamente
- Voyager: um agente incorporado aberto com grandes modelos de idiomas
- Regal: refatorar programas para descobrir abstrações generalizáveis
Honestidade, factualidade e epistemias
Nível 2
- Modelos de auto-crítica para ajudar os avaliadores humanos
Nível 3
- Que evidência os modelos de idiomas acham convincente?
- Como pegar um mentiroso ai: detecção de mentiras no Black-Box LLMs fazendo perguntas não relacionadas
Nível 4+
- Modelos de idiomas nem sempre dizem o que pensam: explicações infiéis em cadeia de pensamento provocando
- Factualidade de forma longa em grandes modelos de linguagem
Aplicações
Ciência
Nível 3
- Os grandes modelos de idiomas podem fornecer feedback útil sobre trabalhos de pesquisa? Uma análise empírica em larga escala
- Modelos de idiomas grandes codificam conhecimento clínico
- O impacto de grandes modelos de linguagem na descoberta científica: um estudo preliminar usando o GPT-4
- Um conjunto de dados de perguntas e respostas em busca de informações ancoradas em trabalhos de pesquisa
Nível 4+
- Os modelos generalistas da Fundação podem superar o ajuste especial de fins especiais? Estudo de caso em medicina
- Nougat: entendimento óptico neural para documentos acadêmicos
- SCIM: suporte inteligente de desnatação para artigos científicos
- SYNERGPT: aprendizado no contexto para previsão personalizada de sinergia de drogas e design de drogas
- Para diagnóstico diferencial preciso com modelos de linguagem grandes
- Em direção a uma referência para o entendimento científico em humanos e máquinas
- Um mecanismo de busca para a descoberta de desafios e direções científicas
- Uma revisão sistemática completa foi concluída em 2 semanas usando ferramentas de automação: um estudo de caso
- Fato ou ficção: verificando reivindicações científicas
- Multi-XSCIENCE: Um conjunto de dados em larga escala para resumo de vários documentos extremos de artigos científicos
- Pares: um modelo de linguagem colaborativa
- PubMedqa: Um conjunto de dados para resposta a perguntas de pesquisa biomédica
- SCICO: CORREFERENCIAMENTO HIERÁRIO
- Scitail: um conjunto de dados de interrupção textual da Science Question Answering
Previsão
Nível 3
- Previsões de u-i-upmented: Assistentes de LLM melhoram a precisão da previsão humana
- Aproximando-se da previsão em nível humano com modelos de idiomas
- Os transformadores são eficazes para a previsão de séries temporais?
- Previsão de eventos mundiais futuros com redes neurais
Pesquisa e classificação
Nível 2
- Aprendendo densas representações de frases em escala
- INCEDIMENTOS DE TEXTO E CÓDIGO POR AR-TREINAMENTO CONTRATIVO (OpenAi INCEDDINGS)
Nível 3
- Modelos de idiomas grandes são classificadores de texto eficazes com classificação pareada provocando
- Nem todos os bancos de dados vetoriais são feitos iguais
- Reino: modelo de idioma de recuperação de recuperação pré-treinamento
- Geração de recuperação para recuperação para tarefas de PNL com uso intensivo de conhecimento
- Recuperação com reconhecimento de tarefas com instruções
Nível 4+
- Rankzephyr: O reranquitação de listagem zero eficaz e eficaz é uma brisa!
- Alguns erros comuns na avaliação de RI e como eles podem ser evitados
- Impulsionando os mecanismos de pesquisa com agentes interativos
- Colbert: Pesquisa de passagem eficiente e eficaz por meio de interação tardia contextualizada sobre Bert
- Indo além da precisão da tarefa a jusante para o benchmarking de recuperação de informações
- UnifiedQa: cruzando os limites do formato com um único sistema de controle de qualidade
ML na prática
Implantação de produção
Nível 1
- Aprendizado de máquina em Python: desenvolvimentos principais e tendências tecnológicas em ciência de dados, aprendizado de máquina e IA
- Aprendizado de máquina: o cartão de crédito de alto juros de dívida técnica
Nível 2
- Projetando aplicativos com uso intensivo de dados
- Uma receita para treinar redes neurais
Benchmarks
Nível 2
- GPQA: uma referência de perguntas e respostas à prova de pós-graduação no Google
- SWE-banch: Os modelos de idiomas podem resolver problemas do Github do mundo real?
- Verdadeiro: medir como os modelos imitam falsidades humanas
Nível 3
- Flex: Avaliação unificadora para PNL de poucos tiro
- Avaliação holística de modelos de linguagem (leme)
- Medindo o entendimento maciço da linguagem multitarefa
- RATA: Um benchmark de classificação de texto de poucos tiros do mundo real
- Aprendizagem de poucos tiros com modelos de idiomas
Nível 4+
- GAIA: Uma referência para os assistentes gerais de IA
- Condicionalqa: um conjunto de dados complexo de compreensão de leitura com respostas condicionais
- Medindo a solução de problemas matemáticos com o conjunto de dados de matemática
- Qualidade: Resposta de perguntas com textos de entrada longos, sim!
- Scrolls: comparação padronizada em sequências de linguagem longa
- O que será necessário para consertar o benchmarking no entendimento da linguagem natural?
Conjuntos de dados
Nível 2
- Rastreamento comum
- A pilha: um conjunto de dados de 800 GB de texto diversificado para modelagem de idiomas
Nível 3
- Painting de diálogo: transformando documentos em diálogos
- MS MARCO: Um conjunto de dados de compreensão de leitura de máquina gerado por humanos
- Gráfico acadêmico da Microsoft
- TLDR9+: Um recurso em larga escala para resumo extremo de postagens de mídia social
Tópicos avançados
Modelos mundiais e causalidade
Nível 3
- Representações mundiais emergentes: Explorando um modelo de sequência treinado em uma tarefa sintética
- De modelos de palavras aos modelos mundiais: traduzindo da linguagem natural para a linguagem probabilística do pensamento
- Modelos de idiomas representam espaço e tempo
Nível 4+
- Amortizando inferência intratável em grandes modelos de linguagem
- Cladder: Avaliando o raciocínio causal em modelos de idiomas
- Otimização bayesiana causal
- Raciocínio causal e grandes modelos de linguagem: abrindo uma nova fronteira para causalidade
- Agentes generativos: simulacra interativo do comportamento humano
- Aprendizagem passiva de estratégias causais ativas em agentes e modelos de idiomas
Planejamento
Nível 4+
- Além de A*: Melhor planejamento com transformadores via Bootstrappping de Dinâmica de Pesquisa
- Arquiteturas cognitivas para agentes de idiomas
Incerteza, calibração e aprendizado ativo
Nível 2
- Especialistas não trapaceiam: aprender o que você não sabe prevendo pares
- Uma simples linha de base para a incerteza bayesiana em aprendizado profundo
- PLEX: Rumo à confiabilidade usando extensões de modelo grandes pré -tenhadas
Nível 3
- Inferência de preferência ativa usando modelos de idiomas e raciocínio probabilístico
- Provocando preferências humanas com modelos de idiomas
- Aprendizagem ativa adquirindo exemplos contrastantes
- Descrevendo diferenças entre distribuições de texto com linguagem natural
- Ensinar modelos para expressar sua incerteza em palavras
Nível 4+
- Fazendo experimentos e revisando regras com linguagem natural e raciocínio probabilístico
- Star-Gate: ensinando modelos de idiomas para fazer perguntas esclarecedoras
- Teste ativo: avaliação do modelo com eficiência de amostra
- Estimativa de incerteza para modelos de recompensa de idiomas
Interpretabilidade e edição de modelos
Nível 2
- Descobrindo o conhecimento latente em modelos de idiomas sem supervisão
Nível 3
- Interpretabilidade em escala: identificação de mecanismos causais em alpaca
- Analisando mecanisticamente os efeitos do ajuste fino em tarefas definidas processualmente
- Engenharia de representação: uma abordagem de cima para baixo para a transparência da IA
- Estudando grande generalização do modelo de linguagem com funções de influência
- Interpretabilidade na natureza: um circuito para identificação de objetos indiretos no GPT-2 pequeno
Nível 4+
- Recursos de livro de código: interpretabilidade esparsa e discreta para redes neurais
- Excunhando previsões latentes de transformadores com a lente sintonizada
- Como os modelos de linguagem ligam as entidades no contexto?
- Abrindo a AI Black Box: Síntese de Programa via interpretabilidade mecanicista
- Circuitos de recursos esparsos: Descobrir e editar gráficos causais interpretáveis em modelos de linguagem
- Descobrindo algoritmos de otimização de mesa em transformadores
- Edição de modelo rápido em escala
- Git Re-Basin: Mesclagem de modelos Modulo Symmetries
- Localizar e editar associações factuais no GPT
- Memória de edição em massa em um transformador
Aprendizagem de reforço
Nível 2
- Otimização de preferência direta: seu modelo de idioma é secretamente um modelo de recompensa
- Reflexão: agentes de idiomas com aprendizado de reforço verbal
- Dominar o xadrez e o shogi por auto-jogo com um algoritmo de aprendizado de reforço geral (Alphazero)
- MuZero: dominar o Atari, ir, xadrez e shogi planejando com um modelo instruído
Nível 3
- Problemas abertos e limitações fundamentais do aprendizado de reforço com o feedback humano
- Alphastar: dominar o jogo de estratégia em tempo real Starcraft II
- Transformador de decisão
- Dominando os jogos do Atari com dados limitados (eficientezinho)
- Mastering Stratego, o jogo clássico de informações imperfeitas (Deepnash)
Nível 4+
- Alphastar desconectado: aprendizado de reforço offline em larga escala
- Aprendizagem de reforço bayesiano com carga cognitiva limitada
- Aprendizagem de preferência contrastiva: aprender com o feedback humano sem RL
- Xadrez no nível do grande mestre sem pesquisa
- Uma abordagem orientada a dados para aprender a controlar computadores
- Aquisição de conhecimento de xadrez em Alphazero
- Jogador de jogos
- Aprendizagem de reforço de recuperação de recuperação
O quadro geral
Ai escala
Nível 1
- Escala de leis para modelos de idiomas neurais
- Velocidades de decolagem
- A lição amarga
Nível 2
- Ai e calcular
- Leis de escala para transferência
- Treinamento Compute-Optimal Language Models (Chinchilla)
Nível 3
- Habilidades emergentes de grandes modelos de linguagem
- Transcendendo leis de escala com computação extra de 0,1% (U-PALM)
Nível 4+
- Física dos modelos de idiomas: Parte 3.3, Leis de escala de capacidade de conhecimento
- Tendências da lei de energia em SpeedRunning e Machine Learning
- Leis de dimensionamento para aprendizado de reforço de agente único
- Além das leis de escala neural: espancar a escala da lei de energia por meio de poda de dados
- Habilidades emergentes de grandes modelos de linguagem
- Escala de escala Leis com jogos de tabuleiro
Segurança da IA
Nível 1
- Três impactos da inteligência da máquina
- Como é o fracasso
- Sem contramedidas específicas, o caminho mais fácil para a IA transformadora provavelmente leva à aquisição da IA
Nível 2
- Uma visão geral dos arrisários da IA catastrófica
- Esclarecendo “como é o fracasso” (parte 1)
- RL profundo das preferências humanas
- O problema de alinhamento de uma profunda perspectiva de aprendizado
Nível 3
- Scheming AIS: O AIS Fake Alignment durante o treinamento para obter energia?
- Medindo o progresso da supervisão escalável para grandes modelos de linguagem
- Riscos com a otimização aprendida em sistemas avançados de aprendizado de máquina
- Alinhamento de agente escalável por modelagem de recompensa
Nível 4+
- Decepção da IA: uma pesquisa com exemplos, riscos e soluções em potencial
- Referências para detectar adulteração de medidas
- Xadrez como motivo de teste para a abordagem do Oracle para a segurança da IA
- Feche os portões para um futuro desumano: como e por que devemos optar por não desenvolver inteligência artificial sobre-humana de uso geral
- Avaliação do modelo para riscos extremos
- Relatórios responsáveis para o desenvolvimento da IA da Frontier
- Casos de segurança: como justificar a segurança dos sistemas avançados de IA
- Agentes Sleeper: Treinando LLMs Deceptive que persistem através do treinamento de segurança
- Relatório técnico: grandes modelos de idiomas podem enganar estrategicamente seus usuários quando pressionados
- Tensor Trust: Ataques de injeção imediata interpretáveis de um jogo online
- Ferramentas para verificar os dados de treinamento dos modelos neurais
- Em direção a uma IA de cientista cautelosa com limites de segurança convergentes
- Alinhamento de agentes de idiomas
- Provocando conhecimento latente
- Modelos de idiomas em equipes vermelhas para reduzir os danos: métodos, comportamentos de escala e lições aprendidas
- Modelos de idiomas em equipes vermelhas com modelos de idiomas
- Problemas não resolvidos em segurança de ML
Impactos econômicos e sociais
Nível 3
- Crescimento explosivo da automação de IA: uma revisão dos argumentos
- Modelos de idiomas podem reduzir a assimetria nos mercados de informações
Nível 4+
- Preencher a lacuna de conhecimento humano-AI: Descoberta e transferência de conceito em Alphazero
- Modelos de fundação e uso justo
- GPTs são GPTs: uma olhada antecipada no potencial de impacto no mercado de trabalho de modelos de idiomas grandes
- Níveis de AGI: operacionalizando o progresso no caminho para AGI
- Oportunidades e riscos de LLMs para deliberação escalável com Polis
- Sobre as oportunidades e riscos de modelos de fundação
Filosofia
Nível 2
- Significado sem referência em grandes modelos de linguagem
Nível 4+
- Consciência na inteligência artificial: insights da ciência da consciência
- Os filósofos devem se desenvolver, teorizar e usar a IA filosoficamente relevante
- Para avaliar os sistemas de IA para status moral usando autorrelatos
Mantenedor
[email protected]