No campo da inteligência artificial, Noam Brown, diretor de pesquisa de raciocínio da Openai, fez uma observação instigante na conferência da NVIDIA GTC. Ele propôs que, se os pesquisadores tivessem dominado os métodos e algoritmos corretos há 20 anos, algumas formas de modelos de IA de "inferência" poderiam estar disponíveis há muito tempo. Essa visão revela possíveis pontos cegos e direções de pesquisa negligenciadas no desenvolvimento da inteligência artificial.

Brown analisa sua experiência na pesquisa de IA de jogos na Carnegie Mellon University, especialmente desenvolvendo um sistema de pluribus que pode vencer os principais jogadores de poker humano. Ele enfatizou que a singularidade desse sistema de IA é sua capacidade de "raciocínio", em vez de depender da computação violenta simples. Essa capacidade de raciocínio permite que a IA pense profundamente em situações complexas, semelhante ao processo de pensamento dos seres humanos ao enfrentar dificuldades.
Como um dos arquitetos do modelo AI O1 da OpenAI, Brown introduziu uma tecnologia inovadora chamada "Inferência nos testes". Essa técnica permite que o modelo "pense" antes de responder a uma consulta, impulsionando alguma forma de "inferência" por meio de cálculos adicionais. Esse modelo de inferência mostra maior precisão e confiabilidade em áreas como matemática e ciência, abrindo novas direções para o desenvolvimento da IA.
Durante a discussão, Brown também falou sobre o papel da academia na pesquisa de IA. Embora faculdades e universidades geralmente não tenham recursos de computação, ele acredita que os acadêmicos ainda podem desempenhar um papel importante, explorando áreas com baixos requisitos de computação, como o design da arquitetura do modelo. Ele enfatizou a importância da colaboração entre os laboratórios de fronteira e a comunidade acadêmica, observando que os laboratórios de fronteira monitorarão de perto as publicações acadêmicas e avaliarão se os argumentos que eles apresentam são suficientemente convincentes.
Brown mencionou especificamente o campo de benchmarking de IA, acreditando que a academia pode desempenhar um papel importante nele. Ele criticou o status atual dos benchmarks de IA, apontando que esses testes geralmente examinam o conhecimento esotérico e são menos relevantes para a proficiência de tarefas com as quais a maioria das pessoas se preocupa. Ele pediu melhorias nos benchmarks de IA, acreditando que isso não requer uma grande quantidade de recursos de computação, mas pode melhorar significativamente a compreensão das capacidades e melhorias do modelo.
Vale a pena notar que os comentários de Brown são baseados principalmente em sua experiência na pesquisa de IA de jogos antes de ingressar no OpenAI, em vez de modelos de inferência como O1. Suas opiniões fornecem uma nova perspectiva para a pesquisa no campo da inteligência artificial, destacando a importância das capacidades de raciocínio no desenvolvimento da IA e o potencial de colaboração entre a academia e os laboratórios de ponta.