A IT House informou em 18 de novembro que há rumores recentes de que os principais laboratórios de IA, incluindo OpenAI, Google e Anthropic, estão enfrentando dificuldades no desenvolvimento de modelos avançados de IA. Estes relatórios atribuem a causa à falta de dados de formação de qualidade, o que conduz a rendimentos decrescentes que dificultam o investimento contínuo.
A este respeito, o CEO da OpenAI, Sam Altman, e o CEO da Anthropic, Dario Amodei, expressaram opiniões diferentes. Altman pareceu responder à imprensa negativa postando uma mensagem enigmática nas redes sociais sugerindo “não há limites”. Amodei partilha uma visão semelhante e, embora reconheça que muitos factores podem impedir o desenvolvimento da IA, está optimista quanto à existência de formas de ultrapassar estes obstáculos, incluindo a utilização de dados sintéticos.
A IT House notou que o ex-CEO do Google, Eric Schmidt, também expressou sua opinião sobre esses relatórios. Ele acredita que os grandes modelos de linguagem passarão por duas a três iterações nos próximos cinco anos . O desempenho destes modelos está a aumentar a um ritmo sem precedentes e não há actualmente provas de que esta tendência de crescimento esteja prestes a parar . Embora acabemos por atingir um gargalo, ainda não chegamos lá.

Schmidt prevê que modelos de IA mais avançados e poderosos surgirão no futuro, especialmente nas áreas de física e matemática. Ele explicou o modelo Strawberry AI recentemente lançado da OpenAI, OpenAI-o1, como exemplo. No entanto, Schmidt também alertou que à medida que os modelos se tornam mais avançados, os perigos potenciais aumentam. Ele observou que esses modelos primitivos podem ser melhores no lançamento de “ataques de dia zero” do que os humanos . Além disso, os vírus biológicos e os novos tipos de guerra também podem tornar-se ameaças potenciais trazidas pelo desenvolvimento da IA.