In den letzten Jahren hat sich die Leistungsverbesserung großer Sprachmodelle (LLM) hauptsächlich auf die Skala -Expansion beruht, dh erhöhtes Datenvolumen und Rechenleistung. Dieses Modell erreicht jedoch allmählich einen Engpass. Branchenexperten wiesen darauf hin, dass es schwierig ist, erhebliche Fortschritte zu erzielen, indem sie sich einfach auf die "größere und bessere" Strategie verlassen, und neue technologische Durchbrüche stehen unmittelbar bevor. In diesem Artikel werden die Herausforderungen für das aktuelle KI-Feld und die Art und Weise untersucht, wie aufstrebende "Test-Time Computing" -Technologien neue Anweisungen zur Entwicklung von KI bringen können.
Mit der raschen Entwicklung der generativen KI ändert sich die traditionelle Wahrnehmung der Branche von "Bigger Is Besser". Viele Top -KI -Wissenschaftler sagten kürzlich, dass die Methode zur Verbesserung der KI -Leistung durch einfaches Erhöhen der Datenmenge und der Rechenleistung sich einem Engpass nähert, und es entstehen neue technologische Durchbrüche.
Ilya Sutskever, Mitbegründerin von Safe Superintelligence und Openai, äußerte kürzlich seine Meinung, dass traditionelle Voraussetzungsmethoden in die Performance-Plattformzeit eingegeben wurden. Diese Aussage ist besonders auffällig, da es sich um die groß angelegte Methode der Vorausbildung befand, die er in den frühen Tagen befürwortete, die ChatGPT hervorbrachte. Heute sagte er, dass sich das Feld der KI von der "Ära der Ausweitung des Skalens" in die "Ära der Zeit der Wunder und Entdeckung" bewegt habe.

Derzeit ist groß angelegte Modellschulungen vor verschiedenen Herausforderungen: Schulungskosten von zehn Millionen Dollar, das Risiko eines durch Systemkomplexität, langen Testzyklen und Einschränkungen der Datenressourcen und der Energieversorgung verursachten Hardwarefehler. Diese Fragen veranlassten die Forscher, neue technologische Wege zu untersuchen.
Unter ihnen hat die "Test-Time Compute" -Technologie weit verbreitete Aufmerksamkeit erregt. Mit diesem Ansatz können KI -Modelle während der Verwendung mehrere Lösungen in Echtzeit erzeugen und bewerten, anstatt eine einzige Antwort direkt zu geben. OpenAI -Forscher Noam Brown machte eine Bildanalogie: KI in einer Spielkarte für 20 Sekunden nachdenken zu lassen, was mit der Erweiterung der Skala des Modells und der Trainingszeit um das 100.000 -fache vergleichbar ist.
Derzeit entwickeln mehrere Top -KI -Labors, darunter OpenAI, Anthropic, Xai und DeepMind, ihre jeweiligen Technologiemitteln aktiv. OpenAI hat diese Technologie in seinem neuesten Modell "O1" angewendet, und Chief Product Officer Kevin Weil sagte, dass sie durch diese innovativen Ansätze eine große Anzahl von Möglichkeiten zur Verbesserung der Modellleistung gesehen haben.
Branchenexperten sind der Ansicht, dass diese Transformation von Technologierouten die Wettbewerbslandschaft der gesamten KI -Branche neu gestaltet und die Nachfragestruktur von KI -Unternehmen für verschiedene Ressourcen grundlegend verändert. Dies markiert, dass die KI -Entwicklung in eine neue Phase eintritt, in der sie sich eher auf Qualitätsverbesserungen konzentriert als einfach die Expansion.
Kurz gesagt, der Aufstieg neuer Technologien wie "Test-Time Computing" markiert eine neue Phase in der Entwicklung von KI, dh mehr Aufmerksamkeit auf die Verbesserung der Modellleistung als nur zu skalieren. Dies wird die Wettbewerbslandschaft der KI -Branche verändern und die KI -Technologie fördern, um sich in raffinierterer und intelligenterer Richtung zu entwickeln. In Zukunft werden Durchbrüche in der AI -Technologie eher auf Algorithmus -Innovation und Verständnis der Essenz des Modells als auf einfache Rechenleistung angewiesen.