Auf dem Gebiet der künstlichen Intelligenz kündigte AI zusammen kürzlich eine Runde der Finanzierung von bis zu 305 Millionen US -Dollar an Runde B, und die Nachrichten erregten schnell die weit verbreitete Aufmerksamkeit der Branche. Der schnelle Anstieg des Unternehmens hängt eng mit seinem jüngsten eingehenden Argumentationsmodell, Deepseek-R1, zusammen. Im Gegensatz zu anfänglichen Bedenken glauben viele Branchenexperten, dass Fortschritte in der tiefen Argumentechnologie nicht nur die Nachfrage nach Infrastruktur verringern, sondern diese Nachfrage ständig erhöhen.
Seit seiner Gründung im Jahr 2023 ist die Mission von AI zusammen, die Verwendung von Open -Source -Modellen (LLMs) (Open -Source "-Modelle (LLMs) zu vereinfachen. Im Laufe der Zeit erweiterte das Unternehmen allmählich seine Plattform, um eine Lösung namens "Together Platform" zu starten, die die Bereitstellung von KI in virtuellen privaten Clouds und lokalen Umgebungen unterstützt. Im Jahr 2025 verbesserte AI zusammen seine Plattformfähigkeiten und startete seine Inferenzclustering- und Autonomous Intelligence -Funktionen (Agentic AI).
Laut Vipul Prakash, CEO von Together AI, sind die Parameter von Deepseek-r1 bis zu 671 Milliarden, was die Kosten für die operative Schlussfolgerung, die nicht unterschätzt werden soll, leisten. Um den Anforderungen von immer mehr Benutzern zu erfüllen, hat AI zusammen den "Inferenzcluster" -Dienst gestartet und Kunden dedizierte Rechenleistung von 128 bis 2.000 Chips zur Verfügung gestellt, um die beste Leistung des Modells zu gewährleisten. Darüber hinaus sind die Verarbeitungszeiten von Deekseek-R1 in der Regel länger und durchschnittlich zwei bis drei Minuten, was auch zu einer Erhöhung der Infrastrukturnachfrage führt.
In Bezug auf die Anwendung von Inferenzmodellen hat AI zusammen einige spezifische Nutzungsszenarien wie Codierungsmittel, die Verringerung der Illusion des Modells und das Erreichen der Selbstverbesserung des Modells durch Verstärkungslernen gesehen. Diese Anwendungen verbessern nicht nur die Arbeitseffizienz, sondern auch die Genauigkeit der Modellausgabe.
Darüber hinaus hat AI zusammen Codesandbox erworben, um ihre Fähigkeiten in autonomen intelligenten Workflows zu verbessern. Diese Akquisition ermöglicht es ihm, Code schnell in der Cloud auszuführen, die Latenz zu verringern und die Leistung von Proxy -Workflows zu verbessern.
Angesichts des heftigen Marktwettbewerbs wird die Infrastrukturplattform der AI ständig optimiert, und der Einsatz seiner neuen Generation von NVIDIA -Blackwell -Chips bietet eine höhere Leistung und eine geringere Latenz für Modelltraining und Inferenz. Prakash wies darauf hin, dass im Vergleich zu anderen Plattformen wie Azure zusammen die Inferenzgeschwindigkeit von AI erheblich verbessert hat und die Bedürfnisse der Kunden nach leistungsstarker KI-Infrastruktur erheblich erfüllt hat.
Schlüsselpunkte:
Zusammen erhielt KI eine Finanzierung von 305 Millionen US-Dollar, um die Entwicklung eingehender Argumentationsmodelle zu fördern.
Die Komplexität von Deepseek-R1 hat die Infrastrukturnachfrage erheblich gesteigert, und die Einführung des "Inferenzcluster" -Dienstes wird gestartet, um die Marktnachfrage zu decken.
Die neu erworbenen Codesandbox- und Nvidia Blackwell -Chips werden die Marktwettbewerbsfähigkeit von gemeinsamer KI weiter verbessern.