Cerebras Systems kündigte kürzlich einen wichtigen Expansionsplan für den Bau von sechs neuen Rechenzentren in Nordamerika und Europa an, um die Argumentationsfähigkeiten der künstlichen Intelligenz (KI) zu verbessern. Dieser Schritt erhöht nicht nur die Rechenleistung des Unternehmens erheblich, sondern bietet auch eine starke Unterstützung für die Entwicklung verschiedener KI -Anwendungen. Mit der raschen Entwicklung der KI -Technologie wird dieses Layout von Cerebras zweifellos eine gute Position auf dem stark wettbewerbsfähigen Markt einnehmen.
Im Rahmen des Plans konzentrieren sich 85% der Rechenleistung in den USA, wobei drei Einrichtungen bereits in Santa Clara, Kalifornien, Stockton und Dallas, Texas, in Betrieb sind. Als nächstes eröffnet das neue Zentrum in Minneapolis (im zweiten Quartal 2025 erwartet), Oklahoma City und Montreal (erwartet im dritten Quartal 2025) sowie Atlanta und Frankreich (erwartet im vierten Quartal von 2025). Der Aufbau dieser neuen Rechenzentren wird die Servicefunktionen von Cerebras weltweit weiter verbessern.

Der Kern des neuen Rechenzentrums wird die von Cerebras entwickelte "Wafer Scale Engine" sein, einer speziellen Chiparchitektur, die für KI -Anwendungen optimiert ist. Das Unternehmen sagte, sein CS-3-System kann 40 Millionen Token-Daten des LLAMA-70B-Modells pro Sekunde verarbeiten und die Verarbeitungsgeschwindigkeit von Inferenzaufgaben erheblich verbessern. Es werden mehr als 300 CS-3-Systeme in der Einrichtung von Oklahoma City erwartet. Das Zentrum entspricht dem dritten Stufe plus drei Standards, kann Tornados und Erdbeben widerstehen und mit dreifach redundanter Stromversorgung ausgestattet sein. Es wird voraussichtlich im Juni 2025 den Betrieb starten. Dieser hohe Standardbau stellt sicher, dass der stabile Betrieb des Rechenzentrums unter verschiedenen Extrembedingungen.
Gegenwärtig haben mehrere bekannte KI-Unternehmen Kooperationsvereinbarungen mit Cerebras unterzeichnet, darunter das französische Startup Mistral und seinen Le Chat-Assistenten sowie die AI-Q & A-Motorverwirrung. Suggingface und Alphasense haben sich auch den Reihen der Nutzung der Cerebras -Plattform angeschlossen. Diese Technologie eignet sich besonders für Inferenzmodelle, die langfristige Berechnungen und die Erzeugung einer großen Anzahl von Token erfordern, wie beispielsweise Deepseek-R1 und OpenAI O3. Diese Kooperationen zeigen ferner die großen Anwendungsaussichten für Cerebras -Technologie im Bereich der KI.
Die Expansion ist Teil der Gesamterweiterungsstrategie von Cerebras für 2025, wobei einige Einrichtungen in Zusammenarbeit mit der VAE -Firma G42 betrieben werden. In Montreal wird erwartet, dass ein neues Zentrum, das von Bit Digital -Tochter Enovum verwaltet wird, im Juli 2025 mit der Geschwindigkeit von Zehnfachen schneller als die aktuelle GPU lebt. Diese Geschwindigkeitsverbesserung wird die Verarbeitungszeit von KI -Modellen erheblich verkürzen und die Gesamteffizienz verbessern.
Cerebras Systems ist ein amerikanisches Unternehmen, das sich auf die Entwicklung von AI -Chips konzentriert. Seine einzigartige Designphilosophie ist es, den gesamten Wafer als einzelne Chip zu verwenden. Es hat nun die WSE-3 der dritten Generation Wafer-Scale Motors-Motor auf den Markt gebracht. Das System wurde in Institutionen wie Argonne National Laboratory, Pittsburgh Supercomputing Center und GlaxoSmithKline verwendet. Trotz seiner technologischen Vorteile gibt es Einschränkungen, z. B. keine Unterstützung der nativen CUDA (NVIDIA -Standard) und nicht so gut wie NVIDIA -Lösungen in Bezug auf die Serverkompatibilität. Das einzigartige Design von Cerebas zeigt jedoch immer noch ein großes Potenzial in bestimmten Anwendungsszenarien.
Schlüsselpunkte:
Cerebras plant, sechs neue Rechenzentren in Nordamerika und Europa zu errichten, die sich auf die Vereinigten Staaten konzentrieren, und wird voraussichtlich 2025 voll betriebsbereit sein.
Das Rechenzentrum wird einzigartige Chips im Wafermaßstab verwenden, die 40 Millionen Token pro Sekunde verarbeiten können.
Mehrere bekannte KI-Unternehmen haben die Zusammenarbeit mit Cerebras erreicht, um ihre Hochgeschwindigkeits-Argumentationsfunktionen gemeinsam zu nutzen.