인공 지능 분야에서 AI는 최근에 최대 3 천 5 백만 달러의 라운드 B 파이낸싱을 발표 했으며이 뉴스는 업계에서 널리 퍼져 나갔습니다. 이 회사의 급속한 상승은 최신 심층 추론 모델 인 DeepSeek-R1과 밀접한 관련이 있습니다. 초기 문제와는 달리, 많은 업계 전문가들은 심층 추론 기술의 발전이 인프라 수요를 줄일뿐만 아니라 이러한 수요를 지속적으로 증가 시킨다고 생각합니다.
2023 년에 시작된 이래 AI의 사명은 Open Source Lange Language Model (LLM)의 엔터프라이즈 사용을 단순화하는 것입니다. 시간이 지남에 따라 회사는 가상 개인 구름 및 온 프레미스 환경에서 AI 배치를 지원하는 "함께 플랫폼"이라는 솔루션을 시작하기 위해 플랫폼을 점차적으로 확장했습니다. 2025 년에 AI는 플랫폼 기능을 더욱 향상시키고 추론 클러스터링 및 자율 인텔리전스 (Agentic AI) 기능을 시작했습니다.
Together AI의 CEO 인 Vipul Prakash에 따르면 DeepSeek-R1의 매개 변수는 671 억에 이르기 때문에 운영 비용이 과소 평가되지 않도록합니다. 점점 더 많은 사용자의 요구를 충족시키기 위해 AI는 "추론 클러스터"서비스를 시작하여 고객에게 128 ~ 2,000 개의 칩 전용 칩을 제공하여 모델의 최상의 성능을 보장합니다. 또한 DeepSeek-R1 요청 처리 시간은 일반적으로 더 길며 평균 2 ~ 3 분이 더 길어 인프라 수요가 증가합니다.
추론 모델의 적용 측면에서 함께 AI는 코딩 에이전트, 모델의 환상 감소, 강화 학습을 통한 모델의 자기 개선을 달성하는 것과 같은 특정 사용 시나리오를 보았습니다. 이러한 응용 프로그램은 작업 효율성을 향상시킬뿐만 아니라 모델 출력의 정확도를 향상시킵니다.
또한 AI는 자율 지능형 워크 플로에서 기능을 향상시키기 위해 Codesandbox를 획득했습니다. 이 획득을 통해 클라우드에서 코드를 빠르게 실행하여 대기 시간을 줄이고 프록시 워크 플로의 성능을 향상시킬 수 있습니다.
치열한 시장 경쟁에 직면 한 AI의 인프라 플랫폼은 지속적으로 최적화되고 있으며, 새로운 세대의 NVIDIA Blackwell Chips의 배치는 모델 교육 및 추론을위한 더 높은 성능과 낮은 대기 시간을 제공 할 것입니다. Prakash는 Azure와 같은 다른 플랫폼과 비교하여 AI의 추론 속도가 상당히 개선되어 고성능 AI 인프라에 대한 고객의 요구를 크게 충족 시켰다고 지적했습니다.
핵심 사항 :
함께 AI는 심층적 인 추론 모델의 개발을 촉진하기 위해 3 억 5 천 5 백만 달러의 자금 조달을 받았습니다.
DeepSeek-R1의 복잡성은 인프라 수요가 크게 증가했으며 시장 수요를 충족시키기 위해 "추론 클러스터"서비스의 출시가 시작됩니다.
새로 인수 한 Codesandbox 및 Nvidia Blackwell Chips는 AI의 시장 경쟁력을 더욱 향상시킬 것입니다.