이번 주에는 AI 분야에서 좋은 소식이 많이 있었습니다. Google Gemini 모델의 성능이 크게 향상되고 비용도 절감되었습니다. 눈길을 끄는. 동시에 Google DeepMind의 AlphaChip 프로젝트도 획기적인 진전을 이루고 칩 설계 효율성을 가속화하며 관련 모델을 오픈 소스화하여 업계 발전에 강력한 추진력을 불어넣었습니다. Downcodes의 편집자는 이러한 흥미로운 AI 개발에 대해 자세히 설명할 것입니다.
지난주 AI 업계는 정말 분주했습니다. Google과 Meta 모두 새로운 버전의 AI 모델을 출시해 많은 관심을 받고 있습니다. 먼저, Google은 화요일에 Gemini 시리즈의 새로운 업데이트를 발표하여 Gemini-1.5-Pro-002와 Gemini-1.5-Flash-002라는 두 가지 새로운 생산 준비 모델을 출시했습니다.

이 업데이트는 특히 수학, 긴 컨텍스트 처리 및 비전 작업에서 모델의 전반적인 품질을 크게 향상시켰습니다. 구글은 MMLU-Pro 벤치마크 테스트에서 성능이 7% 향상되었고, 수학 관련 작업 성능이 20% 향상되었다고 주장합니다. AI에 관심이 있다면 벤치마크의 중요성이 제한적이라는 점을 알아야 하지만 이 데이터는 여전히 매우 흥미롭습니다.
Google은 모델의 성능 향상 외에도 Gemini1.5Pro 사용 비용을 크게 절감하여 입력 및 출력 토큰 수수료가 각각 64% 및 52% 감소했습니다. 이러한 움직임은 개발자가 Gemini를 사용하는 것을 더욱 비용 효율적으로 만듭니다.
또한, 업데이트 이후 Gemini-1.5Flash 및 Pro의 요청 처리 속도도 향상되어 전자는 분당 2,000건, 후자는 분당 1,000건의 요청을 지원할 수 있습니다. 이러한 개선 사항은 의심할 여지 없이 개발자가 애플리케이션을 보다 쉽게 구축하는 데 도움이 될 것입니다.

수요일에 Meta는 개방형 AI 모델의 주요 업데이트인 Llama3.2를 출시하면서 가만히 있지 않았습니다. 이 업데이트에는 매개변수 크기가 11억~90억에 이르는 시각적 기능을 갖춘 대규모 언어 모델이 포함되어 있으며, 모바일 장치용으로 설계된 매개변수가 1억~3억 개 있는 경량 텍스트 모델도 출시됩니다.
Meta는 이러한 시각적 모델이 이미지 인식 및 시각적 이해 분야에서 시장을 선도하는 비공개 소스 모델과 유사하다고 주장합니다. 또한 일부 AI 연구자들은 새로운 모델을 테스트했으며 결과에 따르면 이러한 작은 모델이 많은 텍스트 작업에서 잘 수행되는 것으로 나타났습니다.

다음으로 목요일에 Google DeepMind는 공식적으로 주요 프로젝트인 AlphaChip을 발표했습니다. 이 프로젝트는 2020년 연구를 기반으로 하며 강화 학습을 통해 칩 레이아웃을 설계하는 것을 목표로 하고 있습니다. Google은 AlphaChip이 지난 3세대의 텐서 처리 장치(TPU)에서 고품질 칩 레이아웃을 생성하는 데 있어 '초인적 칩 레이아웃' 속도를 달성할 수 있다고 말합니다. 인간의 경우 몇 주 또는 몇 달에서 몇 시간으로 단축됩니다.
더욱 언급할 만한 점은 Google도 AlphaChip의 사전 훈련된 모델을 GitHub에서 대중과 공유하여 다른 칩 설계 회사도 이 기술을 사용할 수 있게 했고, MediaTek과 같은 회사에서도 이를 채택하기 시작했다는 것입니다.
가장 밝은 부분:
** Google은 전반적인 성능을 개선하고 가격을 대폭 낮추는 새로운 버전의 Gemini 모델을 출시했습니다. **
**Meta는 시각적 기능을 지원하고 잘 수행되는 작은 언어 모델인 Llama3.2를 출시합니다. **
** Google의 AlphaChip은 칩 설계를 가속화하고 설계 효율성을 크게 향상시키며 기술을 공유합니다. **
전체적으로 이번 주 AI 분야의 혁신은 흥미롭습니다. 이러한 기술 발전은 더 많은 분야에서 인공지능의 적용을 촉진할 것이며 지속적인 관심을 받을 가치가 있습니다. 다운코드 편집자는 계속해서 더 많은 최첨단 기술 정보를 제공할 것입니다.