Google은 최근 인공 지능 보조 Gemini Live가 주요 업데이트를 통해 일련의 혁신적인 기능을 시작했다고 발표했습니다. 이러한 기능은 Google의 "Project Astra"프로젝트를 기반으로하며 거의 1 년간의 연구 개발 후 처음으로 사용자에게 공개되었습니다. 가장 눈길을 끄는 것은 Gemini Live가 이제 스마트 폰 카메라를 통해 실시간으로 화면 내용을 해석하고 사용자의 질문에 대한 정확한 답변을 제공 할 수 있다는 것입니다.

Google 대변인 Alex Joseph에 따르면이 업데이트는 Gemini가 사용자의 일상 생활에서 스마트 어시스턴트로 만들 것입니다. 현재 일부 사용자는 Xiaomi 전화에서 기능을 경험 한 방법을 Reddit에서 공유했으며 9to5google 도이에 대해 자세히보고했습니다. 사용자는 또한 Gemini의 새로운 화면 읽기 기능을 보여주는 데모 비디오를 발표하여 더 많은 사람들 이이 혁신적인 기술을 직관적으로 이해할 수있게 해줍니다.
이 업데이트에는 Google이 Google One AI Premium Initiative의 일환으로 이달 말 Gemini의 프리미엄 가입자에게 추진할 두 가지 핵심 기능이 포함되어 있습니다. 공식 데모 비디오에서, 한 사용자는 gemini에게 새로 유약이있는 도자기의 색상 선택에 대해 물었습니다. 어시스턴트는 실시간 제안을 제공했을뿐만 아니라 각 색상의 특성을 자세히 설명 하여이 새로운 기술의 강력한 기능을 완전히 보여주었습니다.
이번에는 Google의 기능 출시가 AI 보조 시장에서 주요 위치를 더욱 통합합니다. 한편 아마존은 제한된 초기 시험으로 업그레이드 된 Alexa Plus를 출시 할 준비를하고있는 반면 Apple은 Siri 로의 업그레이드를 연기했습니다. 이것은 Gemini를 시장 경쟁에서 좋은 위치로 만듭니다. 또한 삼성은 Bixby Assistant를 계속해서 홍보하고 있지만 Gemini는 현재 Google 휴대 전화의 기본 조수이며 Smart Assistant 분야에서 Google의 전략적 레이아웃을 나타냅니다.
AI 기술의 지속적인 발전으로 일상 생활에서 사용자의 대화식 경험이 더 똑똑하고 편리해질 것입니다. Google의 새로운 시도는 사용자에게 더 많은 가능성을 제공하며 향후 인공 지능 보조원은 사람들의 실제 요구에 더 가까워 질 것입니다. 실시간 시각적 인식에서 지능적인 제안에 이르기까지 Gemini Live의 업데이트는 AI 비서를위한 새로운 개발 단계를 나타냅니다.
핵심 사항 :
Google Gemini Live는 휴대 전화 카메라를 통해 실시간으로 사용자 질문에 답할 수있는 새로운 AI 기능을 출시했습니다.
사용자는 Xiaomi 전화에서 새로운 기능을 경험했으며 관련 데모 비디오를 출시했습니다.
이 업데이트는 스마트 어시스턴트 시장에서 Google의 주요 위치를 더욱 강화합니다.