Auf dem Kongress der Mobile World in Barcelona hielt Vishal Sharma, Vizepräsidentin der General Technology for künstliche Intelligenz, eine Rede über die weit verbreitete Verwendung künstlicher Intelligenz (KI) in Amazon's Business. Er wies darauf hin, dass die AI -Technologie in verschiedene Geschäftsbereiche von Amazon eingedrungen ist und fast kein Teil davon seiner Auswirkungen entgehen kann. Sharma betonte, dass Amazon die KI -Technologie in mehreren Anwendungen wie Cloud Computing Service AWS, Lagerroboter und Verbraucherprodukt Alexa über sein Basismodell bereitstellt.

Bildquelle Notizen: Das Bild wird von KI erzeugt, und der im Bild autorisierte Dienstanbieter Midjourney
Sharma erwähnte ferner, dass Amazon derzeit über 750.000 Roboter verfügt, die mehrere Aufgaben wie die Auswahl von Lagern beteiligen. Als eines der am häufigsten verwendeten KI -Produkte der Welt ist Alexa zu einem wichtigen Vertreter der AI -Technologie von Amazon geworden. Er betonte insbesondere, dass die verschiedenen Unternehmen von Amazon eng in die generative KI integriert waren, was nicht nur die Geschäftseffizienz verbessert, sondern auch eine bessere Erfahrung für Benutzer mit sich bringt.
Im Dezember letzten Jahres startete AWS ein Modellgenerierungsmodell namens Nova, eine Reihe multimodaler Generation -KI -Modelle. Sharma merkt an, dass diese Modelle in öffentlichen Benchmarks gut abschneiden und für eine Vielzahl von Nutzungsszenarien geeignet sind. Er erwähnte, dass unterschiedliche Szenarien unterschiedliche Bedürfnisse erfordern, und einige erfordern die Videogenerierung, während Produkte wie Alexa eine schnelle Reaktionsgeschwindigkeit, eine hohe Vorhersagbarkeit und keine falschen Anweisungen erfordern.
Sharma erwähnte auch, dass die Behauptung, Open Source -Modelle zu reduzieren, die Rechennachfrage nicht gültig ist. Er sagte, dass die erforderliche Intelligenz, wie es in verschiedenen Szenarien angewendet wird, weiter zunehmen wird. In der Zwischenzeit startete Amazon einen Service namens "Bedrock", mit dem Unternehmen und Startups eine Vielzahl von Grundmodellen flexibel verwenden können, einschließlich des Deepseek -Modells in China.
Darüber hinaus arbeitet Amazon mit Anthropic zusammen, um einen großen AI -Computing -Cluster mit seinem Trainium2 -Chip mit einer Investition von 8 Milliarden US -Dollar zu bauen. In Bezug auf die große Auswahl dieser Rechenressourcen ist Sharma der Ansicht, dass die Rechenleistung für lange Zeit zum Schwerpunkt der Branchendiskussion wird.
Auf die Frage, ob ich denke, dass Amazon bei der Entstehung von Open -Source -Modellen unter Druck steht, sagte Sharma, dass Amazon keine Sorgen darüber darf, sondern den Einsatz verschiedener Modelle wie Deepseek auf AWS begrüßt. Er fügte hinzu, dass Amazon immer an die Auswahl der Kunden glaubt.
Als er darüber sprach, ob Openai Ende 2022 Chatgpt auf den Markt brachte, bestritt Salma fest, dass Amazon seit fast 25 Jahren auf dem KI -Feld arbeitet, und Alexa hat ungefähr 20 verschiedene KI -Modelle verwendet.
Auf die Frage, ob die jüngsten Spannungen in den in den USA in Europa länderübergreifenden Ländern die Entscheidungen der europäischen Unternehmen in Bezug auf generative KI-Ressourcen beeinflussen werden, räumte Sharma ein, dass dies ein komplexes Thema ist und zukünftige Änderungen unvorhersehbar sind. Er sagte, dass technologische Innovation häufig von Anreizmechanismen beeinflusst wird.
Schlüsselpunkte:
Amazon VP sagte, dass AI in die verschiedenen Unternehmen von Amazon eingedrungen ist und betroffen ist.
Amazon hat in vielen Bereichen wie Cloud Computing AWS, Roboter und Alexa weit verbreitet.
Das Unternehmen hat den "Grundgestein" -Dienst gestartet, sodass Unternehmen eine Vielzahl von Grundmodellen flexibel verwenden können.