Snap kündigte auf der AWE sein bahnbrechendes Echtzeit-Bilddiffusionsmodell auf dem Gerät an, das in Echtzeit lebendige Augmented-Reality-Erlebnisse auf Smartphones generiert, und stellte Lens Studio 5.0 vor, ein neues generatives KI-Tool für AR-Entwickler. Dieser Schritt markiert eine aufregende neue Phase in der Entwicklung der AR-Technologie, die die Art und Weise, wie AR-Inhalte erstellt werden, erheblich verändern und den Benutzern ein reichhaltigeres und immersiveres AR-Erlebnis bieten wird. Diese Innovation von Snap verbessert nicht nur die Effizienz der Generierung von AR-Inhalten, sondern senkt auch die Schwelle für die Erstellung und öffnet so die Tür zur AR-Welt für mehr Entwickler.
Auf der Augmented World Expo demonstrierte Snap eine frühe Version eines Echtzeit-Bilddiffusionsmodells auf dem Gerät, das lebendige Augmented Reality (AR)-Erlebnisse erzeugen kann. Das Unternehmen brachte außerdem generative KI-Tools auf den Markt, die für AR-Entwickler entwickelt wurden.

Das Modell sei klein genug, um auf einem Smartphone zu laufen, und schnell genug, um Frames in Echtzeit basierend auf Textaufforderungen neu zu rendern, sagte Bobby Murphy, Mitbegründer und Chief Technology Officer von Snap, auf der Veranstaltung. Er wies darauf hin, dass das Aufkommen generativer KI-Bilddiffusionsmodelle zwar spannend sei, diese Modelle jedoch deutlich schneller sein müssten, um einen signifikanten Einfluss auf Augmented Reality zu haben. Deshalb habe Snaps Team an der Beschleunigung von Modellen für maschinelles Lernen gearbeitet.
Es wird berichtet, dass Snapchat-Benutzer in den nächsten Monaten beginnen werden, Linseneffekte zu sehen, die auf diesem generativen Modell basieren, und Snap plant, es noch vor Jahresende bei den Entwicklern bekannt zu machen. „Dieses Echtzeitmodell für generatives maschinelles Lernen auf dem Gerät und zukünftige Modelle markieren eine aufregende neue Richtung für Augmented Reality und lassen uns die Art und Weise überdenken, wie wir AR-Erlebnisse rendern und erstellen“, sagte Bobby Murphy.
Darüber hinaus kündigte Murphy auch die Einführung von Lens Studio 5.0 an, das Entwicklern neue generative KI-Tools bietet, mit denen sie AR-Effekte schneller als je zuvor erstellen und so Wochen oder sogar Monate Zeit sparen können. AR-Entwickler können mit neuen Tools schnell Selfie-Aufnahmen erstellen, indem sie äußerst realistische, maschinell erlernte Gesichtseffekte erzeugen. Darüber hinaus können sie in Echtzeit benutzerdefinierte Stileffekte erzeugen, die das Gesicht, den Körper und die Umgebung des Benutzers abdecken. Sie können außerdem in wenigen Minuten 3D-Filmmaterial erstellen und es auf ihre Aufnahmen anwenden.
Darüber hinaus können AR-Entwickler die Gesichtsnetztechnologie des Unternehmens nutzen, um durch Text- oder Bildaufforderungen Außerirdische, Zauberer und andere Charaktere zu generieren, und können außerdem in wenigen Minuten Masken, Texturen und Materialien erstellen. Die neueste Version von Lens Studio enthält außerdem einen KI-Assistenten, der Fragen von AR-Erstellern beantworten kann. Snap erwartet, dass diese neuen Tools die Art und Weise, wie AR-Erstellung erstellt wird, dramatisch verändern werden, sodass Entwickler ihre kreativen Ideen schneller verwirklichen können.
Das von Snap veröffentlichte geräteseitige Echtzeit-Bilddiffusionsmodell und Lens Studio 5.0 kündigen dieses Mal die rasante Entwicklung der AR-Technologie an, die Benutzern in Zukunft farbenfrohere Augmented-Reality-Erlebnisse bieten und die AR-Branche auf ein neues Niveau bringen wird. Ich glaube, dass wir in naher Zukunft weitere innovative Anwendungen sehen werden, die auf dieser Technologie basieren.