Apple bringt seine KI-Technologien schneller auf die Vision Pro als erwartet. Neue Funktionen wie Text- und Bildgenerierung sowie die Integration von ChatGPT werden vorgestellt. Es gibt jedoch auch Herausforderungen, vor allem bei der Sprachassistenz von Siri. Zudem wird die neue App 'Image Playground' für kreative Bildgenerierung diskutiert, die sowohl Potenzial als auch Mängel aufweist. Ein Blick auf die Entwicklungen im Metaversum rundet das Gespräch ab.
Die Integration von Apple Intelligence in die Vision Pro ermöglicht Nutzern eine effizientere Textbearbeitung und Unterstützung bei der Nutzung von KI-Tools wie ChatGPT.
Der neue Gäste-Modus der Vision Pro fördert die Benutzerfreundlichkeit, indem er es anderen Nutzern ermöglicht, die Brille einfach und sicher zu verwenden.
Deep dives
Apple Intelligence auf der Vision Pro
Die Integration von Apple Intelligence in die Vision Pro stellt eine bedeutende Neuerung dar, die verschiedene Funktionen wie Textkorrektur, Zusammenfassungen und die Einbindung von KI-Tools wie ChatGPT umfasst. Nutzer können beim Schreiben von Texten Unterstützung erhalten und diese effizienter gestalten, wobei dies besonders nützlich ist, wenn die virtuelle Tastatur in der Mixed Reality möglicherweise unbequemer ist. Ein Beispiel dafür ist die Möglichkeit, Texte automatisch zusammenzufassen oder Listen und Tabellen zu generieren. Allerdings gibt es derzeit einige Einschränkungen, wie die fehlende Unterstützung der deutschen Sprache, sowie einige Funktionen, die weniger ausgereift erscheinen, was die Leistung von Apple Intelligence betrifft.
Gastmodus und Benutzerfreundlichkeit
Der neue Gastmodus der Vision Pro verbessert die Benutzerfreundlichkeit erheblich, indem er es anderen Nutzern ermöglicht, die Brille zu verwenden, ohne die Optik-ID des Hauptnutzers zu benötigen. Dieser Modus erfordert eine Bestätigung vom Besitzer der Brille, wodurch eine sicherere und flexiblere Nutzung gewährleistet wird. Der Gastmodus speichert die Kalibrierung der Augen für bis zu 30 Tage, was bedeutet, dass wiederkehrende Nutzer schnell auf ihre Einstellungen zugreifen können. Trotz dieser Vorteile bleibt eine Herausforderung, dass neue Nutzer bei erstmaliger Anwendung eine Kalibrierung durchlaufen müssen, was insbesondere in hektischen Situationen, wie auf Messen, schwierig sein kann.
Funktionen des Vision OS 2.4 Updates
Das Update auf Vision OS 2.4 bringt nicht nur Apple Intelligence, sondern auch eine Reihe anderer Verbesserungen. Dazu gehören erweiterte Funktionen in der Notizen-App, die es Nutzern ermöglichen, mathematische Berechnungen durchzuführen und Bilder zu generieren. Diese zusätzlichen Features zeigen den Fortschritt von Apple in der Entwicklung ihrer Software, auch wenn einige Funktionen noch nicht in vollem Umfang verfügbar sind und die Sprachunterstützung teils fehlt. Nutzer können auch erwarten, dass weitere bedeutende Updates und Funktionen bald erscheinen, die die allgemeine Nutzererfahrung weiter verbessern werden.
Zukünftige Entwicklungen und Integrationen
In der Zukunft plant Apple, eine Vision-App für das iPhone einzuführen, die es ermöglichen wird, Apps einfacher herunterzuladen und auf die Vision Pro zu übertragen. Zudem wird eine Spatial Gallery App entwickelt, die interaktive Inhalte sowohl von Apple als auch von Drittanbietern bündeln soll, was das Potenzial für immersive Erlebnisse stärkt. Diese Erweiterungen zeigen Apples Engagement, die Vision Pro in das Ecosystem einzufügen und die Benutzererfahrung zu bereichern. Die Entwickler-Community wird auch neue Möglichkeiten erhalten, um innovative Anwendungen für die Vision Pro zu schaffen, was die Plattform weiter beleben wird.
Früher als gedacht bringt Apple sein KI-Paket auf die Vision Pro: Ab visionOS 2.4 lassen sich viele der bekannten Funktionen von Apple Intelligence auch mit dem VR-Headset nutzen – von Text- und Bildgenerierung über ChatGPT-Integration bis zu Genmojis. Weitere Verbesserungen für die Vision Pro zeichnen sich ab, darunter eine Vision-App für das iPhone und eine neue Sammelstelle für immersive und räumliche Videos. Bislang gibt es nur eine erste Beta, das Update erscheint voraussichtlich im April.
In Episode 44 tauschen sich Leo Becker und Mark Zimmermann, Leiter für mobile Lösungen bei EnBW, über die ersten Erfahrungen mit dem „räumlichen“ Apple Intelligence aus. Neben erfreulichen Neuerungen bleiben die ärgerlichen Seiten nicht unerwähnt, darunter der Stillstand bei dem auf der Vision Pro besonders wichtigen Sprachassistenzsystem Siri. Auch das Fehlen der „Visuellen Intelligenz“, die auf iPhones Kontextinformationen über die Umgebung liefert, lässt uns rätseln. Thema ist außerdem ein Bitkom-Bericht über das „Metaverse“.