Augmented Reality: Qualcomm stellt neuen Prozessor für kleinere AR-Brillen vor

Mit dem Snapdragon AR2 Gen 1 hat Qualcomm einen neuen Prozessor speziell für Augmented-Reality-Brillen vorgestellt. Er basiert auf einem Multi-Chip-Design und unterscheidet sich in einem wichtigen Aspekt von bisherigen Qualcomm-Prozessoren für Augmented- und Virtual-Reality-Brillen. Denn statt alle Komponenten oder zumindest möglichst viele auf einem Chip zu vereinen, gibt es nun drei räumlich getrennte. Das bietet laut Qualcomm vor allem beim Design der Brille Vorteile.

Das neue Multi-Chip-Design soll aufgrund des geringeren Platzbedarfs vor allem kompaktere AR-Brillen ermöglichen.

(Bild: Qualcomm)

Träger einer Augmented-Reality-Brille (AR-Brille) müssen nicht mehr Platz für einen großen Chip bieten, sondern nur noch für einen kleineren. Der Steg kann auch schmaler sein, da die Verdrahtung einzelner Komponenten aufgrund des Multi-Chip-Designs und der verteilten Aufgaben weniger Platz beansprucht. Im Vergleich zum Snapdragon XR2, der Teil der VR-Brille Meta Quest 2 ist, spricht Qualcomm von einer 40 Prozent kleineren Chipfläche und 45 Prozent weniger Kabelverbindungen.

Dreifachprozessor

Im Detail besteht der Snapdragon AR2 Gen 1 aus drei Chips. Der AR-Prozessor ist für alle Operationen in Bezug auf Wahrnehmung und integrierte Anzeigen verantwortlich. Dementsprechend verfügt es über eigene CPU-Kerne, einen Bildprozessor (Spectra ISP), eine Grafikeinheit und einen KI-Prozessor (Hexagon). Der AR-Prozessor ist, zumindest laut Qualcomms Designvorschlag, im rechten Bügel untergebracht.

Der AR-Coprozessor hingegen sitzt auf dem Brillensteg über der Nase. Darüber werden Sensoren und Kameras angeschlossen. Es verfügt auch über KI- und Computer-Vision-Funktionen zur Auswertung von Sensor- und Kameradaten. Auch hier stehen eigene CPU-Kerne und ein KI-Beschleuniger zur Verfügung.

Qualcomm verteilt die einzelnen Komponenten des Snapdragon AR2 Gen 1 in Bügel und Steg der AR-Brille. Die Verbindung zum Host erfolgt über WLAN.

(Bild: Qualcomm)

Der dritte Chip befindet sich in der linken Klammer und ist für die Verbindungen zum Host-Gerät zuständig. Hauptbestandteil ist die Kommunikationsplattform FastConnect 7800 mit Wi-Fi 7, die auch im Snapdragon 8 Gen 2 zum Einsatz kommt.

Zwei der drei Komponenten des Snapdragon AR2 Gen 1: oben der AR-Prozessor, unten der AR-Coprozessor.

Angaben zu CPU und Grafikeinheit macht Qualcomm nicht. Auf Nachfrage bestätigte das Unternehmen lediglich, dass es sich nicht um eine „Smartphone-CPU“ handele. Dem stehen die geringe benötigte Rechenleistung und das Ziel von weniger als 1 Watt Leistungsaufnahme entgegen.

Kein Host, keine Augmented Reality

Ein Host ist erforderlich, da der Snapdragon AR2 Gen 1 nicht in der Lage ist, alle Berechnungen selbst durchzuführen. Der Host muss laut Qualcomm nicht zwingend ein Smartphone sein, auch Computer nennt das Unternehmen als geeignete Geräte. Entscheidend ist, dass der Hersteller der AR-Brille eine Begleitanwendung für die entsprechende Plattform wie Android, iOS oder Windows anbietet. Im Idealfall kann der Host wegen der hohen Bandbreite und der geringen Latenz mit Wi-Fi 7 umgehen, der Standard ist aber kein Muss. Im Gespräch sagte Qualcomm, dass Wi-Fi 6E für einen reibungslosen Datenaustausch ausreicht, es aber auch ausreichend Bandbreite und ausreichend niedrige Latenz bieten sollte.

Gegenüber dem bisher für AR-Brillen angebotenen Snapdragon XR2 spricht Qualcomm von einer 50-prozentigen Reduzierung des Stromverbrauchs. Gleichzeitig soll die KI-Leistung teilweise um bis zu 150 Prozent gestiegen sein. Dies gilt vor allem für die Bildverarbeitung, einschließlich Objekterkennung und Handbewegungsverfolgung.

Die ersten in 4 Nanometer gefertigten AR-Brillen auf Basis des Snapdragon AR2 Gen 1 werden bereits von Lenovo, Oppo, Xiaomi und einigen anderen Herstellern entwickelt. Allerdings rechnet Qualcomm mit einer Verfügbarkeit erst in der zweiten Jahreshälfte 2023. Software-Entwickler können ihre Programme per SDK an den Snapdragon AR2 Gen 1 anpassen. Die Zusammenarbeit unter anderem mit Adobe und Niantic zielt darauf ab, die Erstellung von Inhalten zu vereinfachen. Adobe setzt auf eine Verknüpfung mit eigenen Programmen, um Inhalte ohne Programmierkenntnisse umzusetzen. (pb)

Auf der Homepage

Leave a Comment

Your email address will not be published. Required fields are marked *