Meta-CEO Mark Zuckerberg präsentierte auf der diesjährigen Entwicklerkonferenz seines Unternehmens eine Brille von Ray-Ban, die eine KI-gesteuerte Funktion für Live-Sprachübersetzungen enthält – ein perfektes Hilfsmittel bei Auslandsreisen.

Die „Ray-Ban Meta“ genannte Brille ist durch eine Zusammenarbeit der beiden Unternehmen entstanden. Ray-Ban liefert die bekannte Brillenfassung, Meta ist für die neue Funktion verantwortlich, die durch künstliche Intelligenz gesteuert, eine Echtzeit-Übersetzung zwischen zwei Sprachen verspricht. Am Anfang ist das nur zwischen Englisch und Spanisch, Französisch oder Italienisch möglich, weitere Sprachen sollen aber in Kürze hinzugefügt werden.

Die neue Funktion löst ein Problem vieler Reisender, wie Meta in einer Pressemitteilung betont: Die Sprachübersetzung „… soll auch helfen, Sprachbarrieren abzubauen und Menschen einander näher zu bringen.“ Die Ray-Bans sollen ab 299 US-Dollar kosten.

Wann die Brillen tatsächlich erhältlich sein werden, konnte Zuckerberg noch nicht sagen. Er versprach allerdings, dass es bald der Fall sein würde und dass geplant sei, in Zukunft weitere Sprachen hinzuzufügen.

Wie funktioniert das Ganze? Wenn der Träger der Ray-Ban Meta mit einer Person spricht, die eine der drei genannten Sprachen benutzt, soll er/sie eine englische Übersetzung in Echtzeit über einen Lautsprecher in der Brille hören. Wenn er/sie dann in Englisch antwortet, nimmt ein Mikrofon in der Brille das Gesagte auf und überträgt es an die mit der Brille verbundene mobile App des Benutzers. Die Übersetzung wird über die App laut vorgesprochen, so dass die andere Person sie hören kann.

Zuckerberg hatte die neue Übersetzungsfunktion live mit einem Spanisch-sprachigen Partner vorgeführt. Die Demo war kurz, aber der Chatbot konnte trotz einiger Slangausdrücke und Pausen in Echtzeit übersetzen. Die KI-Entwicklerfirma „OpenAI“ hatte Anfang des Jahres ein Upgrade für die Live-Sprachübersetzung durch ihre App präsentiert, die sogar nonverbale Hinweise wie Ausatmen und Tonfall versteht. Diese Funktion ist aber noch nicht allgemein verfügbar.

Die neuen Funktionen für die Ray-Bans werden von Metas neuestem KI-Modell, Llama 3.2, gesteuert. Der Meta-KI-Chatbot, der über WhatsApp, Instagram, Messenger und Facebook zugänglich ist, erhält mit dem neuen Modell ein Upgrade. Es beinhaltet „multimodale“ Fähigkeiten, was bedeutet, dass Nutzer mit dem Chatbot über Text, Fotos und Sprache interagieren können.

(red)

Bild über ChatGPT generiert