AR (=Erweiterte Realität) ist da, aber nicht für das Sehen, sondern das Hören. Und das wirft Fragen zu gesellschaftlichen Konventionen auf.
Nein, Augmented Reality ist noch nicht wirklich für das „Sehen“ da (ich bin aber gespannt auf die Apple Vision).
Aber beim „Hören“ funktioniert AR. Jetzt.
Denn Kopfhörer mit Geräuschunterdrückung und intelligenten Transparentmodi (wie bei den AirPod Pro 2 mit iOS17) funktionieren einfach dermaßen gut.
Ich gleite durch die Stadt und höre Musik oder einen Podcast. Dann spreche ich jemand (z.B. An der Supermarktkasse) an. Die Kopfhörer erkennen die Konversation und aktivieren automatisch den Transparenzmodus und reduzieren die Lautstärke der Musik. Erst jetzt merke ich, wie laut es eigentlich um mich herum ist. Nach dem kurzen Gespräch wird die Welt wieder leise und ich gleite weiter in der wuseligen, aber (für mich) leisen, Stadt.
Problem: ich finde es (noch) unhöflich, mit Leuten zu sprechen, wenn sie oder ich Kopfhörer in den Ohren haben.
Akustisch kann ich die anderen problemlos verstehen. Aber woher wissen die das?
Mal sehen, wie sich hier die Konventionen in den nächsten Jahren entwickeln. Interessant hierzu der Kommentar „To Quieten the World“ von Alexander Olma/Greg Morris.
Ich kann die AirPod Pro 2 von Apple (für iPhone Nutzer) vorbehaltlos empfehlen. Einfach das beste Gadget, dass ich jemand gekauft habe. Aber wie sieht es mit anderen Geräten aus. Was ist mit Sony/Google/Bose Kopfhörern (auf Android)? Habt ihr Empfehlungen?
Und nehmt ihr die Kopfhörer an der Supermarktkasse raus?