Icono del sitio Cápsula Virtual

El sonido del futuro ya está aquí: audio adaptado a cada oreja | Tu Tecnología | El País


Si no hay dos personas con los oídos iguales (ni siquiera el izquierdo es igual que el derecho), ¿por qué los auriculares sí lo son? ¿Hasta qué punto influye esta homogeneidad de los diseños y la ecualización en la calidad de sonido que se obtiene con ellos? Para los expertos, mucho. Hasta ahora, los fabricantes se habían centrado en ofrecer distintas opciones de ajuste con almohadillas de tamaños y materiales en su esfuerzo para asegurar la mejor experiencia de audición posible: si el canal auditivo no queda aceptablemente sellado, seguirán entrando los ruidos del entorno y no se distinguirán aceptablemente los matices de la música. Pero en los últimos tiempos han ido un paso más allá: ahora consiguen adaptar todavía cómo suenan en función de la forma de las orejas o de la persona. Es la personalización en su mayor indicador.

El caso de Apple: audio espacial

Ejemplos ya hay muchos, cada uno con unas tecnologías y aplicaciones diferentes. En el caso de Apple, por ejemplo, esta característica se ha llamado audio espacial y se emplea para que la experiencia auditiva sea más inmersiva, de modo que cada afortunado perciba el sonido en función del tamaño y la forma de su persona y orejas. De ahí que para utilizarlo haya que hacer un escáner previo con la cámara del iPhone de esta zona del cuerpo.

¿En qué se traduce? En que cuando se audición música o ven películas y series en el iPhone, iPad, Mac y Apple TV, el sonido parece que llega de todas partes y, gracias al estabilizador y acelerómetro instalados en cada auricular, detectan cómo nos movemos y el sonido todavía se percibe diferente en función de la posición de la persona. Para ello se requiere, eso sí, unos auriculares AirPods Pro de 1ª o 2ª gestación, unos AirPods Max, los AirPods de 3ª gestación o unos Beats Fit Pro. Y adicionalmente, la app desde la que se vaya a escuchar el sonido (música, contenido multimedia…) ha de ser compatible con esta función, que solo está operativa en teléfonos y tabletas de Apple con el sistema operante 15.1 o superior, y en ordenadores Mac con procesador M1 o superior.

Poco similar hace Sony. En este caso, aplicando su tecnología 360 Reality Audio a la música y a la cinta de vídeos musicales en vivo: sitúa las voces, los instrumentos e, incluso, el sonido del conocido en un campo sonoro esférico y a una distancia y ángulo personalizados. Así, la sensación es como si se estuviera en el centro de la música.

La diferencia con Apple es que esta tecnología está integrada en múltiples sistemas de sonido; no solo de Sony, sino todavía de Amazon, Denon, Marantz, Audio Technica o Sennheiser. Y la música con este sonido envolvente está apto desde plataformas como Amazon Music Unlimited o Tidal. De nuevo, una parte esencial de su éxito es que los dispositivos sean capaces de adaptar el sonido a las características físicas de cada persona. En el caso de los auriculares de Sony, por ejemplo, se analiza la forma de la oreja y las mejillas desde la app Headphones Connect (la que se emplea para ejecutar el dispositivo desde el móvil) y ajusta la ecualización en función de ello.

Bose: escáner auditivo en cada uso

El ejemplo de Bose, por postrer, es poco diferente por tres razones: en punto de escanear las orejas, se centra en el canal auditivo. Los propios auriculares repiten ese descomposición cada vez que un afortunado se los pone (sin que haya que hacer ausencia) y usan los resultados principalmente para mejorar el rendimiento del sistema de derogación de ruido activo. El objetivo es conseguir el mayor silencio posible durante la reproducción del sonido.

Bose lo ha implementado en sus últimos auriculares inalámbricos, los QuietComfort Earbuds II. Para ello, los ingenieros de la firma se han inspirado en la tecnología AdaptiQ de sus barras de sonido y sistemas de cine en casa, que tienen en cuenta el tamaño de la habitación, la forma, los muebles, la ruedo y el material del suelo para ajustar el rendimiento del sistema. Su planteamiento es que, al igual que el sonido de un altavoz se ve cambiado por la habitación en la que se encuentra y el punto donde está colocado, el sonido de un auricular resulta modificado de forma diferente en el canal auditivo de cada persona. Y esas diferencias limitan la efectividad de la derogación de ruido.

En la actos, cada vez que se colocan los auriculares este escáner auditivo se pone en marcha emitiendo un sonido que viene y va: rebota en el interior del oreja y es captado por los micrófonos integrados. Dura casi nada un segundo, pero es suficiente para sintonizar el oreja del afortunado y poder, así, poder optimizar tanto la derogación de ruido como el rendimiento sonoro para cada persona.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para tomar nuestra newsletter semanal.



Creditos a Laura Pajuelo

Fuente

Salir de la versión móvil