Publicidad
Comparte esto en:

Ejecutivos de Apple analizan las nuevas características de los AirPods

Los AirPods solo tienen una mención pasiva durante la conferencia magistral del evento de Apple. Es comprensible: el iPhone 15 y el Apple Watch Series 9 (y Ultra 2) fueron el centro de atención. Además, los auriculares no recibieron el mismo tipo de actualizaciones de hardware. Como comunicado de prensa Publicado después de que se confirmó el evento, el mayor cambio físico en los AirPods Pro 2 es la llegada (ciertamente tan esperada) de un estuche de carga USB-C.

Se te perdonaría pensar que las noticias sobre los AirPods terminaron ahí. Sin embargo, los auriculares de gama alta de Apple también recibieron una importante actualización de software, en forma de nuevos modos de escucha a los que se puede acceder con unos pocos toques en iOS 17 en ambas versiones de los AirPods Pro 2 (USB-C y Lightning).

Publicidad

Con los nuevos modelos conectados, deslícese hacia abajo para abrir el Centro de control y mantenga presionado el control deslizante de volumen. A continuación aparecerán tres selecciones de modo: Cancelación de ruido, Conciencia conversacional y Audio espacial. Son los dos primeros los que recibirán el cariño este año.

Se ha agregado audio adaptativo a las opciones, junto con cancelación de ruido estándar, transparencia y silencio. Al tocar la nueva opción, se resalta con un fondo de arcoíris. La nueva función cambia sin problemas entre diferentes configuraciones en tiempo real. Es un intento de reunir ambos extremos del espectro en una sola configuración, para que puedas caminar por una calle concurrida con conciencia de la situación sin sentir el impacto sónico total del camión de la basura al pasar.

Publicidad

Créditos de imagen: Basura

Aunque comparte el mismo nombre que la función Transparencia Adaptativa del año pasado, Adaptive Audio ofrece una gama completa de modos, en los que la transparencia y la cancelación de ruido desempeñan un papel importante.

«La transparencia adaptativa, que anunciamos el año pasado, tiene que suceder muy rápidamente», dijo el director de marketing de productos Eric Treski en una conversación con TechCrunch. “Esto sucede 40.000 veces por segundo. Esto no es sólo seguimiento, sino también reducción. Para reducir esto rápidamente, es necesario que suceda en tiempo real. El audio adaptativo es un poco más lento en el transcurso de unos segundos porque es un proceso mucho más metódico para saber lo que estás escuchando. Estamos pasando del audio adaptable a la transparencia, por lo que, para hacerlo menos discordante y más cómodo, es mucho más lento a propósito por ese motivo”.

El sistema también tiene en cuenta si el contenido que estás escuchando es música o un podcast. Esto se determina en función del etiquetado de aplicaciones como Apple Music. Un micrófono también mide el volumen dentro de su oído para tener una idea real de qué tan alto está escuchando. «Porque si solo mides el volumen que crees que suena en los oídos de alguien», explica el vicepresidente de detección y conectividad, Ron Huang, dependiendo de cómo lo utilicen y otros factores, puede ser menos preciso.

Huang le dijo a TechCrunch que la compañía consideró aprovechar el GPS de su dispositivo para determinar los niveles de sonido según la ubicación. Sin embargo, en pruebas reales el método resultó ineficaz.

«Durante la exploración inicial de Adaptive Audio, básicamente lo pusimos en ANC versus transparencia, según dónde se encuentre», dice Huang. “Puedes imaginar que el teléfono podría inclinar los AirPods y decir: “Oye, estás en casa”, etc. Esa es una manera de hacerlo, pero después de todo nuestro aprendizaje, no creemos que sea la manera correcta de hacerlo y eso no es lo que hicimos. Por supuesto, su hogar no siempre es tranquilo y las calles no siempre son ruidosas. Decidimos que, en lugar de depender de una señal de ubicación de su teléfono, los AirPods monitorean su entorno en tiempo real y toman estas decisiones de manera inteligente por sí solos”.

AirPods Pro 2 con USB-C

Créditos de imagen: Darrell Etherington

El volumen personalizado también es una parte importante de la experiencia de Adaptive Audio. El sistema combina un conjunto de datos del usuario con preferencias personalizadas para crear una imagen más completa de los hábitos de los oyentes, combinado con «aprendizaje automático para comprender las condiciones ambientales y las preferencias de escucha a lo largo del tiempo para ajustar automáticamente la experiencia multimedia», según Apple. Se incluyen varias métricas diferentes.

«Se necesitan decenas de miles de horas de datos diferentes (diferentes usuarios escuchando diferentes contenidos con diferentes ruidos de fondo) para comprender realmente las diferentes preferencias de escucha y qué son los distractores y los acosadores desde una perspectiva de ruido para mantener el contenido realmente claro», Huang Advertising . “También recordamos sus preferencias personales. Dado un tipo de entorno, la cantidad de ruido que hay en él, el volumen con el que normalmente escuchas su contenido, y recuérdalo por ti. Lo hemos agregado a nuestro modelo de aprendizaje automático para que funcione aún mejor para usted”.

El otro modo importante introducido en iOS 17 es Conversational Awareness, que reduce el volumen de la pista cuando empiezas a hablar. Sin embargo, las voces externas no activarán el efecto, sólo los usuarios. Apple puede lograr este efecto sin mantener perfiles de voz integrados. En su lugar, utiliza varios sensores integrados. Cuando los micrófonos escuchan una voz y el acelerómetro detecta el movimiento de la mandíbula, la función se activa. Su duración depende de una variedad de factores diferentes. Me impresionó la capacidad de la función para evitar que la activen cosas como aclararse la garganta o bostezar.

El equipo también intentó otro problema de larga data con los auriculares: el cambio. El intervalo de cinco segundos entre contestar una llamada y escucharla a través de los auriculares parece una eternidad. Aprovechar la nueva velocidad de conmutación requiere que el usuario esté encerrado en el ecosistema de Apple.

Créditos de imagen: Basura

“Los tiempos de conexión de nuestros AirPods a nuestros dispositivos son mucho más rápidos con esta nueva actualización de software”, afirma Huang. “Esto se debe a las diferentes formas que utilizamos para descubrir dispositivos cercanos. Es realmente fundamental que sepamos qué está haciendo el iPhone, qué está haciendo el iPad y qué está haciendo la Mac. Una llamada telefónica es más importante que la música, por eso, cuando respondes una llamada, nos aseguramos de alejarnos del iPhone y conectarnos a tu Mac para la conferencia telefónica, por ejemplo.

Publicidad

La última gran pieza del anuncio de AirPods es la conectividad Vision Pro. Para una experiencia de audio completa, aquellos que usan los próximos auriculares de computación espacial de Apple deben traer los nuevos AirPods Pro para obtener audio sin pérdidas de latencia ultrabaja.

«Bluetooth normalmente funciona a 2,4 gigahercios y ese espacio aéreo es muy, muy ruidoso», dice Huang. “Todos funcionan con 2.4. Esta es la razón por la que los enrutadores Wi-Fi, por ejemplo, suelen ser de doble banda, si no de tres bandas, porque el espectro de 5 GHz es mucho más limpio. Para obtener audio de latencia realmente baja y audio de alta fidelidad sin pérdidas, se trata de un canal muy, muy limpio y en tiempo real entre dos. La combinación de 5Ghz y el hecho de que están muy juntos nos permitió hacer esto. Básicamente, pudimos rediseñar un nuevo protocolo de audio de 5 GHz para AirPods”.

Lea más sobre el evento iPhone 15 de Apple en TechCrunch


Comparte esto en:
Publicidad

Publicaciones Similares

Deja un comentario