Si bien son virtuales, los elementos (tierra, aire, fuego y agua) son tan importantes en la irrealidad como en la realidad. Esos elementos virtuales deben complementarse con tecnologías que reemplacen la percepción sensorial ordinaria: posicionamiento espacial, detección de objetos, percepción a distancia y más. Combine todo esto y tendrá un sistema operativo para emular la realidad en la irrealidad.
Apple lo está construyendo.
La realidad aumentada está en todas partes en la WWDC22
En la WWDC 2022, Apple no mencionó las gafas de realidad aumentada (AR) en las que todos creemos que está trabajando.
Y aunque AR disfrutó de un par de menciones durante el discurso de apertura público de la compañía el lunes, en realidad no evangelizó la tecnología. Esto es bastante diferente a años anteriores. La empresa suele tener algo que ofrecer sobre el tema desde hace seis años, cuando el director ejecutivo Tim Cook dijo: “Estamos entusiasmados con la RA a largo plazo, creemos que hay grandes cosas para los clientes y una gran oportunidad comercial”.
Que no haya dicho mucho este año es llamativo.
Si bien es posible que la compañía no haya mencionado mucho en el escenario, las sesiones de desarrolladores que tienen lugar durante el programa cuentan una historia diferente. Parecen mostrar ejemplos abiertos y encubiertos de filosofías y tecnologías para respaldar la RA en casi todo momento.
Incluso la capacidad de admitir múltiples ventanas en las aplicaciones Swift UI puede tener importancia, a medida que la empresa avanza hacia nuevas formas de interactuar con los datos. Esa increíble cámara gran angular Herramienta Vista de escritorio mostrar simultáneamente la cara de un usuario y una vista aérea de su escritorio podría ser fácilmente una punta del sombrero proverbial hacia nuevos modos de usabilidad.
¿Tus dedos necesitan un teclado real cuando puedes tener uno virtual? ¿Cuándo usaremos nuestras Mac como si fueran gafas de sol?
[Also read: Apple calls out Meta for hypocrisy]
De qué está hablando Apple, de verdad
manzana Sesiones de desarrolladores de la WWDC están adornados con características para promover, habilitar o sugerir cómo se encuentra en una etapa avanzada de preparación del terreno para el aumento en sus plataformas. Simplemente eche un vistazo al calendario de sesiones y encontrará sesiones relevantes, como:
- Aprendizaje automático en Metal para crear experiencias de juego cada vez más realistas.
- MetalFX, una potente API que permite efectos gráficos de alto rendimiento y alta calidad.
- Una sesión en ARKit6, los desarrolladores pueden crear experiencias AR renderizadas en 4K HDR para escenas aún más fotorrealistas.
Ayudar a las computadoras a comprender dónde están y qué pueden ver también es un componente esencial para desarrollar la RA. Plano de habitación muestra cómo Apple está desarrollando tecnología para esto, incluso cuando el creciente número de categorías entendidas por su poderosa herramienta de búsqueda muestra una creciente comprensión de los entornos circundantes. LiveText en video hace que cada palabra que puedas captar con la cámara sea procesable en tus aplicaciones.
Supongo que si puedes leer la habitación, puedes leer la carretera.
Y hay más. Mire la creciente cosecha de datos de ubicación ahora disponibles en Maps y MapKit, donde puede explorar ciudades enteras en 3D detallado. Las cámaras LiDAR te dan profundidad. UWB puede ser una LAN alternativa y una tecnología de soporte como Universal Scene Description. Eche un vistazo a esas sesiones una vez más y verá que muchas cumplen una doble función: respaldar las plataformas existentes de Apple y al mismo tiempo respaldar aquellas que creemos que están saliendo lentamente a la luz.
Más de lo que es visible
Solo he arañado la superficie de lo que podemos ver, pero la conclusión es simple: Apple aún no está lista para discutir sus planes más amplios, pero en la WWDC 2022 está equipando suavemente a sus desarrolladores con las herramientas que necesitan para crear experiencias de RA cada vez más sofisticadas. .
El enfoque en la percepción inteligente (máquina) y la comprensión de la realidad inmediata alrededor de la computadora es la pieza más profunda de este rompecabezas. Resolverlo permitirá a Apple ofrecer herramientas con las que desarrollar soluciones automatizadas para muchas funciones. Lo que podríamos terminar llamando realityOS para experiencias de consumo podría convertirse muy fácilmente en un “SO industrial” para la fabricación inteligente. Una vez que tenga percepción, profundidad, ubicación y reconocimiento de objetos, tendrá una oportunidad de automatización.
Apple tiene todas estas cosas y también fabrica el silicio para impulsarlas.
Ya me he adelantado demasiado a la realidad en la que nos encontramos ahora. Pero si bien Apple habló sobre sus planes para AR durante su discurso de apertura, si profundiza, verá que donde cuenta, en sus contactos con los desarrolladores en el evento, AR y la tecnología para respaldar AR están muy de moda.
Mientras tanto, la enigmática máquina de rumores de Apple favorita de todos, Ming-Chi Kuo, cree que la empresa arrojará más luz sobre sus planes de AR en un evento especial para los medios en enero de 2023, 16 años desde la introducción del iPhone en enero de 2007. Sería un movimiento que tiene cierta resonancia histórica y dice mucho de la creciente confianza de la compañía en la plataforma que busca construir. En mi opinión, la empresa ya cuenta con una gran cantidad de tecnologías de desarrollo para respaldar este siguiente paso. Sólo necesita un poco más de tiempo para hacer las cosas bien.
El motor de innovación de Apple sigue a “todo gas” Morgan Stanley ha dicho. Estoy de acuerdo.