Nombre en clave | N301 [1] |
---|---|
Revelador | Manzana |
Fabricante | Compartir lujo |
Tipo | Casco de realidad mixta autónomo |
Fecha de lanzamiento |
|
Precio de introducción | US$3.499 |
Sistema operativo | visionOS ( basado en iPadOS [2] ) |
Sistema en un chip | Apple M2 (motor neuronal de 8 núcleos y 16 núcleos), Apple R1 (latencia de fotones de 12 ms, ancho de banda de memoria de 256 GB/s) |
UPC | CPU de 8 núcleos (4x Avalanche de 3,49 GHz + 4x Blizzard de 2,42 GHz) |
Memoria | 16 GB LPDDR5 [3] |
Almacenamiento | 256 GB, 512 GB, 1 TB |
Mostrar | Interno: ~3660x3200 por ojo [4] (equivalente a WUHD para cada uno) dual micro- OLED ( geometría de subpíxeles π RGBB ) hasta 100 Hz de frecuencia de actualización [5] Externo: OLED lenticular curvo "EyeSight" [6] |
Gráficos |
|
Sonido | Altavoces de sonido envolvente , 6 micrófonos con formación de haz [8] |
Aporte | Seguimiento de adentro hacia afuera de 6DoF , fotogrametría , reconocimiento de gestos de la mano a través de 12 cámaras integradas y LiDAR , seguimiento ocular y entrada de voz |
Cámara | Sistema de cámara principal estereoscópica 3D, 18 mm, apertura de ƒ/2.00, 6,5 megapíxeles estéreo |
Conectividad | Wi‑Fi 6 (802.11ax), Bluetooth 5.3 |
Fuerza | Batería externa de 35,9 Wh con 2–2,5 horas de uso [5] |
Firmware actual | visionOS 2 [9] |
Masa | 600–650 g (sin batería) |
Sitio web | apple.com/apple-vision-pro |
Apple Vision Pro es un dispositivo de realidad mixta desarrollado por Apple . Se anunció el 5 de junio de 2023 en la Conferencia Mundial de Desarrolladores de Apple y los pedidos anticipados comenzaron el 19 de enero de 2024. Estuvo disponible para su compra el 2 de febrero de 2024 en los Estados Unidos. [10] También estuvo disponible para su compra en China, Hong Kong, Japón y Singapur el 28 de junio de 2024, y en Australia, Canadá, Francia, Alemania y el Reino Unido el 12 de julio de 2024. Apple Vision Pro es la primera nueva categoría de producto importante de Apple desde el lanzamiento del Apple Watch en 2015. [11]
Apple comercializa Apple Vision Pro como una " computadora espacial " en la que los medios digitales se integran con el mundo real. Se pueden utilizar entradas físicas (como gestos de movimiento, seguimiento ocular y reconocimiento de voz ) para interactuar con el sistema. [10] Apple ha evitado comercializar el dispositivo como un casco de realidad virtual cuando habla del producto en presentaciones y marketing. [12]
El dispositivo ejecuta visionOS , [13] un sistema operativo de realidad mixta derivado de los marcos iPadOS que utiliza una interfaz de usuario 3D ; admite la multitarea a través de ventanas que parecen flotar dentro del entorno del usuario, [14] como lo ven las cámaras integradas en el auricular. Se puede usar un dial en la parte superior del auricular para enmascarar la transmisión de la cámara con un entorno virtual para aumentar la inmersión. El sistema operativo admite avatares (oficialmente llamados "Personas"), que se generan escaneando la cara del usuario; una pantalla en la parte frontal del auricular muestra una representación de los ojos del avatar ("EyeSight"), que se utilizan para indicar el nivel de inmersión del usuario a los transeúntes y ayudar en la comunicación. [15]
En mayo de 2015, Apple adquirió la empresa alemana de realidad aumentada (RA) Metaio , originalmente escindida de Volkswagen . [16] Ese año, Apple contrató a Mike Rockwell de Dolby Laboratories . Rockwell formó un equipo llamado Technology Development Group que incluía al cofundador de Metaio, Peter Meier, y al gerente de Apple Watch, Fletcher Rothkopf. El equipo desarrolló una demostración de RA en 2016, pero el director de diseño Jony Ive y su equipo se opusieron . El experto en realidad aumentada y realidad virtual (RV) y ex especialista de la NASA Jeff Norris fue contratado en abril de 2017. [17] [18] El equipo de Rockwell ayudó a entregar ARKit en 2017 con iOS 11. El equipo de Rockwell buscó crear un auricular y trabajó con el equipo de Ive; la decisión de revelar los ojos del usuario a través de una pantalla frontal fue bien recibida por el equipo de diseño industrial. [19]
El desarrollo de los auriculares experimentó un período de incertidumbre con la salida de Ive en 2019. Su sucesor, Evans Hankey, dejó la empresa en 2023. [20] El gerente senior de ingeniería Geoff Stahl, que reporta a Rockwell, dirigió el desarrollo de su sistema operativo visionOS , [18] [21] después de trabajar anteriormente en juegos y tecnología gráfica en Apple. [22] El auricular de realidad extendida de Apple está pensado como un puente hacia futuras gafas de realidad aumentada ligeras, que todavía no son técnicamente factibles. [23] [24] En noviembre de 2017, Apple adquirió la empresa canadiense de realidad aumentada Vrvana por 30 millones de dólares. El Vrvana Totem pudo superponer animaciones completamente opacas y de color verdadero sobre el mundo real en lugar de las proyecciones fantasmales de otros auriculares de realidad aumentada, que no pueden mostrar el color negro. Pudo hacer esto evitando el retraso a menudo perceptible entre las cámaras que capturan el mundo exterior y, al mismo tiempo, manteniendo un campo de visión de 120 grados a 90 Hz. El Totem también utilizó iluminadores IR y cámaras infrarrojas para realizar seguimiento espacial y manual. [25] [26]
Según el filtrador Wayne Ma, Apple originalmente iba a permitir que el software de macOS se arrastrara desde la pantalla al entorno del usuario, pero se descartó al principio debido a las limitaciones de estar basado en iPadOS y se observó que el sistema de seguimiento de manos no era lo suficientemente preciso para los juegos. Los trabajadores también discutieron colaboraciones con marcas como Nike para hacer ejercicio con el auricular, y otros investigaron almohadillas faciales que eran más adecuadas para entrenamientos sudorosos y de alta intensidad, pero se descartó debido a la batería y la pantalla frágil. Una función llamada "co-presencia"; una proyección del cuerpo completo de un usuario de FaceTime, también se descartó por razones desconocidas. [27]
En mayo de 2022, la Junta Directiva de Apple presentó una vista previa del dispositivo. [28] La compañía comenzó a reclutar directores y creativos para desarrollar contenido para el auricular en junio. Uno de esos directores, Jon Favreau , fue reclutado para dar vida a los dinosaurios de su programa de Apple TV+ Prehistoric Planet . [29] En abril, Apple también estaba tratando de atraer desarrolladores para crear software y servicios para el auricular. [30] Apple presentó más de 5000 patentes de tecnologías que contribuyeron al desarrollo de Apple Vision Pro. [31]
Apple Vision Pro se anunció en la Conferencia Mundial de Desarrolladores de Apple de 2023 (WWDC23) el 5 de junio de 2023, y se lanzará a principios de 2024 en los Estados Unidos a un precio inicial de US$3499 . [2] [32]
El 6 de junio, al día siguiente del anuncio, Apple adquirió la startup de auriculares AR Mira, cuya tecnología se utiliza en la atracción Mario Kart de Super Nintendo World . La empresa tiene un contrato con la Fuerza Aérea y la Marina de los Estados Unidos . Once de los empleados de la empresa se incorporaron. [33]
El 8 de enero de 2024, Apple anunció que la fecha de lanzamiento de Apple Vision Pro en los Estados Unidos sería el 2 de febrero de 2024. [34] Las estimaciones de los envíos iniciales oscilaron entre 60.000 y 80.000 unidades. [35] Los pedidos anticipados comenzaron el 19 de enero de 2024 a las 5:00 a. m. PST [36] y los envíos de lanzamiento se agotaron en 18 minutos. [37] Apple vendió hasta 200.000 unidades en el período de pedidos anticipados de dos semanas, [38] la mayoría de las cuales se enviarían de cinco a siete semanas después del día del lanzamiento. [39]
Apple Vision Pro consta de aproximadamente 300 componentes. [40] Tiene una pantalla de vidrio laminado curvado en la parte frontal, un marco de aluminio en sus lados, un cojín flexible en el interior y una diadema ajustable y extraíble. El marco contiene cinco sensores, seis micrófonos y 12 cámaras. Los usuarios ven dos pantallas micro- OLED de 3660 × 3200 píxeles [4] de 1,41 pulgadas (3,6 cm) con un total de 23 megapíxeles que generalmente funcionan a 90 FPS a través de la lente, pero pueden ajustarse automáticamente a 96 o 100 FPS según el contenido que se muestra. Los ojos son rastreados por un sistema de LED y cámaras infrarrojas, que forman la base del escáner de iris del dispositivo llamado Optic ID (usado para autenticación, como el Face ID del iPhone ). Los motores montados horizontalmente ajustan las lentes para las posiciones individuales de los ojos para garantizar imágenes claras y enfocadas que rastrean con precisión los movimientos oculares. Los sensores como acelerómetros y giroscopios rastrean los movimientos faciales, minimizando las discrepancias entre el mundo real y la imagen proyectada. [40] Los insertos ópticos personalizados son compatibles con los usuarios con anteojos recetados, que se unirán magnéticamente a la lente principal y se desarrollaron en asociación con Zeiss . El altavoz de conducción ósea del dispositivo está dentro de la diadema y se coloca directamente sobre las orejas del usuario. También puede virtualizar el sonido envolvente . [41] [13] [40] Dos ventiladores de enfriamiento de aproximadamente 4 cm (1,6 pulgadas) de diámetro se colocan cerca de las posiciones de los ojos para ayudar con la disipación de calor debido al procesamiento de datos de alta velocidad. Una función de control de ruido activo contrarresta los ruidos que distraen, incluidos los sonidos del ventilador. [40] Durante el proceso de pedido, los usuarios deben escanear su rostro usando un iPhone o iPad con Face ID para fines de ajuste; esto se puede hacer a través de la aplicación Apple Store o en una tienda minorista de Apple Store. [42] [43]
Apple Vision Pro utiliza el sistema Apple M2 en un chip. Está acompañado de un coprocesador conocido como Apple R1, que se utiliza para el procesamiento de la entrada del sensor en tiempo real . El dispositivo se puede comprar con tres configuraciones de almacenamiento interno: 256 GB, 512 GB y 1 TB. [36] Puede ser alimentado por una fuente de alimentación externa, un puerto USB-C en una Mac o una batería con una capacidad nominal de dos horas y media de uso. [44] [12] La batería se conecta al auricular mediante una variante de bloqueo de 12 pines del conector Lightning que se puede quitar con una herramienta de expulsión de SIM. [45]
El rostro del usuario es escaneado por el casco durante la configuración para generar una personalidad ( un avatar realista utilizado por las funciones del sistema operativo). [46] Una de estas funciones es "EyeSight", una pantalla orientada hacia el exterior que muestra los ojos de la personalidad del usuario. Sus ojos aparecen atenuados cuando está en realidad aumentada y oscurecidos cuando está completamente inmerso para indicar la conciencia ambiental del usuario. Cuando otra persona se acerca o habla, incluso si el usuario está completamente inmerso, EyeSight muestra los ojos virtuales de su personalidad con normalidad y hace que la otra persona sea visible. [44] [47]
Se utiliza un dial de corona digital en el auricular para controlar la cantidad de fondo virtual que ocupa el campo de visión del usuario, que va desde una vista de realidad mixta donde las aplicaciones y los medios parecen flotar en el entorno del mundo real del usuario, hasta ocultar por completo el entorno del usuario. [48] [44]
Los accesorios de consumo originales para Apple Vision Pro incluyen un estuche de viaje de 199 dólares, insertos ópticos Zeiss fabricados por Apple de 99 dólares para usuarios con hipermetropía, [49] un sello de luz de 199 dólares y una almohadilla de sello de luz de 29 dólares. El único accesorio oficial de terceros disponible en el lanzamiento es un soporte de batería fabricado por Belkin . [50] [51] [52]
Hay disponible un adaptador propio que cuesta 299 dólares y que solo pueden adquirir las cuentas de desarrollador de Apple registradas y pagas, que reemplaza la conexión de la correa para la cabeza derecha y agrega un puerto USB-C para que lo usen los desarrolladores. [53] [54] [55] El código de las herramientas de diagnóstico ha revelado que el adaptador es capaz de interactuar con Apple Vision Pro en un modo de diagnóstico. [56]
Apple Vision Pro ejecuta visionOS (llamado internamente xrOS antes de un cambio de último momento antes de la WWDC [57] ), que se deriva principalmente de los marcos centrales de iPadOS (incluidos UIKit , SwiftUI y ARKit ) y marcos específicos de MR para renderizado foveado e interacción en tiempo real. [2] [32]
El sistema operativo utiliza una interfaz de usuario 3D navegada a través del seguimiento de dedos , seguimiento ocular y reconocimiento de voz . Los usuarios pueden seleccionar elementos mirándolos y juntando dos dedos, mover el elemento moviendo sus dedos juntados y desplazarse moviendo su muñeca. Las aplicaciones se muestran en ventanas flotantes que se pueden organizar en un espacio 3D. visionOS admite un teclado virtual para la entrada de texto, el asistente virtual Siri y periféricos Bluetooth externos, incluidos Magic Keyboard , Magic Trackpad y gamepads . [44] [58] visionOS admite la duplicación de pantalla a otros dispositivos Apple mediante AirPlay . [59] visionOS puede duplicar la pantalla principal de un dispositivo macOS a través de la función "Mac Virtual Display"; la Mac también se puede controlar mediante periféricos emparejados con los auriculares. [59]
visionOS es compatible con aplicaciones de vision de la App Store y es compatible con versiones anteriores de aplicaciones seleccionadas de iOS y iPadOS; los desarrolladores pueden optar por no ser compatibles con visionOS. [60] Netflix , Spotify y YouTube anunciaron en particular que no lanzarían aplicaciones de visionOS en el lanzamiento, ni darían soporte a sus aplicaciones de iOS en la plataforma, y dirigieron a los usuarios a usar sus versiones web en Safari . [61] Los analistas sugirieron que esto puede haber sido el resultado de las tensas relaciones de las empresas con Apple por las políticas de la App Store, como la distribución obligatoria de ingresos del 30 % , incluidas las acusaciones antimonopolio asociadas . [62] [63] En una entrevista, el codirector ejecutivo de Netflix, Greg Peters, declaró que Apple Vision Pro era demasiado específico para que la empresa lo admitiera en este momento, pero que "siempre estamos en conversaciones con Apple para tratar de resolverlo". [64] Un portavoz de YouTube declaró más tarde a The Verge que el servicio tenía planes de desarrollar una aplicación de visionOS en el futuro. [65]
Antes del lanzamiento oficial de Apple Vision Pro, Samuel Axon de Ars Technica dijo que Apple Vision Pro era "realmente algo que nunca había visto antes", destacando la intuición de su interfaz de usuario en una demostración coreografiada dada por Apple, y elogiando una demostración de tecnología de dinosaurios por su inmersión. Axon dijo que sus pantallas eran tenues pero "mucho mejores que otros auriculares que he usado en este frente, incluso si todavía no era perfecto", y que los personajes parecían "surrealistas" pero transmitían el lenguaje corporal mejor que un avatar más estilizado (como Animoji o Horizon Worlds ). [43] Argumentó que Apple Vision Pro no era una plataforma de realidad virtual (VR), ni un competidor de la línea de productos Quest (anteriormente Oculus) de Meta Platforms , debido a su posicionamiento como "principalmente un dispositivo de AR que simplemente tiene algunas características de VR", y no como un producto de consumo del mercado masivo. [43] Los medios de comunicación observaron que Meta había anunciado el Meta Quest 3 poco antes de la WWDC, aparentemente anticipándose al anuncio de Apple. [66] [67] [68] Después de su lanzamiento, el director ejecutivo de Meta, Mark Zuckerberg, declaró que había probado el auricular y le gustó su resolución de pantalla y el seguimiento ocular, pero aún creía que el Quest 3 era el "mejor producto" debido a su precio más bajo y al ecosistema "cerrado" de Apple. [69]
Jay Peters de The Verge señaló de manera similar que Apple no presentó Apple Vision Pro como una plataforma de VR ni se refirió al dispositivo como un auricular, y lo describió como un dispositivo AR y "computadora espacial", y solo mostró juegos que no son VR mostrados en ventanas y controlados usando un gamepad externo, en lugar de experiencias completamente inmersivas como juegos y plataformas sociales (incluidos controladores de movimiento ). Sugirió que este posicionamiento "deja margen de maniobra para el futuro probable de esta tecnología que no se parece en nada a un auricular VR voluminoso: gafas AR ". [70] Las pautas de la App Store para visionOS establecen de manera similar que los desarrolladores deben referirse al software de visionOS como "experiencias de computación espacial" o "aplicaciones de visión", y evitar el uso de términos como "realidad aumentada" y "realidad mixta". [71] [72]
Tras el anuncio inicial de Apple Vision Pro, fue criticado debido a su alto coste, por ser demasiado elevado para ser un producto de consumo masivo; [73] [74] [75] los tres componentes más caros de Apple Vision Pro son su cámara y su matriz de sensores, sus dos chips de silicio de Apple y las dos pantallas de realidad virtual micro-OLED 4K. Según se informa, Apple está trabajando en un modelo más económico cuyo lanzamiento está previsto para finales de 2025 y en un modelo de segunda generación con un procesador más rápido. [76] Apple Vision Pro también enfrentó críticas por la corta duración de su batería, [77] por parecer una distracción para los demás, [77] y por su falta de entrada HDMI [78] [79] y de retroalimentación háptica. [77]
Apple Vision Pro recibió críticas mixtas y positivas. Nilay Patel de The Verge elogió el diseño del casco por ser más premium y menos "ridículo" que otros cascos de realidad virtual existentes, consideró que sus pantallas eran "en general increíbles" en cuanto a nitidez y brillo, tenía la transmisión de video de mayor calidad que había visto en un casco de realidad virtual hasta el momento (incluso teniendo un campo de visión más estrecho que el Meta Quest 3) y que sus parlantes tenían un efecto de audio espacial "convincente" . Sin embargo, sentía que había "tanta tecnología en esta cosa que parece magia cuando funciona y te frustra por completo cuando no lo hace", citando ejemplos como las cámaras de paso (que "no pueden superar la naturaleza inherente de las cámaras y las pantallas"), el seguimiento de ojos y manos que era "inconsistente" y "frustrante" de usar (con partes de la interfaz de visionOS que exigían una precisión que no podía ser alcanzada por el sistema de seguimiento ocular), visionOS que carecía de una herramienta de gestión de ventanas similar a Expose o Stage Manager, y que las personas y las características de EyeSight eran asombrosas (con la visibilidad de este último obstaculizada por una pantalla oscura y de baja resolución cubierta por un vidrio reflectante). Patel sintió que Apple Vision Pro estaba destinado a ser un kit de desarrollo para futuras gafas de realidad aumentada, ya que la forma actual del dispositivo era, desde puntos de vista tecnológicos y filosóficos, demasiado limitante para las ambiciones de Apple, y "puede haber revelado inadvertidamente que algunas de estas ideas centrales son en realidad callejones sin salida". [80]
Joanna Stern, del Wall Street Journal, se hizo eco de este sentimiento, argumentando que era "el mejor casco de realidad mixta que he probado nunca", y "gran parte de lo que puede hacer el Vision Pro parece ciencia ficción ", pero que "estas empresas saben que estos no son realmente los dispositivos que queremos. Todos están trabajando para crear experiencias virtuales en algo que se parezca más a un par de gafas normales. Hasta entonces, sólo están jugando con nuestras cabezas". [81]
Las opiniones de los compradores de Apple Vision Pro han sido variadas. Una persona intentó conducir mientras usaba el dispositivo, algo que Apple advierte en el manual de usuario de Apple Vision Pro. [82] Otros usuarios publicaron videos de ellos mismos usando el dispositivo mientras caminaban, una función que no estaba oficialmente disponible en el lanzamiento. [83]
Algunos han experimentado con cocinar mientras usan el auricular, lo cual no es recomendado por Apple. Esto permite a los usuarios ver fácilmente las instrucciones paso a paso mientras cocinan. [84] Su uso también se ha documentado como una herramienta potencial en la sala de operaciones; otros casos de uso incluyen educación, productividad, ventas, colaboración y gemelos digitales . [85] [86]
Poco después del lanzamiento, algunos propietarios informaron que aparecían espontáneamente grietas finas en la pantalla frontal, encima del puente nasal. [87] [88] [89]