AEC: ¿mejor HTC Vive o Oculus Rift?

He aquí unas Oculus DK2 con Leap Motion, unas HTC Vive con sus Touch controlers nativos y una Oculus Rift con sus Touch controlers recién lanzados al mercado el pasado 6 de Diciembre.
Para quien no quiera leerse todo el artículo, lo resumiré a continuación:
HTC
Pros:
- mayor espacio de interactuación «room scale»
- mejor tracking puesto que es full 360 (sin zonas oscuras en el seguimiento de los touch)
- más cómodas para quienes llevamos gafas
- mayor longitud de cable, sistema «Chaperone» para delimitar virtualmente en pantalla los límites «room scale» en el mundo real
Contras:
- más aparatosas y menos «bonitas» que las Oculus CV1
- los mandos son un poco grandes en comparación también a los de Oculus
- vienen sin auriculares, que hay que conectar y desconectar cada vez
Oculus
Pros:
- más ligeras y bonitas
- quizá sea impresión mía, pero se ve muy ligeramente mejor calidad de pantalla
- auriculares integrados
- controles más ligeros, caen perfectamente en las manos y detectan la posición de los dedos, por lo que en las gafas podemos ver no sólo una réplica de los controles, si no también de las manos
- sistema «Guardian» para delimitar virtualmente en pantalla los límites «room scale» en el mundo real, incluso delimitación irregular
Contras
- experiencia «room scale» más pequeña y no 360 real hasta disponer de un tercer sensor y que tal opción deje de ser considerada «experimental», el seguimiento de los controlers puede perderse por ocultación en algunos casos
- muy incómodas con ciertas monturas de gafas
Para montar un showroom corporativo personalmente y a día de hoy me decantaría por la solución de HTC. Para experienciar modelos AEC a mí me parece de peso fundamental no tener que orientar nuestra posición siempre hacia un lugar del mundo real (por los sensores de Oculus, digo), siendo HTC la opción que actualmente brinda esa posibilidad sin ninguna cortapisa. Además, puesto que nuestras intenciones van dirigidas a ser vividas por un público con una media de edad en la que el porcentaje de usuarios de gafas es alto, la solución de Oculus es verdaderamente incómoda (hay en el mercado terceros que facilitan interfaces más adecuadas que la original), de hecho yo uso dos pares de gafas, uno de ellos específico para las Oculus.
La solución de HTC me parece también más brillante en lo que a número de cables necesarios se refiere, ya que los sensores sólo precisan de una toma de corriente, no van conectados al PC, por tanto sólo hace falta la conexión HDMI y un USB.

Tinglado correspondiente a las Oculus DK2. En el modelo comercial CV1 la cosa se ha reducido a 3 USB en la versión con 2 sensores.
Insisto en que todas estas impresiones las contextualizo en lo que a nuestros intereses se refieren, que no son los videojuegos aunque tengan tantas cosas en común.
Y ahora la versión larga
Más de un año ha pasado desde que puse mis manos en el DK2 de Oculus (en la parte superior de la imagen de la entrada) hasta haber completado esta trilogía con la llegada de los Oculus Touch (en la parte inferior derecha) la semana pasada.
Estas tres configuraciones de HMD se caracterizan por tener (o poder tener) un modo de interactuar con el espacio en el que nos podemos mover en el proyecto representado en cada una de las gafas.: teleportación, conseguida por medio de los controladores o de gestos, a gusto de quien diseñe la interface de usuario. Así nos comenzamos a alejar de la idea de videojuego con gamepad desde el minuto uno cuando pensamos en «gamificar» cualquier experiencia AEC.

Teleportándome alrededor de una abadía inglesa. El camino marcado en verde es donde me puedo posicionar desde donde estoy apuntando con el controlador.
En la DK2 que menciono instalé precisamente un dispositivo Leap Motion al poco de comprobar en varios proyectos que la navegación con un gamepad (la única forma que había hace un año de interactuar) suponía añadir más posibilidades de marearse (motion sickness). Cualquier movimiento en el espacio con un HMD que no lleve emparejado el mismo movimiento natural en la realidad puede acabar por marear al usuario neófito, especialmente en entornos que nuestro cerebro interpreta como movimiento natural el acto de avanzar andando. Se hicieron tests con varios usuarios en varias demos con clientes y el balance fue ese, que contrastado con estudios y pruebas de otros desarrolladores confirma tal impresión. Por tanto quede el gamepad para experiencias de volar o conducir.
La idea con Leap Motion era gestualizar con las manos la interactuación deseada en el entorno: apuntar con el índice dónde queremos ir y confirmar con el pulgar el lugar al que estamos apuntando. Quedó en idea, no descartada, porque al poco recibí las HTC Vive con sus controladores y el entusiamo la dejó aparcada. Sin ningún género de dudas la teleportación con cualquiera de los «Touch controlers» es el camino, porque a su vez, con la buena cantidad de botones que contienen nos dan un enorme abanico de posibilidades añadidas de interactuación.
¿Cómo experienciar un proyecto de arquitectura o ingeniería en Realidad Virtual?
Parto de la base de que considero que hay tres estados o fases de experienciar un proyecto.
1.- Temprano: baja calidad en acabados e iluminación, poco refino en optimización de poligonización y por tanto riesgo de un framerate demasiado bajo. La ventaja es que hay software que se ocupa de ello, no se requieren conocimientos muy especiales. La misión de esta fase es la toma de decisiones mientras se desarrollan las ideas que vertebran el proyecto. Por ejemplo experienciarlo inmediatamente después de unos esbozos primarios en SkechUp o por Masas Conceptuales en Revit o FormIt 360 y tomar decisiones en tiempo real con el cliente. Anteproyecto.
2.- Medio: ya con acabados definidos y mejorados e iluminación, pero sin demasiado detalle, sin una optimización HQ y sin una iluminación global buena. También existe software para ello, pero no da lugar en mi opinión para un producto final depurado y comercial. Básico.
3.- Final o comercial: con mucho trabajo por hacer para definir texturas y materiales PBR para los acabados, para la retopologización de high a low poly del modelo, definición HQ de iluminación global, postprocesos, sistema de navegación e interactuación, variantes del modelo y un largo etc. Ejecución y ojalá «As Built».
Y además dicha experiencia podrá ser vivida por una sola persona abstraída en sus gafas, compartida de forma mixta si la ven varias personas en una pantalla además del usuario que la vive en VR, o compartida de forma inmersiva si son varias las personas que disponen de gafas y se monta un sistema semejante a Destinations de Valve (lo que nos llevaría a una VR corporativa)
Dicho lo cual, en cualquiera de sus tres fases y formas de ser experimentada, por la naturaleza de cualquier modelo AEC que deseamos vivir «al otro lado de las gafas» hemos de considerar que se nos debe brindar libertad total de mirar donde queramos, 360º, y que el sistema debe realizar un seguimiento de los tres dispositivos (HMD + 2 Controladores) sea cual sea nuestra postura y posición.
A continuación un ejemplo de lo que entiendo por fase temprana:
HTC Vive me parece la mejor opción, con independencia de otros factores donde Oculus vence con acierto y eficacia
Insisto en que no quiero desmerecer ni mucho menos cómo encaja la solución de Oculus en nuestro contexto profesional, pero al no ser una solución full 360, se ha de habilitar en los controladores un giro virtual a izquierda o derecha para mantener al usuario «mirando» hacia los dos sensores y que no les dé la espalda, momento crítico de darse puesto que los controladores quedarían en zona oscura y dejarían de ser percibidos por el sistema provocando en el usuario desconcierto.
Y en cualquiera de los dos casos añado que los HMD’s no están balanceados en lo que a su centro de gravedad se refiere. Me explico: todo el peso recae sobre la cara, los músculos faciales, más o menos aliviado por el sistema de cintas adaptable a cada usuario, insuficiente en evitar que tras una o dos horas «al otro lado» se produzca una fatiga en la cara, algo que nunca había experimentado y que es verdaderamente molesto.
Si cada vez vamos a pasar más tiempo abstraídos en otra realidad, sentados o de pie, es imprescindible velar por la comodidad del usuario, y no me refiero al momento de experienciar, que será más o menos breve pero siempre menor que el de la autoría. Tanto Unreal Engine desde hace 3 versiones, como la inminente de Unity tienen editores VR, algo de lo que hablaré en otra ocasión. En ese modo, en el que interactuamos con la herramienta y con nuestra creación con las gafas puestas, es previsible que pasaremos mucho tiempo y con todo el peso de las gafas, por ligero que sea sobre los músculos de la cara está garantizada la fatiga a partir de la primera hora. Es esta una oportunidad única de que cuando los HMD’s dejen de necesitar cables por haber logrado una madurez «latencia cero» en los sistemas inalámbricos, tales dispositivos estén ubicados en la parte posterior del HMD para lograr el necesario alivio del peso sobre la cara.