Saltar al contenido

Herramientas VR para toma temprana de decisiones

1 octubre, 2019

 

A finales de 2016 evaluaba una aplicación de desarrollo incipiente como era entonces Iris Prospect e Iris Scope. La segunda basada en recorridos virtuales apoyados en imágenes equirectangulares 360, lo que llevo resolviendo por otros caminos desde hace ya 4 años. La interesante para mí era la primera:

 

Está claro que no permite elaboraciones mucho más cuidadas en interfaz y calidad como este desarrollo realizado en UnrealStudio en verano de 2018:

 

Permitía Prospect en cambio, y permite, montar de forma rápida una revisión en VR de un proyecto, sin demasiado esfuerzo. Más allá de formatos de entrada, de calidades finales, de integración en herramientas cotidianas o de UX, la intención hace casi 3 años estaba ya clara de por dónde podían ir los tiros.

La madurez de Iris VR es patente, como empresa sólida y solvente. No se ha esfumado como tantas otras en este plazo, al contrario, ha seguido desarrollando y mejorando ahora su producto con dos líneas que me han gustado especialmente.

La primera un porting a Oculus Quest. La segunda la integración en Navisworks. El binomio no es baladí. A nadie se nos escapa que tiempo real y VR ya se mira desde el mundo empresarial como soluciones que van más alla del ¡WOW! inicial. Aunque les sigue costando. Pero la actitud es ya otra.

Prospect4OculusQuest

 

Por mi trabajo cotidiano estoy muy acostumbrado a realizar muchos proyectos pequeños, pero muy rápidamente y sobre los que tomar decisiones prontas. Modelos en Revit con multitud de conjuntos y opciones de diseño, cuyas combinaciones dan como resultado muchas propuestas diferentes.

La idea de usar UnrealStudio y hacer modelos interactivos de alta calidad se desestima en estos casos, quedan más del lado del marketing para epatar en presentaciones a gerencia, congresos o ferias, tomando ahora el protagonismo soluciones que antes no me gustaban, como Enscape, InsiteVR, Prospect, Lumion o Twinmotion, las denominadas OneClick“. En España tenemos soluciones fantásticas, como la de VTLab: VTPlatform, apoyada, como otras que no merecen que las olvide (disculpas), en Forge, la API de Autodesk para desarrollos web íntimamente relacionados con Revit.

En todas ellas la unión con BIM es fundamental. Pero lo que más me llama la atención para tenerlas en consideración en la toma temprana de decisiones es:

1.- integración con herramienta, en mi caso Revit.

2.- colaborativa: el hecho de poder integrar a varias personas en lugares diferentes en un encuentro VR (o no) sobre diversos dispositivos (HMD’s y pantallas). 

3.- contenido alojado en nube.

4.- “portings” a HMD’s inside out y autónomos (como Oculus Quest, quizá Vive Cosmos con Wireless, no parece que Vive Focus).

5.- anotaciones por parte de los usuarios.

La suma de todas ellas y unas Quest hace que las reuniones puedan tener lugar en el espacio virtual constituido por el gemelo digital, cualesquiera que sean los integrantes de la misma, donde quiera que estén presencialmente. El cliente final no tiene aún porqué disponer de unas gafas de gama alta y el precio de unas Quest es lo suficientemente bajo  como para que en el mundo empresarial no sea un disparate ponerlas a disposición del cliente final, darle diez minutos de formación y finalmente enseñarle a entrar en el proyecto en las reuniones que se convoquen. O viajar a la reunión con el cliente con las Quest en la cabina del avión y no tener que hacer un setup complicado (outside-in) en sus instalaciones.

Mi experiencia con InsiteVR ha sido más que satisfactoria, tanto en Rift, Vive, Quest o pantalla. Han sido corregidas algunas carencias iniciales, pero cumple con las 5 premisas indicadas. La calidad es insuficiente, no alcanza a Enscape, Lumion o Twinmotion ni de lejos, pero es suficiente para comparecer virtualmente un grupo que va a tomar decisiones. Me faltan algunas cosas, como cambiar de opción de diseño, pero tenemos capas como categorías, pudiéndolas activar / desactivar.

Hemos tenido sesiones conjuntas con VtLab y José María Catena, saliendo de ellas todos satisfechos. Aquí un ejemplo aunque es una sesión donde estaba solo.

*La calidad de video tan mala es debido a que fue capturado de un streaming desde la Quest a un Ipad. Supongo que lo habrán mejorado.

La razón por la que me he animado a escribir hoy este artículo, cuando pensaba haber escrito otro es que aunque no haya vuelto a probar Prospect y del cual estoy esperando autorización para testar la versión Quest, es la plugin que tiene para Navisworks. Uno podría pensar que la toma de decisiones tempranas se basa sólo en la valoración común de razones espaciales, estéticas, funcionales o simplemente de cumplimiento de pliegos, pero el hecho de poder vivenciar de forma plural un modelo de coordinación de forma instantánea a escala 1:1 me pareció lo suficientemente significativa como para dejar en un segundo plano las conclusiones de la reciente Oculus Connect 6.

La detección de colisiones es algo que encontraba yo con frecuencia cuando ilustraba de forma artística planificaciones de obra 4D (de Gantt a render). Sucedía entonces una llamada de teléfono para advertir a constructora u oficina técnica de insconsitencias en el modelo o en MSProject.

L07

4d “artístico” para ilustrar un avance de obra de un centro penitenciario

Todos sabemos hoy que con Navis esto ya no puede suceder, pero la posibilidad de hacerlo a escala 1:1 de forma inmersiva me parece sencillamente maravilloso. Otra cosa es la adopción que se haga de ello en el mercado, en la oficina técnica, en la obra. Hemos de acostumbrarnos a ser pacientes.

Prospect Navisworks 1:1

navisflowgifshort

 

He de volver a probar Prospect en situaciones reales, y especialmente la versión para Quest.

Qué podemos esperar del Raytracing en Unreal Engine 4.22

1 abril, 2019

5 minutos de lectura

Editado: esta entrada llega un día tarde. Ya ha sido publicada la versión 4.22

Hablo de lo que podemos saber de la prerelease.

Al fin!

Cada nueva versión oficial de Unreal Engine viene precedida por 2, 3 y hasta 4 ‘previews’. Y cuando digo oficial me refiero a la lanzada por Epic Games desde el ‘laucher’, porque al ser un editor y motor de render de código abierto y residir sus cientos de miles, o millones, de líneas de código en Github cualquiera que se atreva puede personalizarlo a su gusto como sabemos de muchas versiones ‘alternativas’.

Las ‘previews’ de las que hablo permiten depurar errores de última hora, poniéndolas en manos de decenas de miles de entusiastas que reportan incidencias que serán corregidas en los cuarteles de Epic. Por supuesto estas versiones nunca deben utilizarse en producción, por mucha ilusión que nos haga probar las decenas de novedades que trae cada nueva edición.

Ofertón del año pasado, se las quitaban de las manos

Pero la 4.22 va a ser un caso especial. Cuando en el GDC2018 Nvidia presentó la primera gráfica con ‘raytracing’ en tiempo real, fue como si se encontrara el Santo Grial perdido hace 2000 años. Y se presentó sobre cinemáticas calculadas en tiempo real en UE4, lo que hacía presagiar aquello que en una o dos semanas tendremos de forma oficial. Entonces las demos se realizaron sobre carísimas estaciones equipadas con 4 gráficas Tesla GV100. Hoy el RT (raytracing, no retweet) que tenemos a nuestra disposición funciona sobre una sola RTX2080Ti, algo que buscaban en Epic Games para hacerlo mucho más accesible.

Hace volar a Enscape, a ver a UnrealEngine

Ya vamos (íbamos) por la ‘preview’ 7, algo que al menos a mi me lleva a pensar que la final va a ser lanzada evitando en lo posible cualquier ‘bug’, especialmente en lo que a ‘raytracing’ se refiere.

Ha habido que cambiar esta captura, la de antes era de la preview

El RT, aunque ya válido para cualquier producción, aún es un WIP, un ‘early access’. Está habilitado para iluminación global (preferentemente primer rebote), sombras difusas de cualquier emisor, ‘ambient oclussion’, reflexiones, translucencias e IBL basado en imágenes HDR, entre otras, dejando a un lado ‘lightmaps’, ‘sphere and cube reflection captures’, ‘planar reflections’ y ‘ambient oclussion’ entre otros efectos en ‘screen space’.

Brutal, la demo “A Hands-on Look at Using Ray Tracing in Games with UE 4.22 | GDC 2019”

Lo mejor de todo es que es híbrido, por lo que podemos elegir el camino tradicional para unos efectos y raytracing para otros.

En la 4.22 tenemos en realidad dos motores de RT:

1.- RT hibridado con los efectos raster: el que hay que usar.

2.- Path tracer, un RT puro, ‘unbiased’ usado como referencia para aprobar internamente los desarrollos del primero. Es una herramienta de uso interno.

Reflejos nítidos por fin

La principal ventaja de raytracing frente técnicas consolidadas es que para el usuario es mucho más sencillo de implementar: no ha de preocuparse de añadir ‘reflection probes’ para las reflexiones, y estas, al no ser en ‘screen space’ serán de calidad excelente, tampoco habría de preocuparse del tedioso ‘unwrapping’, ni de afinar con decenas de valores en el cálculo de iluminación, las sombras serán físicamente perfectas, y los resultados no se verán afectados por imperfecciones en el modelado. Todo esto, claro, en función del balance entre pases rasterizados y calculados por RT. Lo mejor de todo es la naturaleza híbrida de la propuesta.

Lo que sí

 

Lo que no

Para hacer uso de RT en la 4.22 hay dos premisas ineludibles: Windows 10 1809 y una gráfica RTX, sea Quadro o GeForce.

Requisitos

Este último punto, que es obvio, conlleva a una reflexión a la hora de determinar el objeto de nuestro desarrollo, es decir, si el cliente dispone o está dispuesto a disponer de una máquina con RTX o no. Decisión que por otro lado, y con el paso del tiempo, perderá importancia en la medida que la computación en tiempo real en ‘server side’ sea cada vez más común: Pixel Streaming, GForce Now, RTX Server Line, 5G, Stadia, bla, bla, bla.

Por otro lado también pienso si el cliente notará o no la diferencia de una escena en RT o no, pero eso es otra historia. Mi visión se basa más en un B2B que en B2C. Son públicos distintos.

Variables de consola, muchas

Actualmente la mayoría de las funcionalidades de RT se controlan desde la consola de comandos por medio de un nutrido grupo de variables, algo que se habilitará con una interfaz de usuario en la 4.23. Hay otras funciones que se controlan desde los propios actores, como algunas de ellas desde el PostProcess Volume.

Importancia añadida del Postprocess Volume

Mientras el cálculo se haga sobre RTX local, hemos de tener en cuenta que algunos procesos RT son muy rápidos, incluso más que los tradicionales (sombras, AO), y otros no (reflexiones de más de un rebote, GI de muchas luces, interiores, reflejos muy difusos, pese al Denoiser). De ahí que la posibilidad de hibridarlos o repartirlos entre RT y procesos tradicionales es una opción excelente pero que habrá que distribuir mediante un ‘profiling’ bien segmentado.

 

Importante decidir qué y qué no será calculado en RT

 

A través del PostPro y las variables podremos buscar un balance adecuado para cada ocasión

 

Las zonas que delimitan reflexiones nítidas de reflexiones totalmente difusas tienen un coste significativo. Hay variables para mitigar esta pérdida de FPS

Ojo con la autoría de materiales complejos. Sobre todo mejor tirar de un Ubershader o padre súper paramétrico y materiales instanciados para reducir drawcalls. A ver Substance Designer… A ver las importaciones de Datasmith y sus réplicas de Vray.

Conclusiones para la 4.22

Conviene mencionar que pese a haber sido habilitadas en versiones precedentes las luces rectangulares no han tenido una funcionalidad plena hasta esta 4.22, momento en el que al disponer de RT, su semejanza con la realidad es ya total. Además se ha añadido la función ‘barn door’, que determina la apertura del cono de iluminación, como en los focos de iluminación de estudio.

Muy buena implementación de las luces rectangulares

En fin, que a falta de la publicación final, que es de esperar que sea esta semana (ya ha sido, 16:00 del 2 de Abril), esto es todo lo que puedo decir de una versión que supondrá un antes y un después.

¿Cuál es el límite razonable de calidad gráfica para objetos BIM en 2019?

23 marzo, 2019

Recientemente se generó de forma espontánea y desde LinkedIn un #debate interesante sobre el nivel de detalle que “deberían” tener los objetos #BIM de acuerdo a la potencia gráfica de las estaciones de trabajo más o menos comunes hoy día. Este debate surgió a partir de la publicación de un post acompañado de unas imágenes extraordinarias, de renders de uso comercial, de donde comentarios propios le sugerían al autor la posibilidad de realizar objetos BIM a partir de modelos muy detallados destinados a renders comerciales como las imágenes mencionadas.

Estos modelos quedan definidos por topologías con muchos polígonos, sin mapas de curvatura, ni de normales, ni de “ambient occlusion”, tampoco “height maps”, es decir, polígonos a manta y a pelo. Ideales para renders de muy alta calidad, lo que hoy llaman “off-line”.

Se mencionaba en el debate que bien esos modelos tan detallados, dados algunos ejemplos de eficiencia a la hora de servir desde la nube modelos muy detallados a dispositivos de poca capacidad gráfica, como los smartphones, siempre desde un punto de vista comparativo con estaciones de trabajo, podrían servir como modelos BIM, al seguir ese esquema cliente-servidor, o de virtualización de escritorios.

Mi opinión es diferente. Quizá al estar centrada en #Revit, donde sé que tenemos hasta tres niveles de detalle y vistas 2D para los objetos BIM, tengo más que entendido que esos mismos objetos, repetidos cientos o miles de veces en un modelo, hacen que si no están optimizados al máximo para el uso BIM que se le vaya a dar, con sus niveles de detalle, con un modelado relativamente simplificado, no destinado a un render de alta calidad, harán del modelo un ladrillo que conducirá al usuario al hastío y la decepción en el uso habitual.

Actualmente no creo, ni con una gráfica GV100, que se puedan utilizar topologías para render comercial en un modelo BIM. Ponía en el debate ejemplos del mundo de los videojuegos, con activos representados en varios niveles de detalle, con materiales que a través de mapas de normales y otros simulan relieves y topologías complejas, incluso con impostores o “billboards”. No parece que estas técnicas hayan sido replicadas en el mundo BIM, sea cual sea el programa, luego queda lejos la idea de representar con buena calidad comercial renders desde estas aplicaciones. Es cierto que Revit hace una gestión interna de la complejidad de la escena digamos que singular y eficaz, pero no es raro encontrarme aún así modelos que se mueven torpemente.

Hace ya un tiempo publiqué un post donde mencionaba la sorpresa que me llevé al descargar un objeto desde un repositorio tipo Bimobject, Bimetica o Bim&Co y comprobar que tenía sólo un nivel de detalle y que además era un modelo importado a la brava desde #Solidworks, o #Catia o tal: inasumible en metodología BIM, fuera cual fuera el programa de destino.

Al contrario, hoy mismo, comprobaba como un fabricante de mobiliario de oficina bastante conocido tiene sus objetos BIM modelados en primer lugar con las herramientas de modelado de Revit, con un conjunto de metadatos relativamente pequeño y racional, abierto y con materiales nominados bajo el prefijo del fabricante para poder ser fácilmente mapeados en cualquier automatización. Bravo por ellos. Que sí, que no servirán para render de alta calidad, muy detallados, muy “BRICK”, pero servirán para su destino, metodología BIM “for the masses’’, democratizada.

En mi metodología tengo una serie de librerías replicadas según la herramienta: unas en Revit, para su destino, metodología BIM, para objetivos y usos racionales, sus réplicas en #3dsMax, para renders offline de calidad on #VrayNext, y por último otras réplicas como activos en #UnrealEngine para #RealidadVirtual, tiempo real y render instantáneo. El hilo conductor son una serie de automatizaciones en diversos lenguajes de programación y estructuras de datos tabuladas así como diccionarios para mapeo de datos entre ellas. Hasta ahora es lo que mejor me ha ido y del carro que no me bajaré hasta que tenga en cualquier “workstation” metodología BIM, render de calidad, tiempo real y realidad virtual en la misma plataforma. Lo que por otro lado tampoco me seduce. #Enscape da una calidad bastante aceptable dentro de Revit para la mayoría de las situaciones de planificación y diseño con la mayoría de los clientes.

Vriverity, habilitada como operadora de RPA (Drones)

21 marzo, 2019
(6 minutos de lectura)

No recuerdo bien qué año era cuando recurría a los servicios de Paisajes Españoles, quizá el año 2002 fue la última vez, para que alguna de sus avionetas que salían de Cuatro Vientos, pilotadas por sus diestros pilotos, realizara un reportaje aéreo que servía como fondo de fotomontajes que me eran solicitados. Desde aquellos que sirvieron para reflejar los diversos impactos que la M50 podría tener, o alguna de las radiales rescatadas hoy, a proyectos urbanísticos en lugares de toda índole.

Hace un par de años el uso de drones para estos objetivos ya comenzaba a ser habitual, y de algún encargo para otro proyecto urbanístico en el que recurrí a un vuelo fotográfico me vino una idea que hoy ya es una realidad: poner algún huevo en otra cesta ofertando servicios de operaciones de fotografía y video aéreo así como de fotogrametría, que es al fin, el ejercicio para el que hemos sido habilitados (2.8 del listado de actividades AESA). Prestación de servicios o a lo peor, autoconsumo.

Pero para ello, hablamos de vuelos profesionales y no recreativos, hay que poner en marcha una secuencia de requisitos, donde el más sencillo sea quizá la elección y adquisición del equipo. DJI es ya una marca muy de confianza (¿la manzana de los drones?), con calidades excelentes, un software bastante depurado y con actualizaciones frecuentes y un parque de aparatos extendido y con pocas malas experiencias.

DJI Phantom 4 Pro V2.0

Este fue el RPA elegido, en resumen, por su estupenda relación calidad / precio. Menos de 2 Kg., incluida carga de pago: la cámara. Carácterísticas: la cámara con la que viene equipado es realmente buena, un sensor CMOS de 1″ y 20 MP, obturador mecánico, gimbal estabilizador excelente, video en 4K a 60 fps, codecs H264 y H265, RAW y Jpeg, transmisiones en doble banda con la estación (para evitar bandas saturadas), transmisión de video en 1080p, detección de obstáculos en 5 direcciones y evasión de los mismos en 4 en modo autónomo, 3 modos de vuelo, incluído manual total y Return to Home fiable, incluso tras obstáculos o perdida de señal y unos 30 minutos de vuelo por batería (safe mode pongamos 20, que es cuando empieza a protestar).

Momento unboxing

La legislación de AESA permite que la adquisición de un dron comercial habilite al comprador para vuelos recreativos, pero no comerciales. Por lo tanto es necesario habilitar a una persona física o jurídica como operadora de vuelo. Y para esta habilitación, entre una burocracia de decenas de requisitos, el imprescindible es contar con un piloto profesional. Entre muchas otras opciones la más sensata fue que mi hija, Claudia Rivera Arranz, que es artista 3D, ampliara conocimientos y posibilidades de trabajo realizando la formación y obtuviera a lo largo de unos meses y tras concienzudos exámenes y prácticas las certificaciónes básica, avanzada, práctico de Phantom 4 y de radiofonista. Esta última le habilita para volar en zonas urbanas y espacios aéreos controlados, entre otras. Cumplidos también fueron los requisitos del certificado médico y seguro de responsabilidad civil.

En los vuelos, uno no sabe nunca con total certeza ni las condiciones físicas y ambientales que se va a encontrar, ni si los planos que uno pensaba tomar inicialmente serán buenos o no y habrá que repetir vuelos por iluminación incorrecta, sombras, reflejos, etc. Por lo tanto además del RPA hay que contar con una “batería” de baterías dispuestas (más inversión, no son nada baratas):

El nicho de carga

Toda la información de vuelo, que es mucha, se recibe y procesa a través del software DJI Go, que funciona sobre un Ipad decente (otra adquisición más).

Todo dispuesto para el despegue

En cada sesión se ha de realizar un ritual muy de aviación, con calibraciones, revisiones de hélices y motores, revisiones de carga de baterías, fijación de punto de despegue para un RTH fiable, etc.

Uno de los requisitos que pide AESA es la cumplimentación del libro de los vuelos de prueba, donde poner en práctica maniobras evasivas ante situaciones imprevistas (ataque de un milano, p.e.), RTH incluso por acompañante, evaluación de riesgos potenciales del volumen de vuelo (cables aéreos, propiedades particulares, otros drones en la zona, anidaciones de aves que no deben ser molestadas y un largo etc.).

Todo dispuesto para cumplimentar vuelos de prueba, aquí con esa niebla castellana que se pega durante semanas

Tras 4 o 5 sesiones de vuelo en diversos escenarios libres de regulación aérea (por evitar los trámites de las solicitudes de autorización, sede electrónica AESA – Ministerio de Fomento, certificado digital, bla, bla, bla) reunimos secuencias suficientes como para montar uno de los primeros videos (que fue un encargo para mi hermano).

Hemos completado la inversión con diversos accesorios, como una mochila de transporte, para cuando no se puede llegar en coche que no haga falta llevar la maleta, una sujección para la estación, que tras 40 minutos de uso ya se termina con los brazos cansados, y una plancha plegable de aterrizaje, para despejar el suelo de maleza y permitir un RTH más limpio.

Además de fotografía aérea y video, la tercera intención de la oferta es generar modelos mediante fotogrametría. Hemos probado diversas soluciones, como Recap (incluida en nuestra suscripción AEC Collection de Autodesk), Aegis Photoscan y Reality Capture. Finalmente nos hemos quedado con esta última, por suscripción trimestral, porque entre otras virtudes es muy rápido en sus cálculos, y hace uso de todos los threads que encuentra.

Primer trabajo comercial, para Cesma Ingenieros, Salamanca

Algunos ya saben de mi fijación con el uso de toda la potencia posible en una máquina para cualquier cálculo y Reality Capture lo hace. No estoy seguro que los adversarios lo hagan, la HP Z8 G4 llegó después de la elección de Reality Capture, y la verdad no hemos probado en ella ni Photoscan ni Recap.

Reality_Capture_Thread_use

Reality Capture fundiendo Xeones

Los fotomontajes de este trabajo no los puedo publicar aún, pero sí un primer test para generar un modelo, que fue convenientemente retocado en ZBrush y Substance Painter (¿he dicho ya que Claudia es 3D Artist y pilota también y muy bien en estos programas?) y subido a Sketchfab:

En fotogrametría diferencio dos escenarios:

1.- la toma de una “fotografía 3d”, es decir reflejar de forma exacta las circunstancias del contexto (tiempo atmosférico, gente, animales…) lo que conlleva a que en principio no importe que el cielo esté despejado o no, que haya sombras duras arrojadas. En el último caso habrá que tomar las fotos muy rápidamente para evitar que las sombras se hayan movido demasiado. Pero no es un modelo reutilizable, asset, puesto que ya tiene sombra y su textura no es un difuso puro, si no que tiene información de iluminación.

2.- la toma de fotografías en lo que en esta casa se llama “photogrammetry day”, es decir, día de cielo cubierto, sin sombras duras, sin iluminación directa y poca iluminación, escenario plano lumínicamente hablando, lo que nos dará difusos puros o que tengan que ser poco procesados (somos betatesters de Substance Alchemist y parece ser que prepara unos difusos ideales). Calibración con un Color Checker de Xrite Passport para neutralizar influencias de temperatura de color y tal. La consecuencia son assets ideales para formar parte de una librería que luego podrán ser iluminados de forma sintética en cualquier autoría 3D (UnrealStudio, por ejemplo) con total confianza. (Luego no hay cliente que perciba todo este trabajo, pero bueno).

Ejemplo de lo que sería un asset obtenido siguiendo parcialmente el segundo punto (el día no fue un puro “photogrammetry day” ya que había nubes y claros y algunas fotos salieron con sombra…):

Finalmente y rematando el último vuelo de prueba con RTHs complicados, con anidaciones de cigüeñas desconfiadas, con un milano acechando, volando casi en EVLOS (obstáculos impiden contacto visual con el UAV) y no pudiendo sobrevolar todo un volumen de vuelo debido a unos árboles que tapaban los encuadres hicimos este otro modelo, mucho más complicado que el del puente. Los detalles de las ruinas nos han gustado especialmente, cómo los ha resuelto el software. Nos hubiera gustado hacer muchas más fotos, pero no fue posible, por esas circunstancias contextuales que menciono unos párrafos arriba. Razón por la cual el modelo es incompleto en su parte posterior. Insisto, son muy pocas fotografías para lo que hubiera sido deseable.

Cabe destacar que los datos GPS del Phantom, que le sirven para muchas cosas, quedan embebidos en los datos EXIF de las imágenes, es decir que son fotografías georeferenciadas que ayudan en los cálculos de Reality Capture a obtener resultados de mayor precisión.

DCIM100MEDIADJI_0024.JPG

Datos de posicionamiento de esta foto

 

Protegido: Revit to Unreal Studio beta plugin

13 enero, 2019

Este contenido está protegido por contraseña. Para verlo introduce tu contraseña a continuación:

UnrealStudio 4.21: plugin Revit a Datasmith

15 noviembre, 2018

Quienes llevamos desde septiembre de 2017 en el programa de betatesting de Unreal Studio hemos visto cómo la propuesta ha ido pasando de prometedora a genial. El márketing también ha hecho lo suyo y ahora el producto se presenta como una solución realtime y VR indiscutible para el sector AEC.

El juego Fortnite no solo ha llenado de dólares las arcas de EpicGames potenciando toda clase de desarrollos e innovaciones, también ha colaborado en innumerables mejoras que se han ido desvelando en sucesivas versiones, accesibles ahora para todos.

Revit_DS

Quienes trabajamos de forma habitual haciendo uso de la metodología BIM nos las hemos ido apañando para llevar nuestros modelos a UE4 mediante flujos de trabajo propios, hibridaciones, automatizaciones y demás historias. Aún así, la parte arquitectónica del asunto, es decir, toda clase de elementos no sujetos a instancias y de dimensiones y características completamente variables, debían de seguir un proceso que pasa por 3dsMax. Allí ajustamos UVs para lightmaps, editamos mallas y hacemos diversas tareas que mejoran de formas sustancial el resultado.

Hace un tiempo se hizo una consulta acerca de qué grado de aceptación tendría un exportador de Revit a formato Udatasmith, y qué funcionalidades nos gustaría que incluyera. Bien, con la 4.21 se ha publicado la primera versión y puedo decir que es verdaderamente prometedora en su concepción.

He explorado algo sus funciones y sus posibilidades, cómo organiza una estructura de datos como es la de Revit en otra estructura de datos como es la de Unreal, pero no será hasta la puesta en producción cuando sepa realmente el alcance del éxito indiscutible.

En una primera mirada he recopilado una serie de aspectos interesantes.

1.- La exportación se hace de lo que se ve en la ventana desde la que lanza, tal cual.

2.- Por cada categoría presente en el modelo de Revit se crea una capa en Unreal

Revitcategorias_como_capas

3.- Los nombre de los Static Meshes en el Content Browser obedecen al nombre de tipo que tienen en Revit, y darán tantos actores como instancias hubiera de ese tipo en el modelo, con sus respectivas transformadas.

Revit_tipos_como_SM

4.- Elementos con otros elementos hospedados quedan agrupados en un actor vacío que tiene como hijos al elemento y sus huéspedes (muros cortina, elementos con huéspedes por cara, techos con luminarias alojadas, etc.)

Revit_actores_con_hospedados_agrupan_elementos2

Revit_actores_con_hospedados_agrupan_elementos

5.- Los actores ya no vienen con la escala 30.48 propia de fbx importados desde 3dsMax donde se importaron / enlazaron desde otro fbx o rvt.

6.- Todos los materiales son instancias de un material padre, “RevitMaster” con 6 grupos de parámetros que permiten toda clase de instancias.

RevitMasterMaterial

7.- En las pruebas realizadas las luminarias no vienen como points o spots, luces propias de UE4, que además desde hace alguna versión tienen valores reales de luminancia e IES, si no como superficies con material emisivo.

8.- Cada muro cortina es un actor que agrupa paneles y montantes. Cada panel y montante se refiere a un Static Mesh en el Content Browser, pero no hay repeticiones, si no que queda todo muy bien “instanciado”.

9.- La generación de UVs para lightmapping queda determinada de un modo algo “chusco”: tamaño mínimo y tamaño máximo. No hay opción a dar “padding”

Revit_DS_Import_opsRevit_UvsRevit_Uvs_2

No es lo mismo una puerta que un suelo, pero la parte del suelo que queda “fuera” no tiene porqué ocupar el mismo espacio UV que la de dentro…..

Ya hablaré otro día de cómo pienso que puede mejorar este flujo, o al menos de cómo lo hago yo.

Real Time Ray Tracing y su uso comercial

4 abril, 2018
DGX2

Deme dos de éstas, por favor

(4 minutos de lectura)

Otros ven series (y yo antes también), pero ayer comencé a ver las casi dos horas y media de la ponencia de Jen Hsun Huan, el animado CEO de Nvidia en el pasado GDC 2018. Interesantísimo lo que cuenta y explicado de una forma amena y apasionada, un showman, no a la altura de Steve Ballmer, claro. Aquí un ejemplito de RTRT bien majo:


Y explicaba Jen, unas horas después de que Epic Games desvelara la combinación de la tecnología RTX de Nvidia, DXR de Microsoft (la capa ray tracing para DirectX12) y los desarrollos realizados dentro de la misma división de ray tracing de Epic Games (con Juan Cañada, nuestro paisano, allí metido), explicaba digo, de una forma más pormenorizada la tecnología que subyace detrás. Y sobre todo de una forma más… comercial, que para eso estaba allí.

Y es aquí donde quería llegar. A lo comercial. Hemos alcanzado un punto en el que con cualquier ordenador de gama alta podemos desarrollar realtime de calidad a un ratio de fotogramas y resolución muy buenos. Y podemos, puesto que no es RT si no rasterizado, precocinado (lightmaps, lightbaking), realizar los cálculos (swarm agents en UE4) en nuestras propias máquinas o en la nube con servicios como las instancias EC2 de AWS (lástima que el servicio Deadline de AWS no contemple lighmassing, sólo a través de instancias personalizadas).

Y es que Jen menciona que el hardware en el que fue hecho el famosísimo corto de los stormtrooper  es esa caja denominada DGX Station, equipada con 4 Voltas…. y que cuesta 68,000 $

DGX1-4Voltas

Quiero un par, oiga!

Si en mi negocio B2B yo me las veo y me las deseo para que los clientes acepten un equipamiento para realtime HQ (no ray tracing, no VR) que rondaría los 2,000-3,000 € (me estoy planteando seriamente la cesión por renting para que no tengan que comprar nada) ¿cómo diablos vamos a convencer a nadie de que tenga en su showroom esta DGX para estar a la última de la última y así tener realtime ray tracing en demos convencionales y VR? Por eso mi convicción es que este tipo de máquinas NO las vamos a ver en nuestras oficinas, ni mucho menos en las de nuestros clientes, si no que irán a sustituir las granjas de render offline y servicios en la nube, y generando secuencias a 60 fps casi on the fly usando editores como el Sequencer de Unreal Engine y como ya hemos visto en muchos ejemplos (Hellblade: Senua’s Sacrifice de Ninja Theory).

En Roman Paladino: van dirigidas a estudios que realizan contenido para cine y televisión, donde todo se hace con motores ray tracing unbiased y granjas de render y muchas horas de cálculo y donde la posibilidad de obtener secuencias en tiempo real y poder corregir tantas veces como sea necesario sin morir en el intento es el Walhalla prometido si no caes en la contienda.

Pero sí abren el camino a tres promesas:

1.- hibridación de técnicas lightbaking para iluminación global + raytracing para reflejos y ambient occlusion (y así huir de estas técnicas en screen space, ya que es lo que más se nota).

2.- bajada progresiva de precios de las arquitecturas Pascal y más tarde Volta a medida que Nvidia amortiza inversiones vendiendo las nuevas Quadro GV100 a quien las quiera pagar (minar Ethereums y tal).

3.- buenas ofertas de segunda mano de buenos servidores enrackables que han sido sustituídos por estas tecnologías.

La DGX-2 de la imagen que abre el artículo está en oferta: 400,000 $ y mina que es un primor.