Skip to content

Real Time Ray Tracing y su uso comercial

4 abril, 2018
DGX2

Deme dos de éstas, por favor

(4 minutos de lectura)

Otros ven series (y yo antes también), pero ayer comencé a ver las casi dos horas y media de la ponencia de Jen Hsun Huan, el animado CEO de Nvidia en el pasado GDC 2018. Interesantísimo lo que cuenta y explicado de una forma amena y apasionada, un showman, no a la altura de Steve Ballmer, claro. Aquí un ejemplito de RTRT bien majo:


Y explicaba Jen, unas horas después de que Epic Games desvelara la combinación de la tecnología RTX de Nvidia, DXR de Microsoft (la capa ray tracing para DirectX12) y los desarrollos realizados dentro de la misma división de ray tracing de Epic Games (con Juan Cañada, nuestro paisano, allí metido), explicaba digo, de una forma más pormenorizada la tecnología que subyace detrás. Y sobre todo de una forma más… comercial, que para eso estaba allí.

Y es aquí donde quería llegar. A lo comercial. Hemos alcanzado un punto en el que con cualquier ordenador de gama alta podemos desarrollar realtime de calidad a un ratio de fotogramas y resolución muy buenos. Y podemos, puesto que no es RT si no rasterizado, precocinado (lightmaps, lightbaking), realizar los cálculos (swarm agents en UE4) en nuestras propias máquinas o en la nube con servicios como las instancias EC2 de AWS (lástima que el servicio Deadline de AWS no contemple lighmassing, sólo a través de instancias personalizadas).

Y es que Jen menciona que el hardware en el que fue hecho el famosísimo corto de los stormtrooper  es esa caja denominada DGX Station, equipada con 4 Voltas…. y que cuesta 68,000 $

DGX1-4Voltas

Quiero un par, oiga!

Si en mi negocio B2B yo me las veo y me las deseo para que los clientes acepten un equipamiento para realtime HQ (no ray tracing, no VR) que rondaría los 2,000-3,000 € (me estoy planteando seriamente la cesión por renting para que no tengan que comprar nada) ¿cómo diablos vamos a convencer a nadie de que tenga en su showroom esta DGX para estar a la última de la última y así tener realtime ray tracing en demos convencionales y VR? Por eso mi convicción es que este tipo de máquinas NO las vamos a ver en nuestras oficinas, ni mucho menos en las de nuestros clientes, si no que irán a sustituir las granjas de render offline y servicios en la nube, y generando secuencias a 60 fps casi on the fly usando editores como el Sequencer de Unreal Engine y como ya hemos visto en muchos ejemplos (Hellblade: Senua’s Sacrifice de Ninja Theory).

En Roman Paladino: van dirigidas a estudios que realizan contenido para cine y televisión, donde todo se hace con motores ray tracing unbiased y granjas de render y muchas horas de cálculo y donde la posibilidad de obtener secuencias en tiempo real y poder corregir tantas veces como sea necesario sin morir en el intento es el Walhalla prometido si no caes en la contienda.

Pero sí abren el camino a tres promesas:

1.- hibridación de técnicas lightbaking para iluminación global + raytracing para reflejos y ambient occlusion (y así huir de estas técnicas en screen space, ya que es lo que más se nota).

2.- bajada progresiva de precios de las arquitecturas Pascal y más tarde Volta a medida que Nvidia amortiza inversiones vendiendo las nuevas Quadro GV100 a quien las quiera pagar (minar Ethereums y tal).

3.- buenas ofertas de segunda mano de buenos servidores enrackables que han sido sustituídos por estas tecnologías.

La DGX-2 de la imagen que abre el artículo está en oferta: 400,000 $ y mina que es un primor.

 

No comments yet

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: