Ray Tracing no Unreal

A Epic Games e a Nvidia exibiram um vídeo, na Siggraph 2018, mostrando a capacidade das novas placas RTX e as futuras novidades com Ray Tracing Real-Time no Unreal, entre elas estão translucência, reflexões, Area Light e GI.

Ver notícia

Por: Adminin  

Em: 15/08/2018 11:00

A Epic Games e a Nvidia exibiram um vídeo, na Siggraph 2018, mostrando a capacidade das novas placas RTX e as futuras novidades com Ray Tracing Real-Time no Unreal, entre elas estão translucência, reflexões, Area Light e GI.
Andre, me desculpe a ignorância, mas é uma coisa tão fantástica que eu tenho que fazer um pergunta cretina, mesmo. Isso é um render? É? Não F#@$%!!! Gostei dos slogans, um como simples conceito (no curso da história da Porsche); já o outro, que finaliza o vídeo, eles associam os dois produtos, o carro e a placa de vídeo com o conceito de velocidade da luz. Show!

Eu queria que você apenas me falasse as etapas, pois a gente ainda lida com o render - podemos dizer agora, diante de brutal evolução e avanço - estático, certo? Mas com estas nova tecnologia Ray Tracing Real-Time, o estático, a fossilização do render esquelético foi às favas diante de tudo isso, né?

Me fale, me conte, como são as etapas da produção. Por exemplo, daquele seu belíssimo e excelente trabalho de máquete (animação) e este aqui, por favor. É que eu quero entender o que acontece antes de tudo isso. Abração fraterno, Marcelo Baglione
Oi Marcelo, tudo bem?

Realmente é incrível né?
Sim, isso é uma renderização, porém, em vez de esperar horas para renderizar cada Frame o Unreal renderiza a cena a mais de 30 Frames por segundo, que é o que chamamos de tempo real.
Portanto, a renderização do vídeo todo leva praticamente o mesmo tempo de duração do vídeo, pois vai apenas capturar a Viewport e salvar como imagem, já que você vê na Viewport do Unreal exatamente igual está no vídeo.

Usaram este mote da velocidade da luz para mostrar que o sistema de Ray Tracing Real-Time calcula o GI de luzes em movimento também em tempo real, não apenas os reflexos e ficou lindo.

As etapas são simples neste caso que é tudo realmente em tempo real, pois tem casos que é feito o Bake da iluminação e dai leva alguns minutos antes de poder visualizar tudo com realismo em tempo real.

Na renderização convencional você coloca os objetos na cena, texturiza, aplica a iluminação, faz renderizações de teste e no final aumenta a qualidade para criar a imagem final, esperando de minutos até horas.

Na renderização com Ray Tracing Real-Time você importa os objetos na cena, texturiza vendo o resultado dos materiais com realismo na Viewport, aplica a iluminação vendo o resultado com qualidade final na Viewport e no final apenas captura as imagens na posição que quiser, levando o tempo de 1 clique para gerar cada imagem em alta resolução.

É outro mundo, é uma delícia trabalhar assim, mesmo que tenha que esperar alguns minutos pelo Bake da iluminação, porque depois vê tudo com qualidade final na própria Viewport.
Ou seja, não tem mais o processo de renderização, a cena está lá na Viewport com realismo e você apenas dá tipo um Print Screen para gerar a imagem.

A animação da maquete que te mostrei foi feito Bake da iluminação, então, levou 45 minutos para o Bake, mas o tempo de renderização foi quase o mesmo da duração do vídeo.
Neste exemplo do Porsche tudo foi calculado em tempo real sem nenhum tipo de Bake, então, nem precisa esperar nada, já vê tudo na Viewport igual está no vídeo logo que coloca os objetos e luzes na cena.

Abração e tudo de bom.

André Vieira
Cara, vou falar o que entendi, quando assisti a primeira vez. Eu entendi que o filme ou vídeo era a renderização, e achei que está meio confuso ou errado. Parece que não, de acordo com o que você explicou.

Como o meu Desoxirribonucleico possui o meu lado 1/2 101% imbecil, me explica a partir do seu vídeo. Você modelou, aplicou texturização, fez luzes, etc?
Abração fraterno,

Marcelo Baglione
Oi Marcelo, tudo bem?

Para criar aquela animação que te enviei eu apliquei materiais Standard cinza em cada objeto no 3ds max, depois fiz o mapeamento com o Unwrap UVW e exportei cada objeto em FBX.

Dai importei cada objeto no Substance Designer e criei os Bakes de AO, Normal From Mesh e Bent Normals.

No Unreal eu importei cada objeto em FBX, os mapas criados no SD e as texturas que gostaria de usar nos materiais, dai criei os materiais com estes mapas e texturas e apliquei nos objetos.

Com os objetos prontos eu montei a cena na Viewport do Unreal, coloquei as luzes vendo o resultado como Preview, que é bem parecido com o resultado final, mas não é idêntico.

Depois que a cena estava pronta eu fiz o Bake da iluminação com o Lightmass do Unreal, levou 45 minutos calculando as luzes e criando os Lightmaps, quando terminou eu passei a ver o resultado com qualidade final na cena 3D na Viewport do Unreal, então, posso virar a câmera para qualquer lado, mover a câmera pela cena livremente igual é na Viewport do Max, só que vendo tudo com qualidade de renderização final.

Portanto, a qualquer momento eu posso pocisionar a câmera na cena e clicar no botão que bate a foto, dai é só dar OK e a foto é salva com 4K de resolução.

Se eu quiser gravar um vídeo, é só animar a movimentação da câmera pela cena e clicar no botão de gravar, dai ele gera o vídeo enquanto você assiste na Viewport.

Acabou aquela espera para ver cada imagem que quiser criar da cena 3D, é 1 clique. rsrsrsrsrs

Abração e tudo de bom.

André Vieira
Como sou um estudante neófito, Andre, fico impressionado com estas coisas que você fala e faz, em unidade, com o Max, Unreal e Substande Designer. Creio que você tenha entendido o que quis dizer ao falar que não compreendi o que era filme, animação e o que era render. No entanto, só depois de conversar mais contigo é que vi que tudo estava acontecendo ali, na real. Isso não é fabuloso para quem trabalha com animação ou mesmo com objetos de linha branca? Eu citei os planetas porque notei que seria possível, por exemplo, você fazer a Terra hoje, agora, mas dar a louca e simular ela, em torno de 10.000 a.C., quando se deu, aproximadamente a última Era Glacial e bastante próximo do afundamento da última porção do grande continente da dita mítica Atlântida. Notei que você pode manipular a superfície da terra, sua biosfera e até acho que suas características geológicas, diversidade e animação de um deslocamento de terra nas Ilhas Canárias, gerando vagas ou tsunamis - em termos de animação. Mas o que você me passa e o que eu tenho visto, acho que ele, o Unreal, já pode ser visionado para estas áreas científicas e experimentais. Ainda é uma coisa muito nova para mim, Andre. Não é um simples programa; ele intercepta conceitos disruptivos - não sei se fui muito claro.
Abração fraterno,

Marcelo Baglione

P.S.: Andre, furei muito postagem devido, primeiro à alergia que tive; segundo, em virtudes destas pesquisas e consultas que estou fazendo na Bibliotea Nacional. Acredite, saio dali um bagaço, como se tivesse feito a mais pesada atividade física. Portanto, me desculpe, mas já estou atualizando aos poucos.
Oi Marcelo, tudo bem?

Eu fico realmente feliz que gostou e se tudo correr bem no final de semana vou te enviar aquele teste que falei, dai você além de entender perfeitamente, vai experimentar o negócio de verdade.

A sua dúvida sobre a diferença de filme, animação e render é muito interessante e uma das melhores perguntas que já me fizeram, pois eu nunca tinha parado para pensar nestas diferenças.

A melhor forma de explicar é comparando 3D com o mundo real, no mundo real temos os objetos e podemos pegar uma câmera para filmar eles, se quiser podemos amarrar uma linha em qualquer objeto e arrastar para animá-lo, pois é um objeto inanimado, dai ele aparece no filme se movendo.

Em 3D é exatamente a mesma coisa, só que o mundo 3D é feito por objetos criados com Meshes, dai você coloca uma câmera 3D no mundo 3D e pode filmar a cena, mas diferente do mundo real que a câmera captura 30 imagens por segundo rapidamente, em 3D precisa renderizar cada imagem e leva de vários minutos até horas para criar uma única imagem, sendo que precisa de 30 para formar 1 segundo de filme.

Mas em Real-Time isso acabou, pois a renderização acontece imediatamente igual no mundo real.


Já sobre a simulação geoplanetária que propôs, não é simples de fazer não, mas é possível.
O que eu consigo fazer com Substance e efeitos no Unreal é uma imitação, não é fisicamente correta para usar cientificamente porque trabalho com mapas e simulo os efeitos com programação.
Daria para fazer simulações planetárias fisicamente corretas usando recursos de simulação de fluidos como o Nvidia Flex, que pode ser instalado no Unreal.
Dai, conforme modificasse o Displacement dos continentes, a água iria reagir fisicamente, não é difícil, mas vai precisar de um super PC para fazer isso. rsrsrsrs

PS: Espero que esteja melhor da alergia e que tenha progredido nas suas pesquisas, depois dá uma geral na seção de notícias porque tiveram várias nos últimos dias que sei que vai gostar.

Abração e tudo de bom.

André Vieira

Faça o login para poder comentar

Usuários conectados

Total de mensagens publicadas pelos membros da comunidade: 710681.

Total de membros registrados: 138159

Últimos membros registrados: xenoprostactive, diaquilin, davidtwins1, Auiospmame, pIS, ChargecardChargerPriceUK, urostatincapsula, Fagato026 .

Usuário(s) on-line na última hora: 1473, sendo 22 membro(s) e 1451 visitante(s).

Membro(s) on-line na última hora: TadeuB79, rafaelgmarotta, Roberto Movanni, Marceleza, Daniel Monteiro, CNC, jessicatorres, karolinarrrrrr, gilson antunes, mastermax, Carlos E. Nogueira, Eng Damasceno, weberton santos, Taciano ramos, tsmodelagem3d, emersonforentin, netinho muniz, xenoprostactive, Ronaldo, Sergio1987, João Von Rondow, Marco Rocha.

Legenda: Administrador, Especial, Moderador, Parceiro .

3D1 © Três D1 © 1999-2024. Todos direitos reservados.