Cursos e Bibliotecas Ver Mais

Galeria 3D1 Ver Mais

Ricardo   Montreal - Quebec - Canada - AC
Gui Silva   cotia - SP
LauroVictorDesign   São Bernardo do Campo
dpi3d   Recife - PE
dami   João Pessoa pb - AC

Portfólios Ver Mais

neopen   Mogi Guaçu
CNC   Caçador -Sc - SC
dercole   Piraju-SP

3D1 na SIGGRAPH 2010

Por: Fla3DMadness  

Em: 26/07/2010 15:23

Pow Flávio só agora fui ver isso aqui! Parabéns pela cobertura muito bem feita e pelo empenho! Vai ser massa pra UFSC ter você de professor! Parabéns!
Thales Eduardo Macedo
http://thales3d.blogspot.com/
Fla3D, parabéns pela iniciativa de postar tudo o que aconteceu na feira, uma aposta grande que eu tinha era no MentalRay seja com o iRay, mas algo além do vRay, pelo que pude constatar vRay é "padrão mercado" para pequenas produções? obrigado por ser nossos olhos da SIGGRAPH
-- -- Rodrigo Dias :):):):):) --
Cara, parabéns pelo empenho de nos atualizar com seus textos, imagens e vídeos. Posso te falar que foi o mais próximo que consegui de participar da Siggraph todos esses anos. hahaha!! :D Abraços.
Eae pessoal, depois de aproveitar a viagem pra passear um pouco por lá, estou de volta em casa. Escrevi bastante coisa esses dias, vou postando aos poucos pra não enjoarem de ler. :D Eae Athur, realmente, Catmull é O cara, tanto que fiz questão de dar uma de fã e cumprimenta-lo e parabeniza-lo por tudo o que ele ja fez. Tomara que vc e eu consiga ir ano que vem, é algo realmente único e vi varias pessoas no cgtalk falando que esse ano não foi dos melhores e que tem muita gente esperando a de 2011 em Vancouver, pela quantidade de empresas de CG que existe por lá, vai ser imperdível! Fala Thales, valeu cara! Tomara que de tudo certo la na ufsc, se der vai ser bem legal. :D E aí Rodrigo, pois é, como comentei senti falta do mental ray por lá, mas enquanto isso o iray estava por todo lado. Eu nao diria que o vray é o padrao pra pequenas produções, acho que esta bem dividido, mas como a chaos group estava por lá eles chamavam mais a atenção, mas a nvidia também estava só estava mais focada no iray. Eae Renan, a idéia era essa mesmo, tentar aproximar o pessoal daqui com o que aconteceu na SIGGRAPH. Agora vamos aos updates, vou falar um pouco do que teve de captura de movimento: Como sempre nesse tipo de evento, tínhamos diversas demonstrações de captura de movimento, sempre com pessoas se movimentando e mostrando algum modelo 3D em tempo real acompanhando os movimentos. Para quem não conhece, existem alguns tipos de captura de movimento, o mais usado e considerado mais preciso por alguns é o que utiliza diversas câmeras em alta velocidade e leds ativos espalhados pelo corpo. Olhando ao vivo os leds parecem apenas pontos brancos, mas vemos na foto como eles realmente se destacam: Vemos também que estão aproveitando o mesmo sistema para criar câmeras virtuais que são manipuladas como câmeras normais e tem o seu movimento capturado, criando um movimento mais natural para as câmeras de um cenário virtual. Aproveitei pra filmar esse sistema em ação, lembrem que podem ver em HD no youtube: Apesar desse sistema ser preciso, a captura sempre fica restrita ao espaço onde estão as câmeras. Para contornar essa limitação existe outro sistema que utiliza acelerômetros que lêem o movimento de cada ponto, a xsens é uma fabricante que já utiliza esse sistema há 10 anos e tinha um estande com um dançarino e uma dançarina tocando que ficavam dançando e a tela mostrava o movimento deles capturado em tempo real, chegaram a tocar samba mas aí vimos que dançarina não era brasileira, pois não sabia sambar. A vantagem desse sistema é a liberdade para a captura pois não fica restrita ao espaço onde estão as câmeras, porém ele não é tão preciso pela quantidade de acelerômetros que são colocados nas pessoas, além da transmissão da informação sem fio poder sofrer interferência. Vimos também sistemas com potenciômetros que liam a rotação das juntas, a pessoa vestia algo como um esqueleto externo, bem estranho. Mas o que chamou a atenção foi um sistema que dispensava leds ou roupas pretas, ele simplesmente capturava o movimento interpretando o movimento das pessoas, semelhante ao Kinetic que a Microsoft está para lançar para o Xbox360 conhecido como projeto Natal. Foi possível notar que o sistema não era tão preciso quanto os outros e tinha um certo atraso no movimento pela necessidade de processamento maior, porém não deixa de ser interessante. Não comentaram sobre preços lá mas acredito que esse seja o sistema mais barato de todos. Tô preparando mais coisa e posto mais tarde. :D []'s Flávio
Fla3DMadness Parabens pelo tópico. Muito boa iniciativa, e a explicação em geral esta bem legal. Uma coisa que também me chamou a atenção, lá nas primeiras mensagens foi o "Spherical Harmonics", eu tinha feito alguns estudos dessa tecnica, mais não tive a tempo de me aprofunda o necessario para programar esse efeito, pois realmente é dificil, e tem muito pouco artigo falando sobre ele, pricipalmente se tratando de código eu não achei nenhum. Tecnicamente ela se chama SHEXP (Spherical Harmonic Exponentiation), eu nunca tinha visto usar essa tecnica em um render offline, porque ela não responde a sombra do objeto físicamente correto, a não ser que o objeto sejá uma esfera. Ele funciona como um proxy, que ficam como objetos esfericos que não são renderizado, mais gera sobra suave (Soft Shadow) no render, é parecido com o AO (Ambiente Occlusion) só que apenas com esferas no lugar de triangulos(poligonos). Em compesação, o ganho em desempenho é muito grande. Esse video é exemplo da tecnica. Foi muito legal saber que estão usando essa tecnica em filme, me deu mais vontade ainda de voltar a estudala XD... Abraços.
Jean Carlo Deconto / Sunag Entertainment http://www.sunag.com.br/
Pois é, ja tinha ouvido referencia do SH para games, mas realmente tem muito pouca informação do uso em CG para gerar IBL. Só não da pra dizer exatamente que estão usando em filmes, o avatar foi o primeiro e tudo foi criado pela Weta, agora vamos ver se vai pegar, mas foi o assunto do momento na siggraph. Mas a idéia que explicaram é essa mesma, assim cada objeto tem sua informação de luz, usando HDR pra iluminar sem precisar de AO e raytrace, com ganho de desempenho, sem noise, mas não deixa de ser um belo fakezão de iluminação. O que importa no final é que ficou lindo! :D Continuando o "blog", ultimo dia, manhã: Depois de tantas palestras e conhecer tecnologias que ainda estão longe do nosso alcance, resolvemos aproveitar o último dia para tentar pegar as novidades que estão vindo para nós mortais, então consegui pegar uma palestra bem legal mostrando um pouco do workflow entre Max e mudbox, esse dia finalmente peguei umas palestras bem sérias no estande da Autodesk como verão a seguir. Começaram mostrando as novidades do viewport canvas do Max 2011, pra quem nunca experimentou vale à pena. Porém a idéia era mostrar o workflow com o mudbox, então estavam usando o viewport canvas mais como ponto de partida e referencia para depois no mudbox fazer a textura completa, mas é interessante ver o Max salvando o que foi pintado em um PSD com layers e a cena como FBX, para depois abrir tudo no mudbox, com todos os layers do PSD ali aplicados. Então aproveitaram para mostrar como funciona o vector displacement no mudbox, é realmente interessante que é possível esculpir algo, salvar como um mapa de vector displacemente semelhante a um mapa de normal e depois reutilizar esse mapa como um brush 3D. A diferença para o displacement é que o vector pega curvas e recortes na malha, enquanto o displace apenas pega a elevação em relação à normal da face. Para entender como funciona, pegaram um plano e esculpiram essa forma com brushes tradicionais: Após exportar como vector displacement eles reutilizaram para esculpir os cabelos dessa cabeça de leão que depois foi também exportada como vector displacement: Pegaram então aquela armadura feita no Max e começaram a detalhar, primeiro com brushes normais adicionando detalhes como musculatura e amassados. Então ao pegar o brush da cabeça do leão exportada anteriormente é que fica impressionando, conforme ele vai pintando a cabeça vai aparecendo com todos os detalhes como o dente destacado: Isso foi o que mais impressionou na parte da manhã, eles ainda mostraram um script que anima uma troca de câmera, na verdade ele cria uma câmera que é animada em sincronia com as outras, mas é interessante por facilitar a direção. Em seguida fui novamente no estande da chaos group ao lado da Autodesk para finalmente ver uma apresentação completa do Phoenix, é interessante pelo fato de finalmente termos um concorrente ao FumeFx, que por sinal são muito parecidos e trabalham no mesmo principio: simulação de fluido por voxel. É difícil dizer qual o melhor apenas olhando a apresentação porque toda empresa demonstra seu software como se fosse o melhor do mundo, mas achei bem interessante, falarei mais sobre ele depois, mas segue uma imagem dele sendo apresentado no estande queimando um papel: Foi legal poder conversar com o Vlado pessoalmente e tirar algumas duvidas técnicas sobre o vray e o Phoenix, no fim do dia ainda teria o encontro de user group do vray que falarei depois, quem sabe em um tópico específico pois teve muita coisa interessante. Então fui para outro estande ao lado, o da nVidia, onde demonstravam o Mari como já comentei em outro post, mas vale comentar que a nvidia estava sempre demonstrando como vem ajudando os estúdios a implementarem aceleração via GPU usando o cuda em diversas situações. Andando mais um pouco vi essa cena engraçada, o estande de um fabricante de placas e hardware para broadcast colocou um touro mecânico que era uma placa gigante. Esse eu acho que era o estande mais animado, estavam sempre jogando camisetas pra galera, fazendo piadas, falando besteira, por isso não entendi exatamente pra que servia o que eles vendiam... Ao lado a Pixar diariamente dava umas teapots de brinde, a fila era tão grande que contornava todo o pavilhão de exposições, esse era o começo da fila e faltava um pouco menos de 2 horas para começarem a distribuição dos brindes! Infelizmente não cheguei a ver a cara dessa teapot pois quem conseguia guardava escondida como um troféu. De tarde teve a apresentação da pixar no estande da autodesk que ja está no Area, mais tarde posto sobre isso. Abraços, Flávio
Então pessoal, finalizando o blog, vou contar o que aconteceu na última tarde da SIGGRAPH. Pixar no estande da Autodesk Após o almoço voltei ao estande da Autodesk para ver uma das palestras mais interessantes de todas: desenvolvedores da pixar mostrando o mudbox exportando texturas em PTex, carregando no maya e renderizando com o Renderman for maya e criando shaders no slim. Para quem como eu nunca tinha visto o renderman em ação foi muito interessante. Começando pelo PTex, a Pixar esta trabalhando em conjunto com a Autodesk desenvolvendo a ferramenta que converte a textura pintada no formato PTex, onde cada polígono possui sua textura. Além disso estão implementando o vector displace extraído do mudbox, esse seria o modelo low poly visualizando seu mapa de vector displacement: Diversas vezes eles digitavam alguns códigos para algumas funções, nesse caso estavam carregando o vector displacement no renderman: Renderizaram então no Renderman utilizando um HDR para iluminação e o vector displacement aplicado, sem raytrace ou GI: Depois foram carregando as texturas, shaders e renderizaram com diversos mapas de HDR, então para quem também nunca viu o renderman em ação segue um vídeo que eu fiz, são 3 videos que eu juntei em um só, vale ver no youtube em HD: Pra quem quiser ver a apresentação inteira tem no área da autodesk: http://area.autodesk.com/siggraph/video23 Enquanto isso no estande ao lado, todos os dias eram assim: sempre lotado de gente vendo as novidades do zbrush, eles estavam repetindo o mesmo dos outros dias e ainda assim estava sempre lotado. Palestra nVidia no estande da Autodesk: Essa foi a ultima palestra do dia, começou mostrando um pouco do plugin physx, com o apex para simulação de tecido e outra de rope, muito legal, não comentaram mas espero que seja integrado ao Max em definitivo. Depois um dos mais aguardados: abriram o Max em uma versão alpha do 2012 (sugestivo!) para mostrar o iray. Ele pode funcionar como um active shade para ser interativo, porém esse modo ainda não estava implementado para aquela apresentação, então mostraram uma previa dele funcionando como render final. Pra quem não conhece ele foi feito do zero, não é uma adaptação do mental Ray e é um render totalmente realista como o Maxwell, vrayRT, entre outros, onde não existe quase nada de configuração, como comentaram lá não precisa configurar final gather, photons, caustics, tweaks pra evitar flick ou qualquer coisa assim. O que ele tem de opção é o tempo que o render vai ficar trabalhando ou um nível de noise quando ele vai parar de refinar a imagem e só, são as maravilhas do render fisicamente correto. Na demonstração ele ficava um tempão fazendo o translate, mas disseram que tratava-se de uma versão experimental rodando debugs e outras coisas que deixavam o translate mais lento e a versão final é bem rápido como o translate que temos atualmente quando renderizamos com o mental Ray no Max. Agora o render, por ser acelerado tanto pela CPU como pela GPU, era muito rápido usando 4 GTX480 lá, mas comentaram que ele também é bem rápido em placa comuns. Como eu comentei antes, o iray já foi lançado como standalone já faz uns meses e por isso eu vi ele implementado em alguns estandes na siggraph, o mais notável o Bunkspeed Shot. Por mais legal que seja pra mostrar algum produto, do meu ponto de vista esses aplicativos não são tão interessantes como os que são integrados os programas que usamos, principalmente pela necessidade de ficar exportando o modelo. Vejo esses renders interativos como o iRay ou o VrayRT muito mais vantajosos rodando dentro do Max principalmente pelo fato de trabalhar com os materiais que utilizaremos no nosso render final. Então vejo o iray como uma ótima ferramenta para mostrar para algum diretor ou cliente durante o andamento de um trabalho, sem precisar exportar, trocar material ou algo assim, é só abrir o render e usar os materiais do trabalho em andamento, pena que tem que esperar o Max 2012 pra termos o iray integrado. A apresentação terminou mostrando a idéia de cloud computing, onde vc manda a cena e um grupo de computadores renderiza, muito promissor! Pena que minha maquina acabou a pilha no começo da palestra e não tirei foto de nada além do cloth do physx, mas felizmente pra quem quiser ver esse também tem a apresentação inteiro no Area da autodesk, recomendo, tem toda a apresentação do iray no max 2012 sem cortes! http://area.autodesk.com/siggraph/video22 É isso, com o fim da siggraph fomos ao encontro de usuários da Chaos Group, mas esse merece outro tópico. Pra quem ainda está acompanhando e ficou alguma duvida ou curiosidade, fique a vontade para perguntar. []'s Flávio
Nossa.. Flávio!!.. muito bom!!... vou ver todos os videos =p ... xD... nossa.. o sapo q eles fizeram la.. no video q vc tem.. era em real time ou n?... ou renderizaram ?? muito loco.. os caras sao feras !!!!! vc deve ter curtido em!! xD t++ abraço!
espetacular teu post!
Legal que gostaram! rafa, o sapo era renderizado pelo Renderman, no video mostra ele renderizando um frame, no final é só o video todo renderizado.

Faça o login para poder comentar

Usuários conectados

Total de mensagens publicadas pelos membros da comunidade: 710368.

Total de membros registrados: 137788

Últimos membros registrados: sugardefenderprijs, pokebal02, Pokebal026, LipozemSouthAfricaReview, fernandadias371, Tomasleal-, moilveira, Jandir .

Usuário(s) on-line na última hora: 433, sendo 3 membro(s) e 430 visitante(s).

Membro(s) on-line na última hora: LipozemSouthAfricaReview, sugardefenderprijs, pokebal02.

Legenda: Administrador, Especial, Moderador, Parceiro .

3D1 © Três D1 © 1999-2024. Todos direitos reservados.