Archive for the ‘ 3D ’ Category

如何用Maya mental ray算出UV pass

筆記文:

當在NUKE裡面進行3D remapping(ST map)或是iDistort的時候, 就會需要用到UV PASS

簡單的說就是把UV資訊算成一張紅綠色的圖好讓這兩個節點可以判別該圖像的2D UV資訊

但是很遺憾的MAYA預設的PASS裡面並沒有提供UV PASS. 所以就找個一個簡單的教學

教學網址如下:

http://williework.blogspot.tw/2011/03/technical-creating-custom-uv-pass-in-mr.html

第一部分是教如何串mental ray node. 第二部分是解釋如何在NUKE裡面使用這張UV MAP

簡單來說就是這張圖

簡單而言就是先用mib_texture_vector來擷取物件的UV資訊, 輸出到write_to_color_buffer

然後再把紅綠兩色分別寫到U跟V這兩個PASS裡面就好了.

有點囉嗦~ 但是沒辦法~(攤手)

與時俱進

最近公司開始在討論有關主要使用軟體的問題

公司雖然是以MAYA為主, 多年來也建立了很好的口碑

但是這幾年開始感到有不足的地方, 近幾年看到比較厲害的作品

幾乎都不是maya user的, 不論是新起的houdini, cinema 4D, 或是

一直維持插件戰術的max, 每每都有令人驚艷的作品產生.

即使大家都同意好的作品不是靠軟體而是在於人

但是每每看到一些很複雜的效果在其他軟體上做出來, 心中不禁暗自驚懼盤算著

如果是在maya上實現一樣的效果到底要花多少功夫, 而且沒法任意修改.

其實這也是台灣製作廣告後製的一個特點, 不遵守開會結果, 修改要求異常的多,

造成你沒辦法預期到底會有什麼樣的要求出現. 而maya對於這點很薄弱

因為做一個效果要比其他軟體多花幾道功夫, 一但交案前各種天花亂墜的修改意見出來

時痛苦指數也相對飆高.  更漚的是一樣是mental ray 那麼多年來效能整合還是比不上

XSI跟max, 好不容易出一個VRAY, 卻被閹割掉一些功能, 更新永遠慢max一拍.

許多已經存在遠古時代的功能到現在還像宿便一樣存留在體內造成慢性病.

其實不是maya不好, 只是開始有那種長江後浪推前浪的感覺了.

 

由於公司目前還是以特效為主力, 所以檢討中的軟體有houdini跟max,

houdini算是近來3D特效軟體中的殺手級軟體, 但是進入門檻也高, 尤其對於

以大三元主流軟體user來說接近於打掉重練的地步, 要轉變可能需要多點時間.

而max就不用說了, 搞定插件就搞定一切, 加上許多強力算圖都原生支援,

進入門檻相對少一點.

但是…

想到要把用了那麼久的maya放到二線感覺還是有點複雜.

 

 

[筆記文] 如何讓particle長在每一個vertex上

在Maya裡面有時候我們會想做一件事情就是把一個物體按照normal方向排列

在另一個物體的表面上的節點上(比如龍身上的鱗片)

要做到這件事情其實在houdini真是超簡單, 但是在Maya裡面就需要兩三個步驟來完成

以nurbs來說步驟如下:

1 建立closetPointOnSurface和pointOnSurfaceInfo (在script editor中打入createNode xxxxxxx;)

2 連結nurbsObjectShape.worldSpace 到剛剛建立的兩個節點上的.inputSurface attribute

3 連結 closestPointOnSurfaceInfo output 的U 和 V 到 pointOnSurfaceInfo input 的U 和 V

 

4 在particle上下expression

float $pos[] = position;
setAttr “closestPointOnSurface1.inPosition" -type double3 $pos[0] $pos[1] $pos[2];
vector $normal = `getAttr pointOnSurfaceInfo1.normal`;
velocity = $normal;

如此一來particle就會把自身位置帶入到每一個節點的位置, 接下來只要再把物件instance上去就完成了.

使用polygon的場合:

把closetPointOnSurface改為建立closetPointOnMesh, 並且不需要建立pointOnSurfaceInfo

 

(因為closetPointOnMesh本身已帶有normal information)

expression改為只要前兩行:

float $pos[] = position;
setAttr “closestPointOnSurface1.inPosition" -type double3 $pos[0] $pos[1] $pos[2];

就好

 

以上

 

MEL指令筆記

sphrand: 可在指定的圓周中隨機產生一組位置(vector)

ex:$radius = 42;

$result=unit(sphrand(1)) * $radius;

// Result: <<5.35843, 28.2859, -30.581>>  //

makeIdentity: 作用類似freeze transformation, 會讓同一group之下的shape node都歸零.


							

MENTAL RAY vs VRAY

自從開始切換到VRAY之後其實個人一直以為遲早可以不需要用MENTAL RAY了.

VRAY的算圖速度, 品質, 染色…一切的一切看來似乎都比MENTAL RAY強大太多.

但是今天看了一些教學後調整了一些以往在MENTALRAY上的做法, 覺得似乎錯怪了MENTAL RAY

也重新體認到使用MENTAL RAY的時候, 如果希望在3D階段盡量逼近寫實程度的話

Linear workflow是不可或缺的一環.

上圖是我設立了一個簡單的場景, 一樣的物件加上兩個area light. 盡量讓兩者的結果接近.

可以看到VRAY跟MENTAL RAY在運算上的不同造成不同的質感,

MENTAL RAY感覺對比比較弱, 顏色偏向清淡, 比較需要在合成階段調色.

而VRAY對比則偏強, 顏色偏向濃郁, 比較容易在3D階段就算出討喜的結果.

但是這個應該說每個人口味不同,

也許有人會覺得MENTAL RAY這樣的調性比較自然也不一定.

連猴子也會的MAYA Linear Workflow流程

其實是因為這個問題牽扯範圍很廣, 不寫猴子系列大概會花掉很多時間在上面….

關於線性流程(Linear Workflow)是一個會讓很多人迷惑的觀念, 也許更多人根本就不知道有這件事情但是照樣做的出漂亮的影像. 我自己也看了很多篇有關Linear Workflow的文章, 也曾經迷惑很多次, 希望在這篇文章中可以幫助更多人釐清這個觀念。

什麼是線性流程? 光是要解釋完這件事情就足以寫出一大篇文章, 比如鼎鼎有名的3DLight作者的經典文
http://3dlight.blogspot.com/2008/09/linear-workflow-for-maya-mental-ray.html
但是相信我, 即使你看完看懂了每一個字, 去吃個中飯, 抽根菸, 回到桌前打開MAYA開始想自己重新整理一下線性流程的道理時, 你會發現自己又走入了迷宮搞不清楚現在自己身在何方.  這是因為linear workflow牽扯到三個地方, 你的螢幕(Render view), 3D軟體, 還有合成軟體. 每一個地方都各牽扯到linear跟sRGB, 所以至少會有2*2*2個變數非常的令人迷惑.

那什麼是linear workflow? 請GOOGLE, 老外那邊有一堆專門解釋的部落格文. 這邊就不詳細介紹了.
台灣人玩動畫裡也有一篇整理老外翻譯的文章, 看完就知道Linear, gamma這些是多麼擾人的玩意
http://hammerbchen.blogspot.com/2009/10/gamma-correction-and-linear-workfkow.html

那到底linear啦,ga不gamma的會對做3D有什麼影響呢?

簡單的說就是以前映像管螢幕時代因為技術上的關係本來應該是要呈現linear(所算及所見)的影像在螢幕上會呈現gamma 0.45(魔術數字1, 請先記著)的亮度。 那怎麼辦呢? 當時的補救的辦法就是在圖片中(一般照像機照出來的jpeg都是)嵌入了gamma 2.2(魔術數字2, 請先記著) 補償. 如此一來在螢幕上看起來就會"接近" linear的影像了.  SO?


在一般的情況下是不會有太大的問題, 但是當進到3D軟體中時就是個問題了, 原因在於3D軟體中的圖像運算其實是以Linear來運作的, 比方說你的燈光, 你的材質球的顏色, 任何一切3D軟體所計算出來的都是如此.  但是我們的螢幕卻不是, 也因此當我們設好物件, 材質, 燈光後在render view (記住!! 這邊指的是你的螢幕螢幕螢幕!) 中看到的其實是gamma偏低的影像.  再加上我們貼上的材質絕大部分都是轉成jpeg或是png, 裡面內含了sRGB gamma 2.2補償的圖片, 所以只要有貼上不是經由3D產生的材質的地方也都是錯的.

很多人會說, 我不知道這些做了那麼多年 還不是一樣可以做出很漂亮的圖, 有差嗎?
當然有差,  如同剛才所說, 假設我們放了一盞燈, 我們都知道要把衰減設為Quodratic (因為教學說這才是燈光正確的物理衰減!!)
然後用過的人都知道場景會變很暗, 那怎麼辦呢? 第一個動作就是把燈的intensity拉高, 再來就是拼命加燈, 但這時候就會開始容易出現靠近燈近的物體都爆白了, 其他的物件卻還是不夠亮.  這就是因為螢幕顯示的亮度比正常該顯示的更暗, 因此造成我們不自覺得用錯誤的方式去補救錯誤的設定.

可以看到按照原本的設法場景亮度並不夠, 而設定Quadratic衰減的燈光"看起來"就會變成不是二次方衰減了.  因此再提亮就很容易會讓圓柱體爆白. 而補燈就容易增加燈的複雜度. 而經過gamma調整後的圖明顯亮度就正確多了.

好了, 在說下去就不能算是猴子教學了, 接下來就不多解釋原理, 而直接跳進設定. 如果你不在乎為什麼linear的歷史也不想知道為什麼要這麼做, 沒關係, 只要將注意事項跟步驟整理出來就好了.

MAYA階段:

1.(建議) 使用Mia_material.  這系列的材質基本上是以Physical correct寫的shader, 比起blinn, phong更能正確演繹物理性正確.

2. 在任何不是maya自行產生的貼圖與shader間接上gamma correect, 數值填上0.4545 ( 因為任何轉成jpeg的圖片都會被嵌入sRGB gamma2.2的值, 所以要減gamma: 1/2.2=0.4545…)

但是 bump, displacement等黑白貼圖不需要做 gamma correction. Ramp, fractal, noise, cloud…等maya預設的也不需要做

3.  在攝影機的 mental ray/Lens shader中接上mia_exposure_simple (由攝影機端更正算圖出來的gamma值) 設定填上 gain 1.0, knee 1.0 Compression 0.0, gamma2.2

4. (建議)請在Render setting/Quality/Framebuffer中選擇RGBA 32bit float images. 然後格式選擇EXR32bit float      image雖然會使檔案容量爆增, 但是在調整明亮時寬容度大, 製作lens flare, motion blur, 景深時會遠比8 bit              imagey自然漂亮許多.  因此建議 beauty, normal, depth算32 bit, 其他的pass用16 bit, matte, alpha等才用8bit
基本上就是這樣, 如此一來在render view中看到的才是正確linear的結果.  但是要注意一點, 在攝影機上接上mia_exposure_simple, 將gamma值填上 2.2 是為了要補償螢幕不正確顯示的gamma值, 讓你可以在render view中看到真正linear的結果, 但是真正算圖時應該要把gamma值再填回 1.0, 原因下一階段會說明


合成階段:

合成的話建議採用NUKE, Fusion等對於線性流程支援度較好的合成軟體. AE CS之後也支援float point image如Open EXR, 但是AE預設的選項裡卻又有讓人容易混淆的設定, 因此對於線性流程趨勢而言AE不是個最佳選項.

這邊以NUKE做個簡單的說明, 其實在NUKE裡面沒有什麼特別需要做gamma校正的事情, 但是有一件事情需要注意. 在把EXR等32bit float image丟進NUKE的時候, NUKE預設是linear顯示的. 怎麼知道?

在NUKE裡按下S叫出project settings, 在LUT區裡可以看到各種格式對應的處理方式.
之前我們曾經提到在MAYA攝影機接上exposure simple做gamma2.2就是為了要預視丟進Nuke裡的樣子, 但是如果就那樣算圖出來丟進去NUKE的話, 因為NUKE會再幫你做一次gamma correction, 所以會變成做了兩次的gamma correction.

所以正確的做法應該是在maya做好各種設定後, 把 mia_exposure_simple的gamma改回1.0. 這樣雖然在render view(也就是螢幕上)看起來會是亮度不足的影像(但是其實是linear正確的, 因為maya裡面已經全部都是linear的), 但是丟進Nuke裡面就會顯示正確亮度的lineart corrected影像!

反過來說, 如果沒有做gamma correction按照以往的錯誤方式打好燈算出來的圖, 丟進nuke裡就會變的過亮(因為nuke以為你丟進來的應該是linear), 然後你就會在read中改成srgb才會變成你在maya裡看到的樣子. 但是這也只是讓你算的東西在nuke裡面看起來跟Maya一樣, 並不是說你做的就是linear correct的影像….

基本上大概就是這樣, 這些是我個人對於Maya – Nuke linear workflow的一些理解. 可能有一些地方不是非常正確, 非常歡迎看到的人多加指教. 今後對於線性流程有更多的理解的話也會盡量在這系列文章中補充.

待續…..

衍伸閱讀:

最近renderman官網中多了一篇關於render man如何做線性管理的文章, 裡面也有淺顯解釋

linear workflow的原理. 非常的淺顯易懂, 相信對於有興趣的人是很有幫助的, 請參照:

http://renderman.pixar.com/view/LinearWorkflow

MAYA裡有關透明貼圖分層的問題與解決方法

這次的案子裡由於場景裡面預定出現的物件很多, 原本為了節省場景複雜度跟時間決定

大部分物件都採用把照片貼在板子上的風格.  沒想到在做完動態跟打光,

在出pass合成的階段卻遇到了麻煩.

原因在於MAYA裡透明貼圖其實沒有做的非常完美, 當使用透明貼圖時影子跟各種預設拆層

常會忽略掉alpha或是當重疊的時候計算錯誤.   經過一些研究後針對各種貼圖影子問題找出了

解決方法, 在這篇文章中分享. 下圖是一個簡單的例子, 將一張貼圖貼在lamber的diffuse上,

然後alpha貼在transparency上, 打一盞燈光, 影子採用raytrace shadow算出來應該會是長這樣

(葉子的白邊是因為只是先大概做個alpha, 請見諒. )

可以很明顯的看到地上的影子並沒完全透空掉. 而採用global render裡的預設pass

算出來各個分層會變成這樣:

現在問題就比較大條了, 不是沒有透乾淨, 是直接讀取不到貼圖的alpha訊息.

這邊就可以先用第一個解決方式:

請愛用mia_material_X_passes 材質

mia_material是mental ray裡面的萬用材質, 一個打死全部可以設定各種材質質感

對於這次的問題此材質也提供了良好得解決方案.  將貼圖貼到mia_material_x_passes

的diffuse, 而將alpha貼到Advanced/cutout_opacity上. (有alpha貼圖就直接拖上去,

帶在貼圖裡的話請用右鍵拖到mia上面, 將output_alpha接到cutout_opacity上)

算出來的結果會如下

這邊就可以看到影子已經正確的被透空, 至於其他算出來的pass則會如下圖

很遺憾的預設pass仍然沒辦法完全讀取到alpha資訊. 但是可以看到normal已經可以正確切割出來.

DEPTH雖然有讀取到但是卻出現了計算錯誤. 至於AO跟normalized normal vector則是不動如山

以下就針對這三個pass的解決方式分別介紹

Ambient Occlusion:

這個最簡單, 解決方式就是不要在pass setting中選取, 改由使用mental ray中的 mib_fg_occlusion

來直接算出AO效果.  連接方法如下, 這邊要準備兩組mib_fg_occlusion一組是給沒有透明貼圖的,

一組是給有帶alpha透明貼圖的

算出來結果會是像這樣

可以看到已經可以正確切出alpha的形狀了.  這個解決法速度快, 品質也不差, 但是因為預設必須使用FG,

所以會有以下幾個問題:

1 不能調整陰影的範圍濃淡, 這很致命傷, 但是因為目前還沒找到其他方法可以算出正確的AO, 用這方法雖然不能微調但是至少可以加減增加立體感.

2 因為是用FG運算, 所以品質不開高會有閃爍的問題. 由於此材質算圖很快, 所以accuracy我都直接拉到1024以上, 其它還有 point density 0.1以下, point interpolation 20~30

interpolation會決定FG ray擴散的範圍程度, 某種程度上算是可以調整濃淡, 但是開太高會散太開也會增加算圖時間, 需要自行取捨.

DEPTH:

這個pass需要用到第三方shader才能完美解決, 請到 http://www.puppet.tfdv.com/download/shaders_p_e.shtml

下載這個 P Shader包. 裡面有很多作者撰寫的shader, 其中我們會用到的是p_z_shader.

使用方法如下:

只要把p_z shader上到場景裡所有的物件算圖就好了.  (記得一樣要分成沒有貼圖跟有貼圖的)

接著打開attribute editor, 有幾個地方需要調整:

Near/Far clip plane: 這兩個數值決定了算出來的DEPTH的前後距離.

建議用headup display的object detail找出場景中離鏡頭最近跟最遠的距離

分別填入near跟far裡面. 記得所有的shader的兩個數值都必須統一.

Opacity: 將貼圖的alpha貼到這裡就可以正確的透空

Float point output: 是否採取浮點小數運算, 預設是關掉的. 但是一般depth都會算成32bit float image

以求得足夠的深度資訊, 所以建議這邊將它勾起來. 算出來會是一片爆白而不是漸層灰.

但是那是正常的, 只要到合成軟體中調整到原本該有的灰階就可以了.

最後, 在算這個pass時建議把raytrace的refraction/reflection次數開高, 低於 4 的話

如果有多片疊在一起的地方會出現運算錯誤.

最後是MotionVector pass:

這個pass的解決方式更詭異, 它必須動用到一個隱藏版的shader. 什麼? 隱藏版?

對, 其實我到研究這問題之前也不知道mental ray其實有隱藏起一些shader,

需要做點事情把它們叫出來.

方法如下, 請到 Maya安裝路徑中找到

C:\Program Files\Autodesk\Maya2012\scripts\others\mentalrayCustomNodeClass.mel

用記事本打開之後往下找到這行

$enableMIPShaders == 0;   將 0 改成 1 後存檔後重新開啟maya.

開啟之後就會在 Hypershade中看到多出一堆mip開頭的shader, 而我們要用到的是其中的

mip_motion_vector

但是比較特別的是這個shader不是拿來上在物件上, 而是要跟算圖的攝影機做連結.

將mip_motion_vector用中鍵拖到攝影機上,

在connection editor中把mip的message連到camera的miOutputShader

連好之後打開camera的attribute editor, 在mental ray中會多一個Legacy Output shaders.

將裡面的depth跟Motion vector勾起來. 好了直後直接算圖就可以了.

(shader可以上個lanber就好)

由於動態沒有設的很好所以這張圖看不太出來, 但是已經可以看到可以正確的讀取到alpha資訊了~

關於這方面的問題我曾經到cg talk上請教, 也得到一位好心人士許多的建議. 原文討論串在這邊,

可以提供給大家做個參考

http://forums.cgsociety.org/showthread.php?f=87&t=966990

後記:

這次的案子是第一次採用大量透明貼圖的物件, 本來是打算節省時間的沒想到卻在出pass

遇到這麼多問題.  原本以為透明貼圖該是很基本的問題maya卻還沒有

一個完美的解決方式. 所以以結論而言能用model還是盡量用m0del

比較不會有那麼多問題.

有關Motion Vector Pass的問題

可能大部分的人都已經知道了, 在算3D動畫中大家都知道打開motion blur可以增加真實感但是相對的算圖時間也隨之倍增.

所以在一般流程中比較實際的做法是算出motion vector圖層然後在合成軟體中加上去.  這次的案子我主要使用了maya2011來做大部分的運算其中注意到了一個小問題

那就是如果算圖圖層中有夾帶motion vector pass的話, 由於會自動去加算前後0.2格的動作所以會跟沒有夾帶motion vector pass的圖層產生誤差.

在MAYA2009以前(2008也許….)  mentalRay是沒辦法像現在2011一樣無腦算出拉不隆冬一堆pass, 所以那時候在公司是用外掛來計算的印象中也沒這問題….anyway…

為了可能還不知道的人, 來寫個猴子也會的motion vector教學設定吧

下圖是做了簡單運鏡的算圖, 設定兩個pass分別算出beauty跟純色兩種pass

在沒有夾帶任何motion vector pass的情況下兩個pass應該是一致的

但是如果有在算圖圖層中夾帶motion vector pass進去的話

(注意! 這邊是有把motion vector夾到associated pass contribute裡, 但是即使只是丟在associated passes裡面也一樣會產生同樣效果)

則會強制去計算前後動作, 就算在render setting裡不打開motion blur也是一樣

算出結果如下

結果可以看出由於beauty pass裡面沒有夾帶motion pass設定所以算出來的結果會跟

純色pass產生致命的誤差. 而解決的方法沒有唬爛大家真的是連猴子都想得出來

那就是

在有要算的render layer裡都丟同樣的motion vector pass進去就好了

解決~

順便一提~ 2011裡面提供了夯不啷噹一大堆的無腦pass設定

很多名稱十分接近根本就不知道是要幹嘛的. 以motion vector來說

我測試了裡面的每一種最後得出normalize 2D motion vector是可以正確合成

運用的pass, 其他的不知道要怎麼用歡迎各位不吝指教~

千萬不要因為不知道是什麼反正算圖不用錢就全部給他算下去, 這樣會造成合成部門

的莫大困擾喔~

還有比起AE來說, nuke裡面的vector blur節點簡單又好用請大家愛用Maya X Nuke流程~~

Maya 2012初覽

每年一次的更新又來了, 迫不及安裝之後來檢視一下新版的MAYA 2012多了哪些華而不實用的新功能

由於只是大概照著What`s new邊看邊玩, 所以只能報告一下基本心得, 詳細情形要等工作上使用到了才知道了

剛安裝好後可以直接讀取舊版的preference設定, 不知道是錯覺還是怎樣感覺這版開機速度變快了.

猛一看界面跟2011是沒什麼兩樣, 看來新玩意通通藏在裡面了

新的project window設定. 變成可以選擇只產生主要架構(包含scenes, texture等…)或是連次要架構(一些平常用不到的) . 在2011的時候要是按下defualt, maya會很三八的把一大堆資料夾建立在專案裡, 以前還要一個一個刪掉, 現在做成這樣好是好啦….但是總覺得有點脫褲子放屁…

建模方面照慣例沒什麼特別多的新功能. 主要提到的有三個, 第一個是project curve on mesh. 以前只能投射curve在nurbs上面, 現在連Polymesh都可以了. 但是分成兩階段, 第一個是投射後產生圍繞mesh的curve, 第二個才是用split mesh with projected curve這個新功能去把mesh切割開.

恩….這個功能頗實用, 以前有想過好幾次要做這件事情結果都變成得先在nurbs做再轉poly. 所以給兩顆星

第二個是EXTRUDE的option裡面多了一個curve選項. 這個功能挺有意思的, 打開之後當你extrude面出來後會自動幫你產生延著長出去的面的方向的curve.  而這條curve是綁定在mesh上的, 換句話說可以輕鬆做出狗搖尾巴的動態!! (咦? 是這樣講嗎??)  當然, 砍掉mesh的history後curve也就跟著失效了.  我想這功能最大的好處是以前當要做一些長出來又需要扭曲的型狀往往需要先去圈選, 旋轉, 然後在圈選, 在旋轉….現在有了這條curve後就可以直接拉出要扭轉彎曲的型狀後砍掉定型就好了.

還算實用啦~

然後extrude多了一個控制功能, 長出去之後viewport上會出現三個拉棒, 可以直覺調整長出去的長度, offset, 跟所需的切割面.
這個功能還OK啦, 有也好沒有也沒差的感覺.

Animation方面的話最大的改變就是加入了從MAX偷過來的 Animation curve. 換句話說就是可以在viewport上直接視覺化調整動態的時機跟曲線. Graphic editor會即時調整. 這個功能要拍拍手, 以後調動態不用在graphic editor瞎子摸象了.

Dynamic and nDynamic:  說是有改善流體的運算方式可以做出更為真實的水, 恩…這個還沒試所以我不敢妄下斷論. 不過根據經驗在怎麼丘也比不過真實水流的 Orz

ICE 互通: 看到ICE三個字瞬間心跳了兩下還以為佛心來了把ICE搬進了MAYA. 結果當然不是, 只是變成可以把MAYA的場景丟到softimage, 加上ICE特效, 然後在整個丟回MAYA. (當然, 不然你叫爹不疼娘不愛的softimage還要不要玩下去啊)
個人是還蠻期待maya可以提供類似houdini的節點式特效啦, 有生之年看的到的話….

RENDERING: 主要好像是在Hypershade跟viewport2.0兩方面, 說是可以在hypershade裡直接建立render pass. 然後新的hardware2.0可以直接在viewport2.0中算圖的樣子….恩….自從maya有叫XX2.0的功能出現後完全都沒有使用過所以不是很明白還需要再研究研究…(OS hypershade年年有肥大化的傾向, 是還想塞多少東西進去??)

MOCAP SAMPLE:

我是覺得還蠻讚的啦, 雖然不知道是要拿來幹嘛, visor裡多了一個mocap sample. 裡面內建了幾個基本的mocap data.  我想是跟下一個功能有關係的吧.  不過撇開這不談, 把data叫出來後將key砍掉就是一個maya man粗模了, 這到還不賴. 有時候會用到.

HUMAN IK:

雖然不常用到但是這大概是2012我覺得最猛的功能了.  Maya2012內建了一套叫HUMAN IK的控制系統.

強在哪呢? 這個系統 可以讓你按五下就架好一個人的基本骨架然後套上全身控制器. 由圖片可以看到右邊有個控制器, 相信有玩過motion builder的人都知道這是什麼了. 這可以直接點選IK然後去調動態, 骨架也是全身連動的, 換句話說就是幫你節省掉一大堆架骨架的時間.我認為這實在是很有誠意的功能, 比起肌肉系統感覺有機會使用到. 詳細功能還不清楚, 但是我連說明都沒看就可以架好可見有多無腦.

對了, 當然架好的東西是可以跟motion builder做資料互通的, 可以開始看到自動桌對於旗下各軟體的整合藍圖了…

 

PHYSX: NVIDIA旗下的GPU加速方案!! 終於整合進MAYA了~

DMM : MAYA裡面方便又大碗的破碎外掛也被買進來了!!!  是說可以跟PHYSX並用嗎??  這方面還要來研究研究, 但是MAYA這次的改版還蠻多料的耶!

待續….

The demonstration of NUKE 3D projection and compositing

過年期間做的小練習兼VRAY測試

以前常看到一些很漂亮的作品都是VRAY的傑作, 那時候很怨嘆為什麼只有MAX可以使用這麼做弊的東西

現在MAYA上也有了自然是要來嘗試看看

經過這一陣子的研究與實際操作,  個人認為MAYA上的VRAY整合的十分成功.  不論是渲染品質, 速度都

有達到足夠的水準.  更重要的是它需要調校的選項並沒有很多也很直覺.

所以也許再一兩個實際運用後以後就從MR轉移到VRAY也不一定.

這個練習作品還重新複習了一下NUKE的3D投影功能

http://vimeo.com/19797121