2011年10月27日 星期四

Semantic Feature Extraction and Retrieval for Human Motion Capture Data-人類運動捕捉資料之語意特徵萃取與檢索方法

日期:9/30

時間:14:00-15:30

地點:S516

講題:Semantic Feature Extraction and Retrieval for Human Motion Capture Data

演講者:義守大學資訊工程系-杜維昌教

姓名:吳姿瑩

學號:00366173


這次的演講主題,我覺得滿有趣的。

運動捕捉現已廣泛運用在電腦動畫、影像遊戲和電影上;

杜教授一開始以較貼近我們的運動捕捉例子舉例,例如:電影阿凡達。

此技術需要人穿著一件光學捕捉衣,利用人在做每個動作時的光點移動製成動畫。

藉由mocap測試的四種類型:running, walking, boxing and jumping,顯示相似性的matrix後進行分割

而如何將運動捕捉分割呢?

杜教授提到

Splitting method: 由上而下的方法

Merging method: 由下而上的方法

Hybrid method: 合併和分割的方法

和semantic segmentation

最後檢索運動捕捉,結論認為在相似的動作上是有效的


我上網查了一些相關資料,發現國外的技術現在已達到能不用穿光學捕捉衣,就能進行動態捕捉;

最新動態捕捉技術,模特兒不用像以往需穿上彈性緊身衣,並在身上裝上感應器,系統即可自動追蹤其身體所有細微

活動,透過 3D 掃描完整的捕捉下來

資料來源: http://chinese.engadget.com/2007/03/17/motion-capture-gets-slightly-less-embarrassing/

沒有留言:

張貼留言