《電子技術應用》
您所在的位置:首頁 > EDA與制造 > 業(yè)界動態(tài) > 人類的動作已經被AI看穿,?東京工業(yè)大學開發(fā)出預測畫面中人物未來動向的系統(tǒng)

人類的動作已經被AI看穿,?東京工業(yè)大學開發(fā)出預測畫面中人物未來動向的系統(tǒng)

2019-04-25
關鍵詞: FuturePose 機器學習 3D AI

  東京工業(yè)大學的研究團隊稍早發(fā)表了一套僅用一般 RGB 影片,就能預測畫面中人物未來動向的「FuturePose」系統(tǒng),。過去有過類似的預測系統(tǒng)相關的研究,,但使用的是本身就自帶深度信息的 Kinect,,而東工大這邊則是完全靠著畫面本身畫素的流向,先透過機器學習AI 來定位關節(jié),,再由定位出來的關節(jié)和擺動方向,,去推斷 3D 環(huán)境中的位置,整個過程簡直神奇,。

  靠著 AI 的推斷,,這套 FuturePose 系統(tǒng)可以大約猜出人類 0.5 秒后的位置,頗有一點小說或漫畫里那種「你的行動已經被我看穿啦」的風范,。研究團隊也還真的實際給人戴上 Vive 頭套,,顯示面前的另一個測試者予測動作。相較于沒有予測系統(tǒng)的 0.62 秒平均反應時間,,戴上這套系統(tǒng)的人將平均降到了 0.41 秒,。這是個很明顯的差距,但也沒有真的到可以變武林高手的程度就是啰 ,。

  以真實世界的應用來說,,東京大認為這可以做為格斗練習的輔助系統(tǒng),,或是可以讓觀眾提前一步看到足球 PK 時守門員將往哪個方向躲。然而,,只是為了這點小小的樂趣,,就讓 AI 學會如何預判人類的行動,好像有點劃不來啊...

5cc1375cde528-thumb.jpg

本站內容除特別聲明的原創(chuàng)文章之外,,轉載內容只為傳遞更多信息,,并不代表本網站贊同其觀點。轉載的所有的文章,、圖片,、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者,。如涉及作品內容,、版權和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。