https://technews.tw/2018/04/27/decade/
本文:
寵物的想法應該是所有飼主所關注的焦點,近期華盛頓大學正在使用 GoPro 鏡頭訓練 AI 神經網路,希望未來能找出狗的行為模式,並使機器狗也能像狗一樣行動。
團隊將這個項目稱為「DECADE」,意思是以狗環境的自我為中心的行動數據資料,將 GoPro 相機綁在阿拉斯加雪橇犬的頭上,團隊錄製了 380 段從狗視角出發的影片用以訓練演算法。
▲(Source:University of Washington)
這些影片分別在 50 多個地點錄製,其中包含狗狗常見的活動地區:客廳、樓梯、街道和狗公園,而在錄製的同時,狗也一如以往的進行各項活動:走路、跟隨、抓取、跟蹤移動的物體,或是與其他狗互動。
除了拍攝影片,研究人員也透過將 Arduino 錄製的音頻與 GoPro 影片音檔對比,運用 Raspberry Pi 微型電腦將片段與狗身體位置的數據精確同步,進而記錄下各個時間點狗的身體、腿部及尾巴位置。
簡單來說,研究人員就是在詢問演算法「接下來會發生什麼?」當一系列片段展示時,演算法必須對接下來可能的行為進行建模,像是看到球被扔出去,狗可能會去追,又或是聽到食物會搖尾巴等。
團隊甚至嘗試只提供活動開頭及結尾的片段,並不給出發生在兩者間的訊息,讓模型去猜測狗狗在這之間究竟做了什麼活動──雖然聽來簡單,但這是必須由神經網路才能解決的問題,因為狗狗的每個動作都與環境變化相關。
▲ 實驗中只憑團隊提供的 5 幀影像,演算法確實模擬出了狗的實際反應。(Source:University of Washington)
儘管並沒有被賦予任何指示或與預期結果的相關資訊,但實驗模型確實展現出對狗未來動向的預測,甚至是規劃出與狗行為模式類似的行動。團隊相信未來透過收集多隻狗的影片資料,再加入觸覺、聲音及嗅覺數據的整合,將可以改善模型,並將數據運用在更多樣的發展中。
這些資訊未來將可以用來增進機器狗的發展,同時也能投入其他任務的應用,像是透過環境辨識安全路線。研究草案已在 arxiv.org 公布,團隊預計將在 6 月的電腦視覺大會 CVPR 2018 公布相關內容。
(首圖來源:pixabay)
心得:
AI一直都是以人為主來做樣本以及採樣,當把這樣的技術放在其他物體上面,或許又可以結合出更新盈的應用!
沒有留言:
張貼留言