本文轉(zhuǎn)自雷鋒網(wǎng),如需轉(zhuǎn)載請至雷鋒網(wǎng)官網(wǎng)申請授權。
我們都知道可穿戴心率監(jiān)測器,但掃一掃臉部就能判斷心跳的系統(tǒng),你們見過嗎?
據(jù)VentureBeat報道,近日,中國科學院的研究人員設計出了這么一個系統(tǒng),并且論文發(fā)表在了Arxiv.org的預印本中。
在這篇文章中,他們描述了RhythmNet,這是一種端到端的可訓練心率評估器,利用AI和光電容積脈搏波描記法(PPG)(一種檢測皮膚組織中血容量變化的光學技術)來應對頭部運動和光線變化方面的挑戰(zhàn)。
正如研究人員所解釋的那樣,基于PPG的心率估算是可以實現(xiàn)的。因為皮膚對光的吸收量會隨著血容量脈沖(BVP)的變化而周期性地變化。在真皮層和皮下層的微血管中,像血紅蛋白這樣的染色體吸收了不成比例的光。這樣,當血液泵入下方的靜脈和動脈時,就會發(fā)生微小的顏色變化。它們是肉眼看不到的,但很容易被嵌入可穿戴設備的RGB傳感器捕捉到。
雷鋒網(wǎng)了解到,為了訓練RhythmNet,該團隊創(chuàng)建了一個大規(guī)模的多模態(tài)語料庫——VIPL-HR1。該語料庫以開源方式提供,包含了2378個可見光視頻和752個近紅外視頻,涉及107名受試者。每個視頻片段都是由網(wǎng)絡攝像頭和紅外傳感器以及智能手機捕捉到的,包含了頭部運動、頭部姿態(tài)(帶有注釋的偏航、俯仰和滾轉(zhuǎn)角)、照明和設備使用情況的變化。
RhythmNet由幾個組件組成,包括一個面部探測器,該探測器根據(jù)一個人的面部視頻定位81個以上的面部標記。
此外,還有一個單獨的組件進行對齊和皮膚分割,以去除眼睛區(qū)域和其他非面部區(qū)域,然后從相隔0.5秒的視頻幀生成時空圖,以表示心率信號。這些圖被輸入到機器學習模型中,該模型經(jīng)過訓練可以從時空圖預測心率,然后計算每分鐘的估計心跳次數(shù),最后得出一個平均值。
研究人員在MAHNOB-HCI和MMSE-HR兩個廣泛使用的數(shù)據(jù)庫以及他們自己的數(shù)據(jù)庫上對系統(tǒng)進行了評估。
他們表示,針對VIPL-HR1測試的大多數(shù)樣本(71%)中,RhythmNet的心率估計誤差低于每分鐘5次,并且在每分鐘47次到147次之間與基本事實有很好的相關性。
研究人員還補充說,MAHNOB-HCI和MMSE-HR的錯誤率不超過每分鐘8.28次。
據(jù)雷鋒網(wǎng)了解,團隊還計劃研究這種方法在其他生理狀態(tài)測量任務中的有效性,比如通過視頻測量呼吸頻率和血壓,以及利分布式學習和多任務學習技術,開發(fā)一個更強大的心率估計模型。
“心率是一個重要的生理信號,反映了一個人的身體和情緒狀態(tài)。傳統(tǒng)的心率測量通常依靠接觸式監(jiān)護儀,這可能會帶來不便和不適。”該論文的共同作者寫道,“ (我們提出的系統(tǒng)) 僅從表面上看,在數(shù)據(jù)庫內(nèi)和跨數(shù)據(jù)庫測試場景中,都實現(xiàn)了很不錯的心率估計準確性。”