簡要描述:ErgoLAB Emotion面部表情分析模塊,是一款專業(yè)的面部表情分析與狀態(tài)識別工具。系統(tǒng)結(jié)合機器學(xué)習(xí)算法與圖像識別技術(shù),利用面部肌肉特征點計算和分類表情狀態(tài),自動編碼多種基本表情、精確計算情感效價,系統(tǒng)可實時檢測被試的頭部位置、面部特征點、視線朝向、基本生物信息等,結(jié)合AI狀態(tài)識別進一步實現(xiàn)對操作人員的分心、疲勞、應(yīng)激等狀態(tài)的自動識別以及特定環(huán)境條件下的預(yù)警反饋。
產(chǎn)品中心
詳細介紹
品牌 | 其他品牌 | 產(chǎn)地 | 國產(chǎn) |
---|
產(chǎn)品概述:
Emotion表情測量與分析模塊,結(jié)合機器學(xué)習(xí)算法與圖像識別技術(shù),利用面部肌肉特征點計算和分類表情狀態(tài),自動編碼多種基本表情、精確計算情感效價,系統(tǒng)可實時檢測被試的頭部位置、面部特征點、視線朝向、基本生物信息等,結(jié)合AI狀態(tài)識別進一步實現(xiàn)對操作人員的分心、疲勞、應(yīng)激等狀態(tài)的自動識別以及特定環(huán)境條件下的預(yù)警反饋。
產(chǎn)品特點:
l 自動識別7種面部表情狀態(tài)以及21種微表情數(shù)據(jù)
l 自動監(jiān)測操作人員的頭部位置坐標
l 自動檢測操作人員的整個面部特征點
l 支持導(dǎo)入外部視頻,作為表情數(shù)據(jù)源,進行離線的表情識別、編碼與統(tǒng)計
l 表情統(tǒng)計算法支持基礎(chǔ)表情數(shù)據(jù)統(tǒng)計分析、實時表情編碼可視化分析、事后表情編碼可視化分析、多維度表情數(shù)據(jù)交互分析
l 結(jié)合人工智能與機器學(xué)習(xí)算法,進一步實現(xiàn)對操作人員的分心、疲勞、應(yīng)激等狀態(tài)的自動識別以及特定環(huán)境條件下的預(yù)警反饋
產(chǎn)品參數(shù):
l 采集并編碼七種面部表情數(shù)據(jù)以及21種微表情數(shù)據(jù)?;颈砬閿?shù)據(jù)包括高興、悲傷、厭惡、恐懼、驚訝、生氣、蔑視;微表情數(shù)據(jù)包括抬起眉毛內(nèi)角、抬起眉毛外角、皺眉(降低眉毛)、上眼瞼上升、臉頰提升、眼輪匝肌外圈收緊、眼輪匝肌內(nèi)圈收緊、皺鼻、拉動上嘴唇向上運動、拉動人中部位的皮膚向上、拉動嘴角傾斜向上、急劇的嘴唇拉動、收緊嘴角、拉動嘴角向下傾斜、拉動下唇向下、推動下唇向上、撅嘴、嘴角拉伸、收緊雙唇向外翻、眼睛擴大、張嘴。
l 采集操作人員的整個面部特征點,以0至100%區(qū)間計算表情程度值,通過系統(tǒng)內(nèi)嵌的情感效價計算模型,精確識別積極、中性、消極情感,客觀評價個體情緒狀態(tài),與多模態(tài)數(shù)據(jù)形成客觀有效的印證關(guān)系。
l 實時跟蹤操作人員的頭部朝向,采集頭部位置三軸數(shù)據(jù),包括翻滾角(Roll)、偏航角(Yaw)、俯仰角(Pitch)。采集個體的瞳孔距離,測定注視方向,進行注意狀態(tài)監(jiān)測。
整體概述
ErgoLAB人機環(huán)境同步平臺采用多模態(tài)數(shù)據(jù)時鐘同步技術(shù),平臺可完成完整的實驗和測評流程,包括項目管理-試驗設(shè)計-同步采集-信號處理-數(shù)據(jù)分析-人因智能評估-可視化報告,支持基于云架構(gòu)技術(shù)的團體測試和大數(shù)據(jù)管理。
ErgoLAB人機環(huán)境同步平臺采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗證的方法,數(shù)據(jù)實時同步種類包含大腦認知數(shù)據(jù)(EEG/BCI腦電儀與腦機接口邊緣計算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含人機界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端人機交互行為數(shù)據(jù)以及對應(yīng)的手指軌跡操作行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實時同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標。
將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度,使得實驗環(huán)境不會受限于某一種設(shè)備或數(shù)據(jù)指標,采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機-環(huán)境系統(tǒng)交互過程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實人員狀態(tài)的數(shù)據(jù)。平臺還提供覆蓋科研實驗全流程的功能模塊,包括項目管理、實驗設(shè)計、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計和可視化報告,結(jié)合ErgoAI人因智能邊緣計算平臺為多模態(tài)人機環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機環(huán)境同步平臺和ErgoAI人因智能邊緣計算平臺為核心的多模態(tài)同步人因智能解決方案大大提高了實驗結(jié)果的信效度,同時節(jié)省了研究的人力、物力、時間,提高了研究與測評的整體效率。
基于ErgoAI人因智能多元時序算法底座與人因工程人機環(huán)境數(shù)據(jù)庫,構(gòu)建人員特定狀態(tài)的預(yù)訓(xùn)練模型,配合高靈活度的訓(xùn)練方案管理功能,用戶能夠在統(tǒng)一環(huán)境中高效構(gòu)建和優(yōu)化模型。 從而實現(xiàn)對人員狀態(tài)的精準實時評估與預(yù)警,如負荷狀態(tài)、應(yīng)激狀態(tài)、疲勞狀態(tài)、情景意識和注意能力等。
北京津發(fā)科技股份有限公司是專精特新重點小巨人,知識產(chǎn)權(quán)優(yōu)勢企業(yè)、高新技術(shù)企業(yè)、科技型中小企業(yè);旗下包含北京人因智能工程技術(shù)研究院和北京人因工程設(shè)計院等科技研發(fā)機構(gòu),并聯(lián)合共建了北京市企業(yè)技術(shù)中心、北京本科高校產(chǎn)學(xué)研深度協(xié)同育人平臺、蘇州市重點實驗室、湖南省工程實驗室、山東省工程研究中心等多個科技創(chuàng)新平臺。
津發(fā)科技承擔(dān)和參與了多項國家重點研發(fā)計劃、工信部高質(zhì)量發(fā)展專項、國家自然科學(xué)基金等課題基金。擔(dān)任全國信標委XR擴展現(xiàn)實標準化組副組長單位,工信部元宇宙標準化工作組關(guān)鍵技術(shù)組聯(lián)合組長單位;津發(fā)科技創(chuàng)新研發(fā)了國產(chǎn)化自主可控的人因工程與人因智能邊緣計算系列信創(chuàng)產(chǎn)品與技術(shù),榮獲多項省部級科學(xué)技術(shù)獎勵;津發(fā)科技主持和參編國際/國家、行業(yè)/團體標準20余項、榮獲30余項省部級新技術(shù)新產(chǎn)品認證,全球申請磚利超過500項、100余項國際和國家注冊商標、130余項國家軟件著作權(quán);已服務(wù)全國高等院校和裝備科技工業(yè)科研院所應(yīng)用示范,并已支撐國內(nèi)科研學(xué)者和科技工作者發(fā)表中英文學(xué)術(shù)論文超過1000篇。
郵件聯(lián)系我們:sales@kingfar.cn
電話
微信掃一掃