產(chǎn)品中心
相關(guān)文章
Xsens動作捕捉系統(tǒng)采用最新的慣性傳感技術(shù),解決過去慣性動捕在雙腳同時離地、跳躍、爬樓等動作會產(chǎn)生漂移的問題。啟動速度快、抗磁干擾能力強,且不受環(huán)境光線與空間距離的限制,純凈的動作捕捉數(shù)據(jù)不需要進行后處理即可錄制完成,非常適用于各種研究、人體工程學、康復領(lǐng)域、體育運動及實時表演應用。
ErgoHMI Web桌面端人機交互測試系統(tǒng),遵照標準化可用性測試流程,提供便捷的實驗設(shè)計功能,具備網(wǎng)頁/原型興趣區(qū)自動識別與自定義編輯、測試過程高保真記錄、多模態(tài)數(shù)據(jù)同步采集、可視化分析報告等功能,支持在測試過程中實時采集與監(jiān)控被試的各項數(shù)據(jù)指標,為評價產(chǎn)品的有效性、滿意度和可用性提供定量化的數(shù)據(jù)依據(jù),為產(chǎn)品開發(fā)人員提供了從實驗設(shè)計到結(jié)果報告的可用性測試環(huán)節(jié)。
ErgoLAB Behavior行為觀察分析模塊,采用標準攝像頭錄制行為視頻,實時獲取被研究對象的動作,姿勢,運動,位置,表情,情緒,社會交往,人機交互等各種活動,記錄并分析其狀態(tài)與表現(xiàn)形式,形成行為-時間-頻次數(shù)據(jù)庫,記錄與編碼分析個體在活動中的行為頻次或習慣性動作的特點等。通過交互行為觀察,探索心理、生理的外在表現(xiàn),進一步了解人們行為與心理反應的相互關(guān)系。
ErgoLAB Emotion面部表情分析模塊,是一款專業(yè)的面部表情分析與狀態(tài)識別工具。系統(tǒng)結(jié)合機器學習算法與圖像識別技術(shù),利用面部肌肉特征點計算和分類表情狀態(tài),自動編碼多種基本表情、精確計算情感效價,系統(tǒng)可實時檢測被試的頭部位置、面部特征點、視線朝向、基本生物信息等,結(jié)合AI狀態(tài)識別進一步實現(xiàn)對操作人員的分心、疲勞、應激等狀態(tài)的自動識別以及特定環(huán)境條件下的預警反饋。
動作捕捉系統(tǒng)用于準確測量運動物體在三維空間中的運動狀態(tài)與空間位置。ErgoLAB Motion是的全新可穿戴運動捕捉與人機工效/生物力學分析系統(tǒng),配備可穿戴人因記錄儀,便于攜帶,非常適用于各種虛擬現(xiàn)實應用與實時的現(xiàn)場人因工效科學研究,如安全生產(chǎn)、人機交互、運動分析,動作姿勢傷害評估等。
空間定位系統(tǒng)支持多類型的時空數(shù)據(jù)采集,包括室內(nèi)空間位置追蹤、虛擬現(xiàn)實場景空間位置追蹤以及真實現(xiàn)場環(huán)境的空間位置追蹤?;贓rgoLAB多維度數(shù)據(jù)時空同步算法模型,可同步采集超過40種時間和空間位置行為等數(shù)據(jù),研究人員可以在任何環(huán)境下進行時空行為研究,完成多維度客觀數(shù)據(jù)的實時同步采集與可視化時空分析。綜合計算機圖形圖像學、視覺設(shè)計、數(shù)據(jù)挖掘等技術(shù),支持進行信息可視化、科學可視化與可視分析不同的層次研
郵件聯(lián)系我們:sales@kingfar.cn
電話
微信掃一掃