簡(jiǎn)要描述:ErgoLAB人機(jī)環(huán)同步平臺(tái)是基于“以人為中心"的人因工程與工效學(xué)理論,面向人-機(jī)-環(huán)系統(tǒng)全要素智能評(píng)估需求,采用磚利時(shí)鐘同步技術(shù)與智能評(píng)估技術(shù),用于科學(xué)、高效開(kāi)展人機(jī)工效評(píng)估、人員狀態(tài)監(jiān)測(cè)預(yù)警、產(chǎn)品用戶體驗(yàn)、人因設(shè)計(jì)與可用性評(píng)估的科研與應(yīng)用一體化平臺(tái)。
詳細(xì)介紹
品牌 | 其他品牌 |
---|
ErgoLAB人機(jī)環(huán)同步平臺(tái)是基于“以人為中心"的人因工程與工效學(xué)理論,面向人-機(jī)-環(huán)系統(tǒng)全要素智能評(píng)估需求,采用磚利時(shí)鐘同步技術(shù)與智能評(píng)估技術(shù),用于科學(xué)、高效開(kāi)展人機(jī)工效評(píng)估、人員狀態(tài)監(jiān)測(cè)預(yù)警、產(chǎn)品用戶體驗(yàn)、人因設(shè)計(jì)與可用性評(píng)估的科研與應(yīng)用一體化平臺(tái)。
l 平臺(tái)基礎(chǔ)管理功能
l 實(shí)驗(yàn)環(huán)境
l 實(shí)驗(yàn)設(shè)計(jì)
l ErgoLAB實(shí)時(shí)鐘同步磚利技術(shù)
l 多模態(tài)數(shù)據(jù)源采集回放
l 數(shù)據(jù)處理、分析模塊
l 人因智能
l 人因工程數(shù)據(jù)庫(kù)
l 拓展ErgoAI人因智能
l 平臺(tái)應(yīng)用
多模態(tài)數(shù)據(jù)同步 | 自主研發(fā)時(shí)鐘同步磚利技術(shù),實(shí)時(shí)同步采集人-機(jī)器-環(huán)境多模態(tài)數(shù)據(jù)源,同步精度達(dá)毫秒級(jí); 支持嵌入式SDK/Rest API/TTL等接口進(jìn)行第三方數(shù)據(jù)實(shí)時(shí)同步; 支持外部數(shù)據(jù)離線導(dǎo)入進(jìn)行事后同步,以滿足基于同一事件或片段下對(duì)多模態(tài)數(shù)據(jù)的交叉統(tǒng)計(jì); 提供基于同一時(shí)間點(diǎn)或時(shí)間段的生理、腦電、眼動(dòng)、行為等多模態(tài)數(shù)據(jù)的交叉分析。 |
AI人因智能評(píng)估 | 基于人機(jī)環(huán)數(shù)據(jù)構(gòu)建ErgoAI Transformer人因工程創(chuàng)新多元時(shí)序數(shù)據(jù)融合算法; 內(nèi)嵌疲勞等級(jí)識(shí)別模型、負(fù)荷等級(jí)識(shí)別模型、情景意識(shí)模型、注意力檢測(cè)模型等; 系統(tǒng)自動(dòng)對(duì)信號(hào)進(jìn)行實(shí)時(shí)處理與特征工程提取,并對(duì)人員狀態(tài)進(jìn)行自動(dòng)預(yù)測(cè)與預(yù)警; 該模塊包括數(shù)據(jù)集構(gòu)建、模型訓(xùn)練、模型驗(yàn)證、模型部署與實(shí)時(shí)應(yīng)用全流程功能。 |
實(shí)驗(yàn)設(shè)計(jì) | 實(shí)驗(yàn)設(shè)計(jì)系統(tǒng)打造了一個(gè)多元化的刺激呈現(xiàn)平臺(tái),旨在誘發(fā)特定的情緒及心里狀態(tài)。系統(tǒng)內(nèi)嵌了廣泛的刺激類型,從問(wèn)卷量表、認(rèn)知實(shí)驗(yàn)范式到多媒體素材、網(wǎng)頁(yè)原型,以及沉浸式的VR場(chǎng)景。此外,我們還提供了聲光電等多種刺激方式,以適應(yīng)不同研究需求。 |
客觀評(píng)估 | 一款幾乎集成了所有生物傳感器技術(shù)、覆蓋機(jī)器全生命周期、采集多元環(huán)境數(shù)據(jù)的客觀評(píng)估生態(tài)系統(tǒng),結(jié)合強(qiáng)大的生物傳感器及多通道數(shù)據(jù)同步磚利技術(shù),助力您高效獲取科研數(shù)據(jù),并進(jìn)行數(shù)據(jù)分析 |
主觀評(píng)估 | 主觀測(cè)評(píng)工具包括量表、問(wèn)卷、實(shí)驗(yàn)范式、生物反饋訓(xùn)練等,測(cè)評(píng)維度覆蓋多維基礎(chǔ)認(rèn)知域,如感知覺(jué)、注意力、記憶力、思維決策能力等,也涵蓋用戶體驗(yàn)、情緒情感、心理健康等主觀評(píng)估維度。您還可以按需組合上述測(cè)評(píng)工具,生成您的個(gè)性化完整測(cè)評(píng)方案 |
l 學(xué)術(shù)研究:人因工程工效學(xué)與人機(jī)交互、人工智能與智能決策、心理與認(rèn)知神經(jīng)科學(xué)、人員測(cè)試訓(xùn)練與健康康復(fù)
l 智慧交通:智能座艙、自動(dòng)駕駛、混合交通、駕駛行為監(jiān)測(cè)、HMI/HUD測(cè)評(píng)
l 用戶體驗(yàn)研究:用戶體驗(yàn)測(cè)評(píng)、可用性測(cè)試、人機(jī)交換設(shè)計(jì)研究、認(rèn)知工效研究、用戶行為研究
l 醫(yī)療研究:醫(yī)療器械可用性評(píng)估、腦認(rèn)知與神經(jīng)科學(xué)研究、基于XR的認(rèn)知功能評(píng)測(cè)與康復(fù)訓(xùn)練、醫(yī)療器械人機(jī)交互界面測(cè)評(píng)
l 培訓(xùn)技能評(píng)估:人員能力測(cè)評(píng)、定制化訓(xùn)練提升、科學(xué)性人員選拔、動(dòng)態(tài)常模數(shù)據(jù)庫(kù)
l 軍工國(guó)防:兵器裝備可用性測(cè)評(píng)、船舶工業(yè)、士兵選拔、航空航天
l 消費(fèi)行為研究:消費(fèi)行為研究、消費(fèi)經(jīng)濟(jì)學(xué)、行為與決策管理、營(yíng)銷策略
l 環(huán)境與安全:建筑與環(huán)境設(shè)計(jì)評(píng)價(jià)、環(huán)境安全工程、環(huán)境心理與行為學(xué)
整體概述
ErgoLAB人機(jī)環(huán)境同步平臺(tái)采用多模態(tài)數(shù)據(jù)時(shí)鐘同步技術(shù),平臺(tái)可完成完整的實(shí)驗(yàn)和測(cè)評(píng)流程,包括項(xiàng)目管理-試驗(yàn)設(shè)計(jì)-同步采集-信號(hào)處理-數(shù)據(jù)分析-人因智能評(píng)估-可視化報(bào)告,支持基于云架構(gòu)技術(shù)的團(tuán)體測(cè)試和大數(shù)據(jù)管理。
ErgoLAB人機(jī)環(huán)境同步平臺(tái)采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗(yàn)證的方法,數(shù)據(jù)實(shí)時(shí)同步種類包含大腦認(rèn)知數(shù)據(jù)(EEG/BCI腦電儀與腦機(jī)接口邊緣計(jì)算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺(jué)數(shù)據(jù)(Eyetracker眼動(dòng)儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動(dòng)作與面部表情(基本情緒、情緒效價(jià)、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機(jī)交互數(shù)據(jù)(包含人機(jī)界面交互行為數(shù)據(jù)以及對(duì)應(yīng)的鍵盤操作,鼠標(biāo)點(diǎn)擊、懸浮、劃入劃出等;移動(dòng)終端人機(jī)交互行為數(shù)據(jù)以及對(duì)應(yīng)的手指軌跡操作行為如點(diǎn)擊、縮放、滑動(dòng)等;VR終端界面人機(jī)交互行為數(shù)據(jù)及對(duì)應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時(shí)空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時(shí)空的行走軌跡、行車軌跡、訪問(wèn)狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實(shí)時(shí)同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。
將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度,使得實(shí)驗(yàn)環(huán)境不會(huì)受限于某一種設(shè)備或數(shù)據(jù)指標(biāo),采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機(jī)-環(huán)境系統(tǒng)交互過(guò)程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實(shí)人員狀態(tài)的數(shù)據(jù)。平臺(tái)還提供覆蓋科研實(shí)驗(yàn)全流程的功能模塊,包括項(xiàng)目管理、實(shí)驗(yàn)設(shè)計(jì)、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計(jì)和可視化報(bào)告,結(jié)合ErgoAI人因智能邊緣計(jì)算平臺(tái)為多模態(tài)人機(jī)環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機(jī)環(huán)境同步平臺(tái)和ErgoAI人因智能邊緣計(jì)算平臺(tái)為核心的多模態(tài)同步人因智能解決方案大大提高了實(shí)驗(yàn)結(jié)果的信效度,同時(shí)節(jié)省了研究的人力、物力、時(shí)間,提高了研究與測(cè)評(píng)的整體效率。
基于ErgoAI人因智能多元時(shí)序算法底座與人因工程人機(jī)環(huán)境數(shù)據(jù)庫(kù),構(gòu)建人員特定狀態(tài)的預(yù)訓(xùn)練模型,配合高靈活度的訓(xùn)練方案管理功能,用戶能夠在統(tǒng)一環(huán)境中高效構(gòu)建和優(yōu)化模型。 從而實(shí)現(xiàn)對(duì)人員狀態(tài)的精準(zhǔn)實(shí)時(shí)評(píng)估與預(yù)警,如負(fù)荷狀態(tài)、應(yīng)激狀態(tài)、疲勞狀態(tài)、情景意識(shí)和注意能力等。
北京津發(fā)科技股份有限公司是專精特新重點(diǎn)小巨人,知識(shí)產(chǎn)權(quán)優(yōu)勢(shì)企業(yè)、高新技術(shù)企業(yè)、科技型中小企業(yè);旗下包含北京人因智能工程技術(shù)研究院和北京人因工程設(shè)計(jì)院等科技研發(fā)機(jī)構(gòu),并聯(lián)合共建了北京市企業(yè)技術(shù)中心、北京本科高校產(chǎn)學(xué)研深度協(xié)同育人平臺(tái)、蘇州市重點(diǎn)實(shí)驗(yàn)室、湖南省工程實(shí)驗(yàn)室、山東省工程研究中心等多個(gè)科技創(chuàng)新平臺(tái)。
津發(fā)科技承擔(dān)和參與了多項(xiàng)國(guó)家重點(diǎn)研發(fā)計(jì)劃、工信部高質(zhì)量發(fā)展專項(xiàng)、國(guó)家自然科學(xué)基金等課題基金。擔(dān)任全國(guó)信標(biāo)委XR擴(kuò)展現(xiàn)實(shí)標(biāo)準(zhǔn)化組副組長(zhǎng)單位,工信部元宇宙標(biāo)準(zhǔn)化工作組關(guān)鍵技術(shù)組聯(lián)合組長(zhǎng)單位;津發(fā)科技創(chuàng)新研發(fā)了國(guó)產(chǎn)化自主可控的人因工程與人因智能邊緣計(jì)算系列信創(chuàng)產(chǎn)品與技術(shù),榮獲多項(xiàng)省部級(jí)科學(xué)技術(shù)獎(jiǎng)勵(lì);津發(fā)科技主持和參編國(guó)際/國(guó)家、行業(yè)/團(tuán)體標(biāo)準(zhǔn)20余項(xiàng)、榮獲30余項(xiàng)省部級(jí)新技術(shù)新產(chǎn)品認(rèn)證,全球申請(qǐng)磚利超過(guò)500項(xiàng)、100余項(xiàng)國(guó)際和國(guó)家注冊(cè)商標(biāo)、130余項(xiàng)國(guó)家軟件著作權(quán);已服務(wù)全國(guó)高等院校和裝備科技工業(yè)科研院所應(yīng)用示范,并已支撐國(guó)內(nèi)科研學(xué)者和科技工作者發(fā)表中英文學(xué)術(shù)論文超過(guò)1000篇。
郵件聯(lián)系我們:sales@kingfar.cn
電話
微信掃一掃