| 規(guī) 格:ErgoAI人因智能: 將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度 |
型 號(hào):ErgoAI |
數(shù) 量:1 |
| 品 牌:Kingfar公司介紹: 北京津發(fā)科技股份有限公司是國(guó)家級(jí)專精特新重點(diǎn)小巨人 |
包 裝:Kingfar公司介紹: 北京津發(fā)科技股份有限公司是國(guó)家級(jí)專精特新重點(diǎn)小巨人,國(guó) |
價(jià) 格:面議 |
系統(tǒng)組成:(1)ErgoLAB行為識(shí)別設(shè)備集成視覺(jué)傳感器、毫米波雷達(dá)與可穿戴慣性測(cè)量單元(IMU),支持復(fù)雜環(huán)境下人體姿態(tài)、運(yùn)動(dòng)軌跡與多對(duì)象交互的高精度、非侵入式同步采集。 設(shè)備品類(lèi):設(shè)備名稱 | 設(shè)備介紹 | 便攜式行為觀察設(shè)備 | ErgoLAB便攜式行為觀察系統(tǒng)是實(shí)時(shí)行為編碼和標(biāo)準(zhǔn)行為分析工具。系統(tǒng)通過(guò)行為編碼體系,采用定量觀察記錄的方式來(lái)實(shí)現(xiàn)結(jié)構(gòu)化和系統(tǒng)化的行為觀察,對(duì)觀察內(nèi)容進(jìn)行分類(lèi)和量化編碼。移動(dòng)終端版本結(jié)合便攜性手持設(shè)備,可以在作業(yè)現(xiàn)場(chǎng)進(jìn)行實(shí)時(shí)行為編碼記錄、分析與統(tǒng)計(jì)。 | 行為觀察實(shí)驗(yàn)室系統(tǒng) | 行為觀察實(shí)驗(yàn)室一般包括測(cè)試室和分析室,之間用單向行為觀察透視玻璃隔開(kāi),使研究人員可以透過(guò)單向玻璃隨時(shí)觀察操作人員的行為狀態(tài),而操作人員則看不到主控室以及外界干擾信息,從而降低對(duì)實(shí)驗(yàn)的影響。測(cè)試室內(nèi)可設(shè)置多個(gè)高清攝像頭,分析室設(shè)置控制臺(tái)與屏幕墻,可實(shí)時(shí)傳達(dá)任務(wù)指令,采集和分析行為、心理、眼動(dòng)等多模態(tài)數(shù)據(jù)。 | 行為邊緣計(jì)算終端 | 搭載邊緣計(jì)算終端和智能算法模型,可進(jìn)行實(shí)時(shí)動(dòng)作識(shí)別、人體姿態(tài)識(shí)別、面部表情和手勢(shì)識(shí)別等行為實(shí)時(shí)編碼,同時(shí)可以結(jié)合多模態(tài)行為交互智能模型,控制智能家居設(shè)備、智能客服系統(tǒng)、機(jī)器人運(yùn)動(dòng)等,實(shí)現(xiàn)多模態(tài)行為在多場(chǎng)景下的實(shí)踐應(yīng)用 |
(2)數(shù)據(jù)采集、行為編碼、模式識(shí)別、數(shù)據(jù)統(tǒng)計(jì)l 數(shù)據(jù)采集:多路視頻的同步采集與數(shù)據(jù)傳輸,支持實(shí)時(shí)觀察和離線觀察,支持外部視頻源事后導(dǎo)入; l 行為編碼:搭載邊緣計(jì)算終端,開(kāi)展實(shí)時(shí)行為模式識(shí)別與可視化編碼、事后手動(dòng)創(chuàng)建行為組與行為編碼; l 數(shù)據(jù)統(tǒng)計(jì):基礎(chǔ)行為統(tǒng)計(jì)、交互行為統(tǒng)計(jì)、行為交互順序效應(yīng)分析。
平臺(tái)應(yīng)用:涵蓋工業(yè)安全與作業(yè)監(jiān)控、健康監(jiān)測(cè)、智能安防與公共管理、人機(jī)交互與智能空間,以及行為科學(xué)與體育工程等領(lǐng)域。通過(guò)實(shí)時(shí)識(shí)別工人操作行為,提升安全生產(chǎn)與智能制造水平;基于日常行為模式實(shí)現(xiàn)跌倒檢測(cè)與健康狀態(tài)追蹤,支持居家養(yǎng)老與遠(yuǎn)程健康管理;應(yīng)用于公共場(chǎng)所異常行為預(yù)警與人群管控,提高安防效率;推動(dòng)基于行為理解的智能交互,增強(qiáng)服務(wù)機(jī)器人、智能家居等場(chǎng)景的自然控制能力;開(kāi)展運(yùn)動(dòng)技能分析與行為模式研究,為體育訓(xùn)練、康復(fù)醫(yī)學(xué)及人因工程提供科學(xué)數(shù)據(jù)支持。 ErgoLAB多模態(tài)同步方案:整體概述 ErgoLAB人機(jī)環(huán)境同步平臺(tái)采用多模態(tài)數(shù)據(jù)時(shí)鐘同步技術(shù),平臺(tái)可完成完整的實(shí)驗(yàn)和測(cè)評(píng)流程,包括項(xiàng)目管理-試驗(yàn)設(shè)計(jì)-同步采集-信號(hào)處理-數(shù)據(jù)分析-人因智能評(píng)估-可視化報(bào)告,支持基于云架構(gòu)技術(shù)的團(tuán)體測(cè)試和大數(shù)據(jù)管理。 ErgoLAB人機(jī)環(huán)境同步平臺(tái)采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗(yàn)證的方法,數(shù)據(jù)實(shí)時(shí)同步種類(lèi)包含大腦認(rèn)知數(shù)據(jù)(EEG/BCI腦電儀與腦機(jī)接口邊緣計(jì)算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺(jué)數(shù)據(jù)(Eyetracker眼動(dòng)儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動(dòng)作與面部表情(基本情緒、情緒效價(jià)、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機(jī)交互數(shù)據(jù)(包含人機(jī)界面交互行為數(shù)據(jù)以及對(duì)應(yīng)的鍵盤(pán)操作,鼠標(biāo)點(diǎn)擊、懸浮、劃入劃出等;移動(dòng)終端人機(jī)交互行為數(shù)據(jù)以及對(duì)應(yīng)的手指軌跡操作行為如點(diǎn)擊、縮放、滑動(dòng)等;VR終端界面人機(jī)交互行為數(shù)據(jù)及對(duì)應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類(lèi)型時(shí)空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時(shí)空的行走軌跡、行車(chē)軌跡、訪問(wèn)狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實(shí)時(shí)同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。
|