| 規(guī) 格:ErgoAI人因智能: 將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度 |
型 號:ErgoLAB |
數(shù) 量:1 |
| 品 牌:Kingfar公司介紹: 北京津發(fā)科技股份有限公司是國家級專精特新重點小巨人 |
包 裝: |
價 格:面議 |
產(chǎn)品概述:基于ErgoLAB fNIRS的超掃描技術(shù)可以在自然交互場景下同時記錄兩個或多個參與者的大腦激活狀態(tài)與神經(jīng)活動,為社會互動的神經(jīng)機(jī)制研究提供了新的視角。這種技術(shù)特別適合于需要高生態(tài)效度的研究,如面對面交流、合作任務(wù)、教學(xué)互動等場景。 產(chǎn)品特點:l 可接收所有設(shè)備的NIRS數(shù)據(jù),進(jìn)行無時差同步。 l 在同一個環(huán)境中可同時使用多個ErgoLAB可穿戴式設(shè)備進(jìn)行超掃描實驗。 l 通過有線/無線的方式進(jìn)行數(shù)據(jù)采集傳輸。 l 可在多人VR場景中進(jìn)行使用,實現(xiàn)多人虛擬場景任務(wù)。 產(chǎn)品參數(shù):參數(shù)名稱 | 參數(shù)值/描述 | 超掃描 | 支持1-10人同步超掃描實驗采集 | 超高導(dǎo)聯(lián) | 多擴(kuò)展64ch*10=640ch | 多人同步 | 支持一條記錄同時采集多個/多人EEG腦電設(shè)備,進(jìn)行多人同步分析與超掃描團(tuán)隊研究 |
應(yīng)用方向:系統(tǒng)可廣泛應(yīng)用于認(rèn)知神經(jīng)科學(xué)、心理學(xué)、教育科學(xué)、人因工程等領(lǐng)域的科學(xué)研究,從感知運(yùn)動、信息交流、社會決策等方面開展腦際認(rèn)知同步研究,社會互動中情感交流、情緒調(diào)節(jié)的腦際認(rèn)知同步機(jī)制研究,應(yīng)用研究如團(tuán)隊任務(wù)中多人腦際認(rèn)知同步特征與行為績效的關(guān)系等。 ErgoLAB多模態(tài)同步方案:整體概述 ErgoLAB人機(jī)環(huán)境同步平臺采用多模態(tài)數(shù)據(jù)時鐘同步技術(shù),平臺可完成完整的實驗和測評流程,包括項目管理-試驗設(shè)計-同步采集-信號處理-數(shù)據(jù)分析-人因智能評估-可視化報告,支持基于云架構(gòu)技術(shù)的團(tuán)體測試和大數(shù)據(jù)管理。 ErgoLAB人機(jī)環(huán)境同步平臺采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗證的方法,數(shù)據(jù)實時同步種類包含大腦認(rèn)知數(shù)據(jù)(EEG/BCI腦電儀與腦機(jī)接口邊緣計算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機(jī)交互數(shù)據(jù)(包含人機(jī)界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標(biāo)點擊、懸浮、劃入劃出等;移動終端人機(jī)交互行為數(shù)據(jù)以及對應(yīng)的手指軌跡操作行為如點擊、縮放、滑動等;VR終端界面人機(jī)交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實時同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。
|