| 規(guī) 格:ErgoAI人因智能: 將人工智能技術引入人因工程研究工具,人因工程行業(yè)更加深度 |
型 號:ErgoLAB |
數(shù) 量:1 |
| 品 牌:Kingfar公司介紹: 北京津發(fā)科技股份有限公司是國家級專精特新重點小巨人 |
包 裝: |
價 格:面議 |
產(chǎn)品概述: 空間定位系統(tǒng)支持多類型的時空數(shù)據(jù)采集,包括室內(nèi)空間位置追蹤、虛擬現(xiàn)實場景空間位置追蹤以及真實現(xiàn)場環(huán)境的空間位置追蹤。基于ErgoLAB多維度數(shù)據(jù)時空同步算法模型,可同步采集超過40種時間和空間位置行為等數(shù)據(jù),研究人員可以在任何環(huán)境下進行時空行為研究,完成多維度客觀數(shù)據(jù)的實時同步采集與可視化時空分析。綜合計算機圖形圖像學、視覺設計、數(shù)據(jù)挖掘等技術,支持進行信息可視化、科學可視化與可視分析不同的層次研究。
產(chǎn)品特點: l 時空同步模型:ErgoLAB多維度數(shù)據(jù)時空同步算法模型、任意ErgoLAB人機環(huán)境同步數(shù)據(jù)均可進行時空分析 l 多類型時空數(shù)據(jù)采集:室內(nèi)時空數(shù)據(jù)采集、戶外時空數(shù)據(jù)采集、VR虛擬環(huán)境時空數(shù)據(jù)采集 產(chǎn)品參數(shù): l 多終端時空數(shù)據(jù)采集:系統(tǒng)支持基于ErgoLAB人機環(huán)境同步平臺進行時空數(shù)據(jù)采集與分析,同時也支持通過Datalogger APP便攜式人因生理記錄系統(tǒng)進行戶外時空數(shù)據(jù)采集。 l 自定義SOI與數(shù)據(jù)統(tǒng)計 :根據(jù)實驗設計,系統(tǒng)自動識別項目中的室內(nèi)空間地圖、世界地圖、VR虛擬空間地圖,在不同類型的時空地圖下,用戶可任意或編輯時空位置作為SOI分析區(qū)域,進行數(shù)據(jù)統(tǒng)計。 l SOI組與疊加分析:系統(tǒng)支持創(chuàng)建SOI Group組別或?qū)⒔ê玫呐d趣區(qū)域進行歸類統(tǒng)計分析,支持單個被試或者多被試的軌跡數(shù)據(jù)疊加分析與數(shù)據(jù)統(tǒng)計。 l 事件與時間片段統(tǒng)計:支持實時編碼與事后編碼的事件與片段進行時空可視化與數(shù)據(jù)統(tǒng)計分析。 l 多類型數(shù)據(jù)一鍵導出 :支持將原始數(shù)據(jù)、處理數(shù)據(jù)、編碼數(shù)據(jù)、統(tǒng)計圖表、可視化軌跡圖等一鍵導出。 應用方向: l 建筑環(huán)境空間行為研究與測評 l 智能機器人動線設計評估 l 車輛空間行為研究與測評 l 城市規(guī)劃設計與測評 l 醫(yī)療空間標識系統(tǒng)研究與測評 l 工業(yè)生產(chǎn)流程研究與測評 ErgoLAB多模態(tài)同步方案:整體概述 ErgoLAB人機環(huán)境同步平臺采用多模態(tài)數(shù)據(jù)時鐘同步技術,平臺可完成完整的實驗和測評流程,包括項目管理-試驗設計-同步采集-信號處理-數(shù)據(jù)分析-人因智能評估-可視化報告,支持基于云架構技術的團體測試和大數(shù)據(jù)管理。 ErgoLAB人機環(huán)境同步平臺采用主客觀結合多模態(tài)數(shù)據(jù)同步采集與多維度驗證的方法,數(shù)據(jù)實時同步種類包含大腦認知數(shù)據(jù)(EEG/BCI腦電儀與腦機接口邊緣計算設備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含人機界面交互行為數(shù)據(jù)以及對應的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端人機交互行為數(shù)據(jù)以及對應的手指軌跡操作行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應、交互操作行為等數(shù)據(jù)實時同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學研究及應用提供完整的數(shù)據(jù)指標。  
ErgoAI人因智能:將人工智能技術引入人因工程研究工具,人因工程行業(yè)更加深度,使得實驗環(huán)境不會受限于某一種設備或數(shù)據(jù)指標,采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機-環(huán)境系統(tǒng)交互過程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實人員狀態(tài)的數(shù)據(jù)。平臺還提供覆蓋科研實驗全流程的功能模塊,包括項目管理、實驗設計、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計和可視化報告,結合ErgoAI人因智能邊緣計算平臺為多模態(tài)人機環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機環(huán)境同步平臺和ErgoAI人因智能邊緣計算平臺為核心的多模態(tài)同步人因智能解決方案大大提高了實驗結果的信效度,同時節(jié)省了研究的人力、物力、時間,提高了研究與測評的整體效率。
|