| 規(guī) 格:ErgoAI人因智能: 將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度 |
型 號:ErgoAI |
數(shù) 量:1 |
| 品 牌:Kingfar公司介紹: 北京津發(fā)科技股份有限公司是國家級專精特新重點小巨人 |
包 裝:Kingfar公司介紹: 北京津發(fā)科技股份有限公司是國家級專精特新重點小巨人,國 |
價 格:面議 |
系統(tǒng)組成:(1)ErgoLAB動作捕捉設(shè)備通過高精度動作捕捉傳感器精確捕捉人體或物體在三維空間中每一個關(guān)節(jié)角度、肌肉活動和整體姿態(tài)的運動細節(jié),包括慣性動作捕捉測試儀、光學動作捕捉測試儀兩類,可廣泛應(yīng)用于運動科學、康復(fù)醫(yī)學、虛擬現(xiàn)實及用戶體驗等領(lǐng)域。 設(shè)備品類:設(shè)備名稱 | 設(shè)備介紹 | Mars光學動作捕捉相機 | Mars系列動作捕捉鏡頭采用紅外攝像頭捕捉反光標識點,能夠采集并生成精準、實時的動作信息,包括三維空間XYZ坐標、六自由度(6DoF)、關(guān)節(jié)角度、偏航角(Yaw)、橫搖角(Roll)、俯仰角(Pitch)、歐拉角等數(shù)據(jù),為機器人/無人機的位姿控制、運動規(guī)劃提供連貫、流暢的動作數(shù)據(jù)基礎(chǔ)。 | Xsens MVN Link慣性動作捕捉儀 | Xsens Link高端運動捕捉套裝,該套裝由17個傳感器組成,傳感器被安裝在緊身的萊卡材質(zhì)服裝上,可以提供高質(zhì)量的數(shù)據(jù)記錄。Xsens Link的20毫秒低延遲特性,實時應(yīng)用程序和實時傳輸,同時具有低延遲率保證數(shù)據(jù)捕獲和處理的時間非常短,可實時反饋和精確同步的虛擬現(xiàn)實、增強現(xiàn)實、動畫制作、游戲開發(fā)以及體育訓練等領(lǐng)域的實訓教學。 | ErgoLAB Motion 慣性動作捕捉 | ErgoLAB Motion可穿戴人體運動捕捉與人機工效分析系統(tǒng)是基于無線慣性傳感技術(shù)的全身三維動作捕捉及工效學評價系統(tǒng)。ErgoLAB Motion系統(tǒng)結(jié)合了加速度傳感器、陀螺儀、方位傳感器實時采集人體動作,位置,速度,關(guān)節(jié)角度,扭矩等信息,對數(shù)據(jù)無損耗,結(jié)合可穿戴無線眼動儀、可穿戴無線腦電儀、以及無線人因傳感器(肌電、心電、皮電、皮溫、體溫等)設(shè)備,既可以基于實驗室進行模擬實驗,也可完全脫離固定場地在野外真實世界進行現(xiàn)場研究。可實時顯示被捕捉者的動作及各種測量數(shù)據(jù),具有傳統(tǒng)的人機工程分析系統(tǒng)以及人體動作捕捉系統(tǒng)無可比擬的優(yōu)勢。 | 動作捕捉邊緣計算終端 | 搭載邊緣計算終端和智能算法模型,基于動捕數(shù)據(jù)對人體動作姿態(tài)進行實時監(jiān)測預(yù)警,同時可以結(jié)合動作交互智能模型,靈活配置控制外設(shè),滿足多樣化實訓教學場景 |
設(shè)備特點:l 高精度姿態(tài)捕捉:提供非常精確的三維空間數(shù)據(jù),能夠捕捉到人體的每一個微小的動作變化 l 實時數(shù)據(jù)反饋:提供實時數(shù)據(jù)輸出,通過真人驅(qū)動3D虛擬模型進行可視化呈現(xiàn),使研究人員能夠即時觀察和分析個體的運動表現(xiàn)。 l 無創(chuàng)性設(shè)計:設(shè)備采用非侵入式設(shè)計,對用戶的身體無傷害,適合長時間監(jiān)測 l 簡單易用:操作簡單、快速標定,可實現(xiàn)自動識別人體,一鍵數(shù)據(jù)修復(fù),大幅提升自動化處理能力。 l 抗干擾能力強:具備良好的抗干擾性能,確保在復(fù)雜環(huán)境中也能獲得準確、穩(wěn)定的數(shù)據(jù)。 l 數(shù)據(jù)同步采集與可視化:基于ErgoAI人因智能平臺進行動作姿態(tài)與其他多模態(tài)數(shù)據(jù)的同步采集,實時可視化監(jiān)測個體的動作姿態(tài)并進行即時預(yù)警。 (2)數(shù)據(jù)采集、動作解碼、3D可視化、動作分析模塊l 關(guān)節(jié)角度數(shù)據(jù)處理算法:自定義選擇人體模型關(guān)節(jié)角度與數(shù)據(jù)處理,專業(yè)性動作姿態(tài)解碼算法; l 可視化3D數(shù)字人:通過3D數(shù)字人實時重塑三維運動模型 l 工效學姿勢傷害評估:基于標準姿態(tài)數(shù)據(jù)庫,可視化動作和姿勢的實時風險評估與風險預(yù)警; l 動作分析:動作編碼分析、動作交叉分析、動作延遲分析、動作姿態(tài)可視化分析 (3)動作數(shù)據(jù)集、特征構(gòu)建與模型訓練、智能行為映射的人因智能模塊l 動作數(shù)據(jù)集管理:支持多源異構(gòu)動作數(shù)據(jù)的整合與標注,提供標準化的動作數(shù)據(jù)分類體系 l 特征構(gòu)建與模型訓練:從原始動作數(shù)據(jù)中提取時空特征、動力學特征等有效信息,運用機器學習、深度學習算法構(gòu)建高精度行為分析模型,實現(xiàn)對動作模式的識別、分類與預(yù)測。 l 智能行為映射:將訓練好的模型輸出結(jié)果映射至實際應(yīng)用場景,如人機交互優(yōu)化、行為異常檢測、運動姿態(tài)矯正等,助力實現(xiàn)智能化人因工程設(shè)計與決策。
|