又黄又刺激弄到下面流水的视频-日本一区二区高清精品-精品亚洲欧美在线观看-91成人精品午夜福利一区-亚洲精品色一区二区三区-国产美女黄性色av网站-天天摸天天添天天日天天射-在线观看成人字幕吗-污污污网站在线免费看

專利電工機械建材通訊紡織電子農(nóng)業(yè)服飾環(huán)保家居電器辦公玩具文教包裝
電氣塑料能源橡膠照明運動儀器冶金數(shù)碼汽車物流禮品印刷紙業(yè)建筑五金
 【推薦】  【打印】  
 

時空分析模塊

   
時空分析模塊
 
發(fā)布時間:2025-05-26 17:28
地  區(qū):北京>北京市>海淀區(qū)
公  司:北京津發(fā)科技股份有限公司
聯(lián) 系 人:包冬冬
[企業(yè)詳情]
聯(lián)系信息
 
 
電  話: 86-010-82893950
移動電話: 13021282218
傳  真: 86-010-82827395
地  址: 北京市海淀區(qū)安寧莊后街12號院1號樓一層、三層
郵  編: 100085
Email:sales@kingfar.cn
公司網(wǎng)站:
詳細說明
 時空分析模塊        
   
規(guī)  格:ErgoAI人因智能: 將人工智能技術引入人因工程研究工具,人因工程行業(yè)更加深度 型  號:ErgoLAB 數(shù)  量:1
品  牌:Kingfar公司介紹: 北京津發(fā)科技股份有限公司是國家級專精特新重點小巨人 包  裝: 價  格:面議

產(chǎn)品概述:

空間定位系統(tǒng)支持多類型的時空數(shù)據(jù)采集,包括室內(nèi)空間位置追蹤、虛擬現(xiàn)實場景空間位置追蹤以及真實現(xiàn)場環(huán)境的空間位置追蹤。基于ErgoLAB多維度數(shù)據(jù)時空同步算法模型,可同步采集超過40種時間和空間位置行為等數(shù)據(jù),研究人員可以在任何環(huán)境下進行時空行為研究,完成多維度客觀數(shù)據(jù)的實時同步采集與可視化時空分析。綜合計算機圖形圖像學、視覺設計、數(shù)據(jù)挖掘等技術,支持進行信息可視化、科學可視化與可視分析不同的層次研究。

 

產(chǎn)品特點:

時空同步模型:ErgoLAB多維度數(shù)據(jù)時空同步算法模型、任意ErgoLAB人機環(huán)境同步數(shù)據(jù)均可進行時空分析

多類型時空數(shù)據(jù)采集:室內(nèi)時空數(shù)據(jù)采集、戶外時空數(shù)據(jù)采集、VR虛擬環(huán)境時空數(shù)據(jù)采集

產(chǎn)品參數(shù):

多終端時空數(shù)據(jù)采集:系統(tǒng)支持基于ErgoLAB人機環(huán)境同步平臺進行時空數(shù)據(jù)采集與分析,同時也支持通過Datalogger APP便攜式人因生理記錄系統(tǒng)進行戶外時空數(shù)據(jù)采集。

自定義SOI與數(shù)據(jù)統(tǒng)計 :根據(jù)實驗設計,系統(tǒng)自動識別項目中的室內(nèi)空間地圖、世界地圖、VR虛擬空間地圖,在不同類型的時空地圖下,用戶可任意或編輯時空位置作為SOI分析區(qū)域,進行數(shù)據(jù)統(tǒng)計。

SOI組與疊加分析:系統(tǒng)支持創(chuàng)建SOI Group組別或?qū)⒔ê玫呐d趣區(qū)域進行歸類統(tǒng)計分析,支持單個被試或者多被試的軌跡數(shù)據(jù)疊加分析與數(shù)據(jù)統(tǒng)計。

事件與時間片段統(tǒng)計:支持實時編碼與事后編碼的事件與片段進行時空可視化與數(shù)據(jù)統(tǒng)計分析。

多類型數(shù)據(jù)一鍵導出 :支持將原始數(shù)據(jù)、處理數(shù)據(jù)、編碼數(shù)據(jù)、統(tǒng)計圖表、可視化軌跡圖等一鍵導出。

應用方向:

建筑環(huán)境空間行為研究與測評

智能機器人動線設計評估

車輛空間行為研究與測評

城市規(guī)劃設計與測評

醫(yī)療空間標識系統(tǒng)研究與測評

工業(yè)生產(chǎn)流程研究與測評

ErgoLAB多模態(tài)同步方案:

整體概述

ErgoLAB人機環(huán)境同步平臺采用多模態(tài)數(shù)據(jù)時鐘同步技術,平臺可完成完整的實驗和測評流程,包括項目管理-試驗設計-同步采集-信號處理-數(shù)據(jù)分析-人因智能評估-可視化報告,支持基于云架構技術的團體測試和大數(shù)據(jù)管理。

ErgoLAB人機環(huán)境同步平臺采用主客觀結合多模態(tài)數(shù)據(jù)同步采集與多維度驗證的方法,數(shù)據(jù)實時同步種類包含大腦認知數(shù)據(jù)(EEG/BCI腦電儀與腦機接口邊緣計算設備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含人機界面交互行為數(shù)據(jù)以及對應的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端人機交互行為數(shù)據(jù)以及對應的手指軌跡操作行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應、交互操作行為等數(shù)據(jù)實時同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學研究及應用提供完整的數(shù)據(jù)指標。

 

ErgoAI人因智能

將人工智能技術引入人因工程研究工具,人因工程行業(yè)更加深度,使得實驗環(huán)境不會受限于某一種設備或數(shù)據(jù)指標,采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機-環(huán)境系統(tǒng)交互過程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實人員狀態(tài)的數(shù)據(jù)。平臺還提供覆蓋科研實驗全流程的功能模塊,包括項目管理、實驗設計、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計和可視化報告,結合ErgoAI人因智能邊緣計算平臺為多模態(tài)人機環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機環(huán)境同步平臺和ErgoAI人因智能邊緣計算平臺為核心的多模態(tài)同步人因智能解決方案大大提高了實驗結果的信效度,同時節(jié)省了研究的人力、物力、時間,提高了研究與測評的整體效率。

   
時空分析模塊
把這條消息推薦給朋友
免責聲明:以上信息和圖片由注冊會員自行發(fā)布提供,該發(fā)布會員負責信息和圖片的真實性、準確性和合法性。錢眼網(wǎng)對此不承擔任何責任。
 
* 用戶在發(fā)表言論時不得粘貼或傳播任何非法的,具威脅性的,誹謗性的,貶損的,報復的、褻瀆的或任何其他法律禁止的信息,包括但不限于傳播任何煽動性鼓勵犯罪的,或違反公民義務或任何其他違反地方法規(guī)、國家法律、法規(guī)或國際法律、慣例或公約的內(nèi)容;需嚴格遵守《全國人大常委會關于維護互聯(lián)網(wǎng)安全的規(guī)定》《互聯(lián)網(wǎng)電子公告服務管理規(guī)定》等法律法規(guī)的規(guī)定,并對自己的言論負責。
* 用戶不得粘貼或傳播任何散布任何他人的私人事件,不得粘貼或傳播帶有病毒,或任何帶有貶損或損害性特征的內(nèi)容;不得發(fā)布任何危害國家安全、破壞民族團結、封建迷信、淫穢、色情、賭博、暴力、兇殺、恐怖等法律、行政法規(guī)禁止的內(nèi)容。

 
返回教學與實驗室儀器儀表
回到頁首

 
錢眼網(wǎng)客戶服務  聯(lián)系方式:E-mail:qianyan.biz@hotmail.com  免責聲明
將錢眼設為首頁 | 將錢眼推薦給朋友
技術支持:錢眼網(wǎng) Copyright ©2026 Qianyan.biz All rights reserved. | 網(wǎng)絡實名:錢眼
 E_Mail:qianyan.biz@hotmail.com QQ:532008814  點擊這里給我發(fā)消息 
京公網(wǎng)安備 11010502034661號   京ICP備06048586號