又黄又刺激弄到下面流水的视频-日本一区二区高清精品-精品亚洲欧美在线观看-91成人精品午夜福利一区-亚洲精品色一区二区三区-国产美女黄性色av网站-天天摸天天添天天日天天射-在线观看成人字幕吗-污污污网站在线免费看

專利電工機械建材通訊紡織電子農(nóng)業(yè)服飾環(huán)保家居電器辦公玩具文教包裝
電氣塑料能源橡膠照明運動儀器冶金數(shù)碼汽車物流禮品印刷紙業(yè)建筑五金
 【推薦】  【打印】  
 

Behavior行為編碼分析模塊

   
Behavior行為編碼分析模塊
 
發(fā)布時間:2025-05-26 17:41
地  區(qū):北京>北京市>海淀區(qū)
公  司:北京津發(fā)科技股份有限公司
聯(lián) 系 人:包冬冬
[企業(yè)詳情]
聯(lián)系信息
 
 
電  話: 86-010-82893950
移動電話: 13021282218
傳  真: 86-010-82827395
地  址: 北京市海淀區(qū)安寧莊后街12號院1號樓一層、三層
郵  編: 100085
Email:sales@kingfar.cn
公司網(wǎng)站:
詳細說明
 Behavior行為編碼分析模塊        
   
規(guī)  格:ErgoAI人因智能: 將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度 型  號:ErgoLAB 數(shù)  量:1
品  牌:Kingfar公司介紹: 北京津發(fā)科技股份有限公司是國家級專精特新重點小巨人 包  裝: 價  格:面議

產(chǎn)品概述:    

Behavior行為觀察采集與分析模塊,采用標(biāo)準(zhǔn)攝像頭錄制行為視頻,實時獲取被研究對象的動作,姿勢,運動,位置,表情,情緒,社會交往,人機交互等各種活動,記錄并分析其狀態(tài)與表現(xiàn)形式,形成行為-時間-頻次數(shù)據(jù)庫,記錄與編碼分析個體在活動中的行為頻次或習(xí)慣性動作的特點等。通過交互行為觀察,探索心理、生理的外在表現(xiàn),進一步了解人們行為與心理反應(yīng)的相互關(guān)系。

 

產(chǎn)品特點:

多路視頻同步采集

多種行為編碼方式

實時與離線行為編碼統(tǒng)計分析

產(chǎn)品參數(shù):

多路視頻同步采集:支持外部設(shè)備以及多路視頻的同步采集與數(shù)據(jù)傳輸。支持在移動設(shè)備中進行使用和數(shù)據(jù)采集。主要用于記錄實驗參與者的各種行為,支持記錄點狀行為以及持續(xù)行為。

視頻模塊:系統(tǒng)具備靈活的視頻模塊,支持實時觀察和離線觀察這兩種觀察方式,滿足不同研究需求。

外部采集視頻導(dǎo)入:系統(tǒng)支持導(dǎo)入外部視頻源采集的任意格式的多路行為視頻,進行播放管理與同步顯示以及兼容到行為觀察分析系統(tǒng)進行數(shù)據(jù)編碼與統(tǒng)計。

應(yīng)用方向:

建筑環(huán)境空間行為研究與測評

智能機器人動線設(shè)計評估

車輛空間行為研究與測評

城市規(guī)劃設(shè)計與測評

醫(yī)療空間標(biāo)識系統(tǒng)研究與測評

工業(yè)生產(chǎn)流程研究與測評

ErgoLAB多模態(tài)同步方案:

整體概述

ErgoLAB人機環(huán)境同步平臺采用多模態(tài)數(shù)據(jù)時鐘同步技術(shù),平臺可完成完整的實驗和測評流程,包括項目管理-試驗設(shè)計-同步采集-信號處理-數(shù)據(jù)分析-人因智能評估-可視化報告,支持基于云架構(gòu)技術(shù)的團體測試和大數(shù)據(jù)管理。

ErgoLAB人機環(huán)境同步平臺采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗證的方法,數(shù)據(jù)實時同步種類包含大腦認(rèn)知數(shù)據(jù)(EEG/BCI腦電儀與腦機接口邊緣計算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺數(shù)據(jù)(Eyetracker眼動儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含人機界面交互行為數(shù)據(jù)以及對應(yīng)的鍵盤操作,鼠標(biāo)點擊、懸浮、劃入劃出等;移動終端人機交互行為數(shù)據(jù)以及對應(yīng)的手指軌跡操作行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實時同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。

 

ErgoAI人因智能

將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度,使得實驗環(huán)境不會受限于某一種設(shè)備或數(shù)據(jù)指標(biāo),采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機-環(huán)境系統(tǒng)交互過程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實人員狀態(tài)的數(shù)據(jù)。平臺還提供覆蓋科研實驗全流程的功能模塊,包括項目管理、實驗設(shè)計、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計和可視化報告,結(jié)合ErgoAI人因智能邊緣計算平臺為多模態(tài)人機環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機環(huán)境同步平臺和ErgoAI人因智能邊緣計算平臺為核心的多模態(tài)同步人因智能解決方案大大提高了實驗結(jié)果的信效度,同時節(jié)省了研究的人力、物力、時間,提高了研究與測評的整體效率。

   
把這條消息推薦給朋友
免責(zé)聲明:以上信息和圖片由注冊會員自行發(fā)布提供,該發(fā)布會員負責(zé)信息和圖片的真實性、準(zhǔn)確性和合法性。錢眼網(wǎng)對此不承擔(dān)任何責(zé)任。
 
* 用戶在發(fā)表言論時不得粘貼或傳播任何非法的,具威脅性的,誹謗性的,貶損的,報復(fù)的、褻瀆的或任何其他法律禁止的信息,包括但不限于傳播任何煽動性鼓勵犯罪的,或違反公民義務(wù)或任何其他違反地方法規(guī)、國家法律、法規(guī)或國際法律、慣例或公約的內(nèi)容;需嚴(yán)格遵守《全國人大常委會關(guān)于維護互聯(lián)網(wǎng)安全的規(guī)定》《互聯(lián)網(wǎng)電子公告服務(wù)管理規(guī)定》等法律法規(guī)的規(guī)定,并對自己的言論負責(zé)。
* 用戶不得粘貼或傳播任何散布任何他人的私人事件,不得粘貼或傳播帶有病毒,或任何帶有貶損或損害性特征的內(nèi)容;不得發(fā)布任何危害國家安全、破壞民族團結(jié)、封建迷信、淫穢、色情、賭博、暴力、兇殺、恐怖等法律、行政法規(guī)禁止的內(nèi)容。

 
返回教學(xué)與實驗室儀器儀表
回到頁首

 
錢眼網(wǎng)客戶服務(wù)  聯(lián)系方式:E-mail:qianyan.biz@hotmail.com  免責(zé)聲明
將錢眼設(shè)為首頁 | 將錢眼推薦給朋友
技術(shù)支持:錢眼網(wǎng) Copyright ©2026 Qianyan.biz All rights reserved. | 網(wǎng)絡(luò)實名:錢眼
 E_Mail:qianyan.biz@hotmail.com QQ:532008814  點擊這里給我發(fā)消息 
京公網(wǎng)安備 11010502034661號   京ICP備06048586號