又黄又刺激弄到下面流水的视频-日本一区二区高清精品-精品亚洲欧美在线观看-91成人精品午夜福利一区-亚洲精品色一区二区三区-国产美女黄性色av网站-天天摸天天添天天日天天射-在线观看成人字幕吗-污污污网站在线免费看

專利電工機(jī)械建材通訊紡織電子農(nóng)業(yè)服飾環(huán)保家居電器辦公玩具文教包裝
電氣塑料能源橡膠照明運(yùn)動(dòng)儀器冶金數(shù)碼汽車物流禮品印刷紙業(yè)建筑五金
 【推薦】  【打印】  
 

ErgoAI行為識(shí)別實(shí)訓(xùn)設(shè)備

   
ErgoAI行為識(shí)別實(shí)訓(xùn)設(shè)備
 
發(fā)布時(shí)間:2025-09-28 09:51
地  區(qū):北京>北京市>海淀區(qū)
公  司:北京津發(fā)科技股份有限公司
聯(lián) 系 人:包冬冬
[企業(yè)詳情]
聯(lián)系信息
 
 
電  話: 86-010-82893950
移動(dòng)電話: 13021282218
傳  真: 86-010-82827395
地  址: 北京市海淀區(qū)安寧莊后街12號(hào)院1號(hào)樓一層、三層
郵  編: 100085
Email:sales@kingfar.cn
公司網(wǎng)站:
詳細(xì)說(shuō)明
 ErgoAI行為識(shí)別實(shí)訓(xùn)設(shè)備        
   
規(guī)  格:ErgoAI人因智能: 將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度 型  號(hào):ErgoAI 數(shù)  量:1
品  牌:Kingfar公司介紹: 北京津發(fā)科技股份有限公司是國(guó)家級(jí)專精特新重點(diǎn)小巨人 包  裝:Kingfar公司介紹: 北京津發(fā)科技股份有限公司是國(guó)家級(jí)專精特新重點(diǎn)小巨人,國(guó) 價(jià)  格:面議

系統(tǒng)組成

1)ErgoLAB行為識(shí)別實(shí)訓(xùn)設(shè)備

集成視覺(jué)傳感器、毫米波雷達(dá)與可穿戴慣性測(cè)量單元(IMU),支持復(fù)雜環(huán)境下人體姿態(tài)、運(yùn)動(dòng)軌跡與多對(duì)象交互的高精度、非侵入式同步采集。

設(shè)備品類:

設(shè)備名稱

設(shè)備介紹

便攜式行為觀察設(shè)備

ErgoLAB便攜式行為觀察系統(tǒng)是實(shí)時(shí)行為編碼和標(biāo)準(zhǔn)行為分析工具。系統(tǒng)通過(guò)行為編碼體系,采用定量觀察記錄的方式來(lái)實(shí)現(xiàn)結(jié)構(gòu)化和系統(tǒng)化的行為觀察,對(duì)觀察內(nèi)容進(jìn)行分類和量化編碼。移動(dòng)終端版本結(jié)合便攜性手持設(shè)備,可以在實(shí)訓(xùn)教學(xué)現(xiàn)場(chǎng)進(jìn)行實(shí)時(shí)行為編碼記錄、分析與統(tǒng)計(jì)。

行為觀察實(shí)訓(xùn)室系統(tǒng)

行為觀察實(shí)訓(xùn)室一般包括測(cè)試室和分析室,之間用單向行為觀察透視玻璃隔開(kāi),使研究人員可以透過(guò)單向玻璃隨時(shí)觀察操作人員的行為狀態(tài),而操作人員則看不到主控室以及外界干擾信息,從而降低對(duì)教學(xué)實(shí)訓(xùn)的影響。實(shí)訓(xùn)室內(nèi)可設(shè)置多個(gè)高清攝像頭,分析室設(shè)置控制臺(tái)與屏幕墻,可實(shí)時(shí)傳達(dá)任務(wù)指令,采集和分析行為、心理、眼動(dòng)等多模態(tài)數(shù)據(jù)。

行為邊緣計(jì)算終端

搭載邊緣計(jì)算終端和智能算法模型,可進(jìn)行實(shí)時(shí)動(dòng)作識(shí)別、人體姿態(tài)識(shí)別、面部表情和手勢(shì)識(shí)別等行為實(shí)時(shí)編碼,同時(shí)可以結(jié)合多模態(tài)行為交互智能模型,控制智能家居設(shè)備、智能客服系統(tǒng)、機(jī)器人運(yùn)動(dòng)等,實(shí)現(xiàn)多模態(tài)行為在多場(chǎng)景下的實(shí)訓(xùn)教學(xué)

2)數(shù)據(jù)采集、行為編碼、模式識(shí)別、數(shù)據(jù)統(tǒng)計(jì)

數(shù)據(jù)采集:多路視頻的同步采集與數(shù)據(jù)傳輸,支持實(shí)時(shí)觀察和離線觀察,支持外部視頻源事后導(dǎo)入;

行為編碼:搭載邊緣計(jì)算終端,開(kāi)展實(shí)時(shí)行為模式識(shí)別與可視化編碼、事后手動(dòng)創(chuàng)建行為組與行為編碼;

數(shù)據(jù)統(tǒng)計(jì):基礎(chǔ)行為統(tǒng)計(jì)、交互行為統(tǒng)計(jì)、行為交互順序效應(yīng)分析


平臺(tái)應(yīng)用

工業(yè)智能方向:在工業(yè)生產(chǎn)場(chǎng)景下,行為識(shí)別實(shí)訓(xùn)設(shè)備可對(duì)工人操作行為進(jìn)行實(shí)時(shí)監(jiān)測(cè)與分析,識(shí)別違規(guī)操作行為,規(guī)范作業(yè)流程。學(xué)生能夠基于設(shè)備采集的工人行為數(shù)據(jù),優(yōu)化工業(yè)機(jī)器人與人的協(xié)作模式,開(kāi)發(fā)智能輔助作業(yè)系統(tǒng)。

智能健康監(jiān)測(cè)方向:依托設(shè)備對(duì)人體行為的精準(zhǔn)識(shí)別能力,可實(shí)現(xiàn)對(duì)老年人、病患日常活動(dòng)的監(jiān)測(cè)與健康狀態(tài)評(píng)估。學(xué)生可學(xué)習(xí)將行為數(shù)據(jù)轉(zhuǎn)化為健康指標(biāo),開(kāi)發(fā)居家健康監(jiān)測(cè)系統(tǒng)

ErgoLAB多模態(tài)同步方案:

整體概述

ErgoLAB人機(jī)環(huán)境同步平臺(tái)采用多模態(tài)數(shù)據(jù)時(shí)鐘同步技術(shù),平臺(tái)可完成完整的實(shí)驗(yàn)和測(cè)評(píng)流程,包括項(xiàng)目管理-試驗(yàn)設(shè)計(jì)-同步采集-信號(hào)處理-數(shù)據(jù)分析-人因智能評(píng)估-可視化報(bào)告,支持基于云架構(gòu)技術(shù)的團(tuán)體測(cè)試和大數(shù)據(jù)管理。

ErgoLAB人機(jī)環(huán)境同步平臺(tái)采用主客觀結(jié)合多模態(tài)數(shù)據(jù)同步采集與多維度驗(yàn)證的方法,數(shù)據(jù)實(shí)時(shí)同步種類包含大腦認(rèn)知數(shù)據(jù)(EEG/BCI腦電儀與腦機(jī)接口邊緣計(jì)算設(shè)備、fNIRS/BCI近紅外腦成像儀),視覺(jué)數(shù)據(jù)(Eyetracker眼動(dòng)儀與視線交互系統(tǒng)),生理數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動(dòng)作與面部表情(基本情緒、情緒效價(jià)、微表情等)數(shù)據(jù)、生物力學(xué)數(shù)據(jù)(拉力、握力、捏力、壓力…),人機(jī)交互數(shù)據(jù)(包含人機(jī)界面交互行為數(shù)據(jù)以及對(duì)應(yīng)的鍵盤(pán)操作,鼠標(biāo)點(diǎn)擊、懸浮、劃入劃出等;移動(dòng)終端人機(jī)交互行為數(shù)據(jù)以及對(duì)應(yīng)的手指軌跡操作行為如點(diǎn)擊、縮放、滑動(dòng)等;VR終端界面人機(jī)交互行為數(shù)據(jù)及對(duì)應(yīng)的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時(shí)空行為軌跡數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時(shí)空的行走軌跡、行車軌跡、訪問(wèn)狀態(tài)以及視線交互、情感反應(yīng)、交互操作行為等數(shù)據(jù)實(shí)時(shí)同步采集)、以及作業(yè)空間及作業(yè)環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù);為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。

ErgoAI人因智能

將人工智能技術(shù)引入人因工程研究工具,人因工程行業(yè)更加深度,使得實(shí)驗(yàn)環(huán)境不會(huì)受限于某一種設(shè)備或數(shù)據(jù)指標(biāo),采集分析不同典型行業(yè)或?qū)W科專業(yè)的人-機(jī)-環(huán)境系統(tǒng)交互過(guò)程中自然狀態(tài)下的人類行為數(shù)據(jù),獲取更接近真實(shí)人員狀態(tài)的數(shù)據(jù)。平臺(tái)還提供覆蓋科研實(shí)驗(yàn)全流程的功能模塊,包括項(xiàng)目管理、實(shí)驗(yàn)設(shè)計(jì)、同步采集、數(shù)據(jù)分析、綜合統(tǒng)計(jì)和可視化報(bào)告,結(jié)合ErgoAI人因智能邊緣計(jì)算平臺(tái)為多模態(tài)人機(jī)環(huán)境研究提供一站式人因工程+人工智能解決方案。以ErgoLAB人機(jī)環(huán)境同步平臺(tái)和ErgoAI人因智能邊緣計(jì)算平臺(tái)為核心的多模態(tài)同步人因智能解決方案大大提高了實(shí)驗(yàn)結(jié)果的信效度,同時(shí)節(jié)省了研究的人力、物力、時(shí)間,提高了研究與測(cè)評(píng)的整體效率。

   
ErgoAI行為識(shí)別實(shí)訓(xùn)設(shè)備
把這條消息推薦給朋友
免責(zé)聲明:以上信息和圖片由注冊(cè)會(huì)員自行發(fā)布提供,該發(fā)布會(huì)員負(fù)責(zé)信息和圖片的真實(shí)性、準(zhǔn)確性和合法性。錢眼網(wǎng)對(duì)此不承擔(dān)任何責(zé)任。
 
* 用戶在發(fā)表言論時(shí)不得粘貼或傳播任何非法的,具威脅性的,誹謗性的,貶損的,報(bào)復(fù)的、褻瀆的或任何其他法律禁止的信息,包括但不限于傳播任何煽動(dòng)性鼓勵(lì)犯罪的,或違反公民義務(wù)或任何其他違反地方法規(guī)、國(guó)家法律、法規(guī)或國(guó)際法律、慣例或公約的內(nèi)容;需嚴(yán)格遵守《全國(guó)人大常委會(huì)關(guān)于維護(hù)互聯(lián)網(wǎng)安全的規(guī)定》《互聯(lián)網(wǎng)電子公告服務(wù)管理規(guī)定》等法律法規(guī)的規(guī)定,并對(duì)自己的言論負(fù)責(zé)。
* 用戶不得粘貼或傳播任何散布任何他人的私人事件,不得粘貼或傳播帶有病毒,或任何帶有貶損或損害性特征的內(nèi)容;不得發(fā)布任何危害國(guó)家安全、破壞民族團(tuán)結(jié)、封建迷信、淫穢、色情、賭博、暴力、兇殺、恐怖等法律、行政法規(guī)禁止的內(nèi)容。

 
返回教學(xué)與實(shí)驗(yàn)室儀器儀表
回到頁(yè)首

 
錢眼網(wǎng)客戶服務(wù)  聯(lián)系方式:E-mail:qianyan.biz@hotmail.com  免責(zé)聲明
將錢眼設(shè)為首頁(yè) | 將錢眼推薦給朋友
技術(shù)支持:錢眼網(wǎng) Copyright ©2026 Qianyan.biz All rights reserved. | 網(wǎng)絡(luò)實(shí)名:錢眼
 E_Mail:qianyan.biz@hotmail.com QQ:532008814  點(diǎn)擊這里給我發(fā)消息 
京公網(wǎng)安備 11010502034661號(hào)   京ICP備06048586號(hào)