當(dāng)前位置:首頁 > 產(chǎn)品中心 > > 情緒與生理記錄 > ErgoLA人機(jī)環(huán)境同步云平臺
簡要描述:ErgoLAB人機(jī)環(huán)境同步云平臺,是基于云架構(gòu)的專業(yè)用于“以人為中心"的多模態(tài)數(shù)據(jù)同步采集和定量分析平臺,是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,通過對人、機(jī)器、環(huán)境數(shù)據(jù)同步采集與綜合分析,在人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機(jī)-環(huán)境系統(tǒng)從人-信息系統(tǒng)、人-物理系統(tǒng)以及系統(tǒng)等角度進(jìn)行人機(jī)交互評估以及人因與工效學(xué)的智能評價。
產(chǎn)品分類
Product Category相關(guān)文章
Related Articles詳細(xì)介紹
品牌 | 津發(fā)科技 | 適用領(lǐng)域 | 科研 |
---|---|---|---|
產(chǎn)地 | 國產(chǎn) | 加工定制 | 否 |
ErgoLAB人機(jī)環(huán)境同步云平臺,是基于云架構(gòu)的專業(yè)用于“以人為中心"的多模態(tài)數(shù)據(jù)同步采集和定量分析平臺,是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,通過對人、機(jī)器、環(huán)境數(shù)據(jù)同步采集與綜合分析,在人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機(jī)-環(huán)境系統(tǒng)從人-信息系統(tǒng)、人-物理系統(tǒng)以及系統(tǒng)等角度進(jìn)行人機(jī)交互評估以及人因與工效學(xué)的智能評價。
平臺以人機(jī)環(huán)境多模態(tài)數(shù)據(jù)同步技術(shù)為基礎(chǔ),突出智能化、可穿戴的特點(diǎn),采用國內(nèi)自主研發(fā)技術(shù),結(jié)合VR三維虛擬現(xiàn)實(shí)與環(huán)境模擬技術(shù)、動作捕捉技術(shù)、人體建模與仿真技術(shù)、腦認(rèn)知神經(jīng)科學(xué)與電生理技術(shù)、視覺追蹤技術(shù)、行為分析技術(shù)、面部表情與狀態(tài)識別技術(shù)等,客觀定量化分析人機(jī)環(huán)境交互影響的關(guān)系,提升縱向研究的深度與橫向研究的外延性。平臺與許多認(rèn)知神經(jīng)科學(xué)、人因工程、 人工智能領(lǐng)域科研實(shí)驗(yàn)設(shè)備相兼容,提供了人因工程與工效學(xué)、人機(jī)交互與人工智能、心理學(xué)與認(rèn)知科學(xué)以及神經(jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)等研究內(nèi)容的解決方案。
平臺從基于云端的項(xiàng)目管理、實(shí)驗(yàn)設(shè)計、數(shù)據(jù)同步采集、信號處理與分析到綜合統(tǒng)計與輸出可視化報告,涵蓋整個研究流程。對于特殊領(lǐng)域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識別。
ErgoLAB數(shù)據(jù)與綜合統(tǒng)計分析模塊含多維度人-機(jī)-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析以及可視化、行為觀察、面部表情、動作姿態(tài)傷害評估與工效學(xué)分析、交互行為、時空行為、車輛與駕駛行為、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析,具備專門的信號處理與開放式信號處理接口,可直接導(dǎo)出可視化分析報告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。
平臺通過SDK/API/TTL等廣泛的數(shù)據(jù)接口進(jìn)行第三方設(shè)備或者數(shù)據(jù)同步,同時可以直接導(dǎo)入外部數(shù)據(jù),與系統(tǒng)內(nèi)數(shù)據(jù)進(jìn)行同步分析,支持定制開發(fā)。
平臺配備在線資源中心,內(nèi)含大量豐富的技術(shù)與文獻(xiàn)資料,包括在線 說明書、功能培訓(xùn)視頻、技術(shù)、參數(shù)算法解釋、操作手冊、演示DEMO等,方便研究者能夠更快速的掌握大量實(shí)驗(yàn)技能與知識。
平臺可以進(jìn)行實(shí)驗(yàn)室研究、移動終端研究、虛擬仿真以及真實(shí)戶外環(huán)境的研究。云實(shí)驗(yàn)設(shè)計模塊具備多時間軸、隨機(jī)化呈現(xiàn)等功能、可以創(chuàng)建復(fù)雜的實(shí)驗(yàn)設(shè)計,支持任何類型的刺激材料,包括問卷、量表與范式、聲光電刺激、實(shí)時API編碼/TTL事件標(biāo)記、多媒體刺激編輯,在線網(wǎng)站和手機(jī)應(yīng)用程序,以及所有的原型設(shè)計材料,也支持與如下刺激實(shí)時同步采集:如場景攝像機(jī),軟件,游戲,VR,AR程序等。兼容第三方刺激編譯軟件,如E-prime,Superlab,Tobii Pro Lab等。
平臺采用主客觀結(jié)合多維度數(shù)據(jù)驗(yàn)證的方法,同步大腦認(rèn)知數(shù)據(jù)、視覺數(shù)據(jù)、生理信號數(shù)據(jù)、行為觀察、肢體動作與面部表情數(shù)據(jù)、生物力學(xué)數(shù)據(jù)、人機(jī)交互數(shù)據(jù)、多類型時空行為數(shù)據(jù)采集與環(huán)境數(shù)據(jù)等。
在標(biāo)準(zhǔn)的實(shí)驗(yàn)室環(huán)境下,以桌面或移動終端為載體呈現(xiàn)的刺激材料,包括圖片、文本、視頻、音頻、網(wǎng)頁刺激、交互程序、錄制屏幕等,可實(shí)時預(yù)覽、自由拖拽、一鍵導(dǎo)入多刺激材料。實(shí)時同步采集眼動、腦電、近紅外腦成像以及電生理指標(biāo)等高精度多模態(tài)測量數(shù)據(jù)。
支持搭建多類型虛擬現(xiàn)實(shí)交互設(shè)備與場景,包括頭戴式虛擬現(xiàn)實(shí)系統(tǒng)、CAVE大型沉浸式虛擬現(xiàn)實(shí)交互系統(tǒng)以及多人交互系統(tǒng)等。在虛擬環(huán)境中通過模擬真實(shí)世界交互模式,可以添加視覺、聽覺、觸覺以及重力等真實(shí)感受模擬;在虛擬現(xiàn)實(shí)的環(huán)境下,實(shí)時同步采集人-機(jī)-環(huán)境數(shù)據(jù)并進(jìn)行定量化分析與評價,包括人員在虛擬環(huán)境下的空間定位、交互行為、腦電、眼動、生理、生物力學(xué)、動作捕捉、面部表情等數(shù)據(jù)。
提供逼真道路交通仿真場景、真實(shí)感駕駛模擬座艙,精確的駕駛操縱傳感器輸出,滿足研究所需的交通場景編輯系統(tǒng),并且具備定制和升級能力,支持在各種道路交通和駕駛行為研究中實(shí)時同步采集駕駛?cè)?車輛-道路-環(huán)境的客觀、定量化數(shù)據(jù)。
平臺能夠結(jié)合光、聲、振動、微氣候等多種環(huán)境模擬條件下,同步采集個體在模擬環(huán)境下進(jìn)行操作任務(wù)時的多模態(tài)客觀數(shù)據(jù)反應(yīng)。
平臺采用可穿戴測量技術(shù)、移動終端采集技術(shù)以及離線采集與數(shù)據(jù)儲存,于真實(shí)的現(xiàn)場環(huán)境研究。
人機(jī)工程、人的失誤與系統(tǒng)安全、人機(jī)工效學(xué)、工作場所與工效學(xué)負(fù)荷等
從安全的角度和著眼點(diǎn),運(yùn)用人機(jī)工程學(xué)的原理和方法去解決人機(jī)結(jié)合面安全問題
人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計、提高駕駛安全性、改善道路環(huán)境等
ErgoLAB可實(shí)現(xiàn)桌面端、移動端以及VR虛擬環(huán)境中的眼動、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計、人機(jī)交互對用戶體驗(yàn)的影響
研究如何通過城市規(guī)劃與建筑設(shè)計來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率
通過ErgoLAB采集和分析消費(fèi)者的生理、表情、行為等數(shù)據(jù),了解消費(fèi)者的認(rèn)知加工與決策行為,找到消費(fèi)者行為動機(jī),從而產(chǎn)生恰當(dāng)?shù)臓I銷策略使消費(fèi)者產(chǎn)生留言意向及留言行為
郵箱:sales@kingfar.cn
電話:4008113950