當(dāng)前位置:首頁(yè) > 產(chǎn)品中心 > > 動(dòng)作捕捉與生物力學(xué) > ErgoVR可穿戴行走虛擬現(xiàn)實(shí)系統(tǒng)
簡(jiǎn)要描述:ErgoVR可穿戴行走虛擬現(xiàn)實(shí)系統(tǒng)以人-信息-物理系統(tǒng)理論為基礎(chǔ),以人-機(jī)-環(huán)境同步技術(shù)為核心,可對(duì)接CATIA,UG/NX,Pro/E,SpaceClaim等主流CAD軟件以及Unity、Unreal、WorldViz Vizard、Ansys VRXperience等VR開(kāi)發(fā)平臺(tái)制作的產(chǎn)品原型,進(jìn)行VR原型產(chǎn)品定量化人機(jī)交互測(cè)試、評(píng)價(jià)及定量化分析,解決各制造業(yè)、工業(yè)設(shè)計(jì)、人因工程、環(huán)境行為、建
產(chǎn)品分類
Product Category相關(guān)文章
Related Articles詳細(xì)介紹
品牌 | 津發(fā)科技 | 適用領(lǐng)域 | 科研 |
---|---|---|---|
產(chǎn)地 | 國(guó)產(chǎn) | 加工定制 | 否 |
ErgoVR可穿戴行走虛擬現(xiàn)實(shí)系統(tǒng)以人-信息-物理系統(tǒng)理論為基礎(chǔ),以人-機(jī)-環(huán)境同步技術(shù)為核心,可對(duì)接CATIA,UG/NX,Pro/E,SpaceClaim等主流CAD軟件以及Unity、Unreal、WorldViz Vizard、Ansys VRXperience等VR開(kāi)發(fā)平臺(tái)制作的產(chǎn)品原型,進(jìn)行VR原型產(chǎn)品定量化人機(jī)交互測(cè)試、評(píng)價(jià)及定量化分析,解決各制造業(yè)、工業(yè)設(shè)計(jì)、人因工程、環(huán)境行為、建筑設(shè)計(jì)等領(lǐng)域中的裝備設(shè)計(jì)、人機(jī)界面設(shè)計(jì)、產(chǎn)品設(shè)計(jì)、工業(yè)設(shè)計(jì)、產(chǎn)品可用性測(cè)試等問(wèn)題。
覆蓋項(xiàng)目與被試信息管理-云實(shí)驗(yàn)設(shè)計(jì)-主客觀多維度數(shù)據(jù)采集-大數(shù)據(jù)云存儲(chǔ)-多維度數(shù)據(jù)同步與交叉分析-測(cè)試報(bào)告生成與導(dǎo)出的實(shí)驗(yàn)標(biāo)準(zhǔn)化測(cè)試全流程,保證項(xiàng)目的完整性以及測(cè)試結(jié)果的精準(zhǔn)性。
完整的云項(xiàng)目管理涵蓋整個(gè)科學(xué)研究流程,包括云項(xiàng)目管理、實(shí)驗(yàn)設(shè)計(jì)、同步記錄、數(shù)據(jù)回放、信號(hào)處理與分析、測(cè)試報(bào)告導(dǎo)出。可管理與編輯每位被試的相關(guān)信息,如性別、年齡、自定義屬性等。
支持使用Unity、Unreal、WorldViz Vizard、Ansys VRXperience等VR開(kāi)發(fā)平臺(tái)制作的產(chǎn)品原型,均可通過(guò)ErgoVR 人因分析引擎進(jìn)行實(shí)時(shí)數(shù)據(jù)通訊,便捷地導(dǎo)入實(shí)驗(yàn)設(shè)計(jì)系統(tǒng)進(jìn)行人機(jī)交互分析,系統(tǒng)自動(dòng)計(jì)算與識(shí)別所有模型。
支持傳統(tǒng)的可用性測(cè)試研究方法,包括問(wèn)卷、量表和行為范式等主觀評(píng)價(jià)方式;同時(shí)實(shí)驗(yàn)室可采用定量的研究方法,在可用性測(cè)試過(guò)程中采集多維度數(shù)據(jù)實(shí)現(xiàn)客觀定量化評(píng)價(jià),彌補(bǔ)了傳統(tǒng)測(cè)試評(píng)價(jià)方法中缺乏實(shí)時(shí)性、主觀性強(qiáng)、易受社會(huì)環(huán)境影響等因素。
可實(shí)時(shí)采集與綜合分析用戶與虛擬場(chǎng)景交互下的多模態(tài)數(shù)據(jù)定量化反應(yīng),包括時(shí)空軌跡數(shù)據(jù)、眼動(dòng)數(shù)據(jù)、生理數(shù)據(jù)、腦電數(shù)據(jù)、腦成像、生物力學(xué)、環(huán)境、動(dòng)作捕捉數(shù)據(jù)、行為編碼及交互數(shù)據(jù)等。
支持所有原始數(shù)據(jù)、處理數(shù)據(jù)以及可視化分析報(bào)告的導(dǎo)出。
虛擬現(xiàn)實(shí)呈現(xiàn)技術(shù)實(shí)現(xiàn)畫面的無(wú)縫拼接和融合,呈現(xiàn)身臨其境的3D沉浸感。整個(gè)實(shí)驗(yàn)室空間均為行走虛擬現(xiàn)實(shí)系統(tǒng)的實(shí)驗(yàn)場(chǎng)地,被試可以不受任何限制自由行走,模擬真實(shí)世界的行為,采集的數(shù)據(jù)更真實(shí)。
支持多人在同一個(gè)虛擬現(xiàn)實(shí)場(chǎng)景中協(xié)同完成人機(jī)交互任務(wù),并進(jìn)行本地或云端人機(jī)環(huán)境數(shù)據(jù)同步的定量評(píng)價(jià),測(cè)試者的交互動(dòng)作均細(xì)致地呈現(xiàn)在同一個(gè)虛擬世界中,即時(shí)互動(dòng)感大大增強(qiáng)。
ErgoLAB人機(jī)環(huán)境同步云平臺(tái)可人-機(jī)-環(huán)境多維度數(shù)據(jù)的同步采集與綜合分析,包括眼動(dòng)追蹤、生理測(cè)量、生物力學(xué)、腦電、腦成像、行為、人機(jī)交互、動(dòng)作姿態(tài)、面部表情、主觀評(píng) 價(jià)、時(shí)空行為、模擬器、物理環(huán)境等,為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。平臺(tái)可完成完整的實(shí)驗(yàn)和測(cè)評(píng)流程,包括項(xiàng)目管理-試驗(yàn)設(shè)計(jì)-同步采集-信號(hào)處理-數(shù)據(jù)分析-人工智能應(yīng)用-可視化報(bào)告,支持基于云架構(gòu)技術(shù)的團(tuán)體測(cè)試和大數(shù)據(jù)云管理。
人機(jī)工程、人的失誤與系統(tǒng)安全、人機(jī)工效學(xué)、工作場(chǎng)所與工效學(xué)負(fù)荷等
從安全的角度和著眼點(diǎn),運(yùn)用人機(jī)工程學(xué)的原理和方法去解決人機(jī)結(jié)合面安全問(wèn)題
人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計(jì)、提高駕駛安全性、改善道路環(huán)境等
ErgoLAB可實(shí)現(xiàn)桌面端、移動(dòng)端以及VR虛擬環(huán)境中的眼動(dòng)、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計(jì)、人機(jī)交互對(duì)用戶體驗(yàn)的影響
研究如何通過(guò)城市規(guī)劃與建筑設(shè)計(jì)來(lái)滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率
通過(guò)ErgoLAB采集和分析消費(fèi)者的生理、表情、行為等數(shù)據(jù),了解消費(fèi)者的認(rèn)知加工與決策行為,找到消費(fèi)者行為動(dòng)機(jī),從而產(chǎn)生恰當(dāng)?shù)臓I(yíng)銷策略使消費(fèi)者產(chǎn)生留言意向及留言行為
郵箱:sales@kingfar.cn
電話:4008113950