簡(jiǎn)要描述:ErgoLAB人機環(huán)境同步云平臺,是集科學(xué)化、集成化、智能化于一體的系統工程工具與解決方案產(chǎn)品,可以與人、機器、環(huán)境數據進(jìn)行同步采集與綜合人機工效分析;尤其是人工智能時(shí)代根據人-信息-物理系統(HCPS)理論,對人-機-環(huán)境系統從人-信息系統,人-物理系統以及系統整體分別進(jìn)行人機交互評估以及人因與工效學(xué)的智能評價(jià)。
詳細介紹
品牌 | 津發(fā)科技 | 產(chǎn)地類(lèi)別 | 國產(chǎn) |
---|---|---|---|
應用領(lǐng)域 | 交通,航天,司法,汽車(chē),綜合 |
ErgoLAB人機環(huán)境同步云平臺,是集科學(xué)化、集成化、智能化于一體的系統工程工具與解決方案產(chǎn)品,可以與人、機器、環(huán)境數據進(jìn)行同步采集與綜合人機工效分析;尤其是人工智能時(shí)代根據人-信息-物理系統(HCPS)理論,對人-機-環(huán)境系統從人-信息系統,人-物理系統以及系統整體分別進(jìn)行人機交互評估以及人因與工效學(xué)的智能評價(jià)。
智能化人機環(huán)境測試云平臺支持科研項目的整個(gè)工作流程,從基于云端的項目管理、實(shí)驗設計、數據同步采集、信號處理與數據分析到綜合統計與輸出可視化報告,對于特殊領(lǐng)域客戶(hù)可定制云端的人因大數據采集與AI狀態(tài)識別。具備ErgoVR虛擬現實(shí)實(shí)時(shí)同步人因工程研究解決方案、ErgoAI智能駕駛模擬實(shí)時(shí)同步人因工程研究解決方案、ErgoSIM環(huán)境模擬實(shí)時(shí)同步人因工程研究解決方案,可以在不同的實(shí)驗環(huán)境為人-機-環(huán)境研究的發(fā)展提供進(jìn)一步的主客觀(guān)數據支撐與科學(xué)指導。
其中,云實(shí)驗設計模塊具備多時(shí)間軸、隨機化呈現等功能、可以創(chuàng )建復雜的實(shí)驗刺激,支持任何類(lèi)型的刺激材料,包括自定義問(wèn)卷、量表與實(shí)驗范式(系統包含常用量表與實(shí)驗范式以及數據常模,如NASA-TLX認知負荷量表、PANAS情緒效價(jià)量表、Stroop任務(wù)、MOT多目標追蹤、注意力訓練任務(wù)等)、聲光電刺激與實(shí)時(shí)API行為編碼/TTL事件標記、多媒體刺激編輯如文本、聲音、圖像,視頻(含360度圖片和視頻),在線(xiàn)網(wǎng)站和手機應用程序,以及所有的原型設計材料,也支持與如下刺激實(shí)時(shí)同步采集:如場(chǎng)景攝像機、軟件,游戲,VR,AR程序等。兼容第三方軟件刺激編譯軟件,如E-prime,Superlab,TobiiPro Lab等。
ErgoLAB人機環(huán)境同步云平臺采用主客觀(guān)結合多維度數據驗證的方法,數據同步種類(lèi)包含大腦認知數據(EEG腦機交互與腦電測量系統、fNIRS高密度近紅外腦功能成像系統),視覺(jué)數據(Eyetracking視線(xiàn)交互與眼動(dòng)追蹤系統),生理信號數據(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀(guān)察、肢體動(dòng)作與面部表情(基本情緒、情緒效價(jià)、微表情等)數據、生物力學(xué)數據(拉力、握力、捏力、壓力…),人機交互數據(包含如網(wǎng)頁(yè)終端界面交互行為數據以及對應的鍵盤(pán)操作,鼠標點(diǎn)擊、懸浮、劃入劃出等;移動(dòng)終端界面交互行為數據以及對應的手指行為如點(diǎn)擊、縮放、滑動(dòng)等;VR終端界面人機交互行為數據及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類(lèi)型時(shí)空行為數據采集(包括室內、戶(hù)外、以及VR環(huán)境不同時(shí)空的行走軌跡、行車(chē)軌跡、訪(fǎng)問(wèn)狀態(tài)以及視線(xiàn)交互、情感反應、交互操作行為等數據采集)、以及環(huán)境數據(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀(guān)量化數據。
ErgoLAB人機環(huán)境同步云平臺包含強大的數據分析模塊以及廣泛的認知和情感生物特征識別(如記憶,注意力,情緒反應,行為決策,以及警覺(jué)、壓力等)。ErgoLAB數據分析與綜合統計分析模塊包含多維度人-機-環(huán)境數據綜合分析、EEG腦電分析與可視化、眼動(dòng)分析與可視化、行為觀(guān)察分析、面部表情分析、動(dòng)作姿態(tài)傷害評估與工效學(xué)分析、交互行為分析、時(shí)空行為分析、車(chē)輛與駕駛行為分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如SKT皮溫分析、EOG眼電分析以及其他環(huán)境與生物力學(xué)信號分析)。系統具備專(zhuān)門(mén)的信號處理模塊以及開(kāi)放式信號處理接口,可以直接導出可視化分析報告以及原始數據,支持第三方處理與開(kāi)發(fā)。
津發(fā)科技提供定制開(kāi)發(fā)服務(wù),與人因工程與工效學(xué)分析評價(jià)領(lǐng)域相關(guān)的算法模型、軟硬件產(chǎn)品與技術(shù)可深入研發(fā),詳情咨詢(xún)津發(fā)科技!
ErgoLAB人機環(huán)境同步云平臺,是集科學(xué)化、集成化、智能化于一體的系統工程工具與解決方案產(chǎn)品,可以與多種類(lèi)人、機器、環(huán)境數據進(jìn)行同步采集與綜合分析,尤其是人工智能時(shí)代根據人-信息-物理系統(HCPS)理論,對人-機-環(huán)境系統從人-信息系統,人-物理系統以及系統整體分別進(jìn)行人機交互評估以及人因與工效學(xué)的智能評價(jià)。
智能云平臺系統支持項目的整個(gè)工作流程,從基于云端的項目管理、試驗設計(試驗方法設置)、數據同步采集、信號處理與數據分析到綜合統計與輸出可視化報告,以及云端的大數據采集與AI狀態(tài)識別。具備ErgoVR虛擬現實(shí)解決方案實(shí)時(shí)同步模塊、ErgoAI智能駕駛模擬解決方案實(shí)時(shí)同步模塊、ErgoSIM環(huán)境模擬解決方案實(shí)時(shí)同步模塊,可以在不同的實(shí)驗環(huán)境為人-機-環(huán)境研究的發(fā)展提供進(jìn)一步的主客觀(guān)數據支撐與科學(xué)指導。
其中,云試驗設計產(chǎn)品模塊,可以進(jìn)行靈活的試驗設計,支持任何類(lèi)型的刺激材料,包括自定義問(wèn)卷、量表與實(shí)驗范式(系統打包大量常用量表與實(shí)驗范式以及數據常模,如NASA-TLX認知負荷量表、PANAS情緒效價(jià)量表、Stroop任務(wù)、MOT多目標追蹤、注意力訓練任務(wù)等)、聲光電刺激與實(shí)時(shí)API/TTL事件標記、多媒體刺激編輯如文本、聲音、圖像,視頻,在線(xiàn)網(wǎng)站和手機應用程序,以及所有的原型設計材料,也支持與如下刺激實(shí)時(shí)同步采集:場(chǎng)景攝像機、軟件,游戲,VR,AR程序等。兼容第三方軟件刺激,如Eprime,Tobii Pro Lab等。
ErgoLAB人機環(huán)境同步云平臺采用主客觀(guān)結合多維度數據驗證的方法,可用于云項目管理、云實(shí)驗設計、同步采集、綜合統計分析與可視化等全流程科研應用,數據同步種類(lèi)包含大腦認知數據(EEG腦機交互與腦電測量系統、fNIRS高密度近紅外腦功能成像系統),視覺(jué)數據(Eyetracking視線(xiàn)交互與眼動(dòng)追蹤系統),生理信號(GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀(guān)察、肢體動(dòng)作與面部表情(基本情緒、情緒效價(jià)、微表情等)數據、生物力學(xué)數據(拉力、握力、捏力、壓力),人機交互數據(包含如網(wǎng)頁(yè)終端界面交互行為數據以及對應的鍵盤(pán)操作,鼠標點(diǎn)擊、懸浮、劃入劃出等;移動(dòng)終端界面交互行為數據以及對應的手指行為如點(diǎn)擊、縮放、滑動(dòng)等;VR終端界面人機交互行為數據及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類(lèi)型時(shí)空數據采集(包括室內、戶(hù)外、以及VR環(huán)境不同時(shí)空的行走軌跡、訪(fǎng)問(wèn)狀態(tài)以及視線(xiàn)交互、情感反應、交互操作行為等數據采集)、以及環(huán)境數據(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀(guān)量化數據。
ErgoLAB人機環(huán)境同步云平臺包含強大的數據分析模塊以及廣泛的認知和情感生物特征識別(如記憶,注意力,情緒反應,行為決策,以及警覺(jué)、壓力等)。ErgoLAB數據分析與綜合統計分析模塊包含多維度人-機-環(huán)境數據綜合分析、EEG腦電分析與可視化、眼動(dòng)分析與可視化、行為觀(guān)察分析、面部表情分析、動(dòng)作姿態(tài)傷害評估與工效學(xué)分析、交互行為分析、時(shí)空行為分析、車(chē)輛與駕駛行為分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如SKT皮溫分析、EOG眼電分析以及其他環(huán)境與生物力學(xué)信號分析)。系統具備專(zhuān)門(mén)的信號處理模塊以及開(kāi)放式信號處理接口,可以直接導出可視化分析報告以及原始數據,支持第三方處理與開(kāi)發(fā)。
通過(guò)ErgoLAB人機環(huán)境同步云平臺可以與更多種類(lèi)的數據進(jìn)行同步,可用于云項目管理、云實(shí)驗設計、同步采集、綜合統計分析與可視化等全流程科研應用,實(shí)驗設計云平臺模塊可以進(jìn)行自定義問(wèn)卷設計、聲光電刺激與實(shí)時(shí)事件標記、多媒體刺激編輯如文本、聲音、圖像,視頻,實(shí)時(shí)網(wǎng)站和手機應用程序的原型設計文件,也支持與如下刺激實(shí)時(shí)同步采集:場(chǎng)景攝像機、軟件,游戲,VR,AR程序等;并且具備ErgoVR虛擬現實(shí)解決方案實(shí)時(shí)同步模塊、ErgoAI智能駕駛模擬解決方案實(shí)時(shí)同步模塊、ErgoSIM環(huán)境模擬解決方案實(shí)時(shí)同步模塊,可以在不同的實(shí)驗環(huán)境為人-機-環(huán)境研究的發(fā)展提供了進(jìn)一步的主客觀(guān)數據支撐。
ErgoLAB人機環(huán)境測試云平臺將主觀(guān)問(wèn)卷與客觀(guān)數據集成,可用于云項目管理、云實(shí)驗設計、同步采集、綜合統計分析與可視化等全流程科研應用,數據同步種類(lèi)包含大腦認知數據(EEG腦機交互與腦電測量系統、fNIRS高密度近紅外腦功能成像系統),視覺(jué)數據(Eyetracking視線(xiàn)交互與眼動(dòng)追蹤系統),生理信號(GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2,行為觀(guān)察、肢體動(dòng)作與面部表情、生物力學(xué)(拉力、握力、捏力、壓力),人機交互數據(包含如網(wǎng)頁(yè)終端界面交互行為數據以及對應的鍵盤(pán)操作,鼠標點(diǎn)擊、懸浮、劃入劃出等;移動(dòng)終端界面交互行為數據以及對應的手指行為如點(diǎn)擊、縮放、滑動(dòng)等;VR終端界面人機交互行為數據及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)等客觀(guān)量化數據。
ErgoLAB綜合統計分析功能包含人機環(huán)境數據綜合分析、EEG腦電分析與可視化、眼動(dòng)分析與可視化、行為觀(guān)察分析、面部表情分析、動(dòng)作姿態(tài)傷害評估與工效學(xué)分析、交互行為分析、時(shí)空行為分析、車(chē)輛分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析。津發(fā)科技提供定制開(kāi)發(fā)服務(wù),與人因工程與工效學(xué)分析評價(jià)領(lǐng)域相關(guān)的算法模型、軟硬件產(chǎn)品與技術(shù)可深入研發(fā),詳情咨詢(xún)津發(fā)科技!
SennsLab是一種人類(lèi)行為研究軟件工具,可 無(wú)縫同步35種以上傳感器模式的研究設計和數據收集。它支持項目的整個(gè)工作流程,從實(shí)驗方法設置到數據收集和導出以進(jìn)行完整的分析。
毫秒級同步,您將能夠從各種傳感器模式(GSR,ECG,EEG,EMG,EEG,眼睛跟蹤...)以及多種刺激(照片,視頻,自由任務(wù), VR體驗,網(wǎng)站...)具有出色的時(shí)間表現。因此,您將能夠輕松,準確地分析來(lái)自Excel,SPSS,MatLab等的數據。
SennsMetrics是SennsLab軟件的擴展,可提供十分常用的研究設計模板,強大的數據分析平臺以及廣泛的認知和情感生物特征識別(例如記憶,注意力,情感價(jià),激活和影響,參與度等) )。SennsMetrics是為那些希望在生理數據解碼和分析方面向前邁進(jìn)的人而特別設計的,它提供了一種實(shí)用且可行的解決方案。
干腦電圖 半干腦電圖 生物信號 室內定位系統 眼動(dòng)追蹤
其他
任何類(lèi)型的刺激
圖像,視頻,體驗,網(wǎng)站,應用程序,VR / AR設置...
第三方軟件刺激
Eprime,Tobii Pro Lab ...
兼容LabStreamLayer
BCI200,OpenVie,NeuroPype ...
實(shí)時(shí)API
數據分析
原始數據到第三方
Matlab(EEGLAB,BCILAB等)
Python(MNE等)
Neuroguide WE
其他
SennsMetrics 可選
Bitbrain軟件分析工具
情緒和認知指標
Excel導出(單個(gè)和匯總)
多媒體資料
技術(shù)指標
人類(lèi)行為指標 | |
情緒生物識別 | 價(jià),情緒激活,情緒影響 |
認知生物識別 | 注意,記憶,參與。 |
行為指標 | 鼠標跟蹤,時(shí)間。 |
眼動(dòng)追蹤指標 | 視覺(jué)注意,注視 |
內隱動(dòng)機和行為 | 隱式聯(lián)想響應測試(IAT和啟動(dòng)) |
IPS指標 | 位置追蹤 |
指標表示 | |
個(gè)人 | 對于生物識別,時(shí)間和隱式關(guān)聯(lián):條形圖和統計差異表。對于眼睛跟蹤,鼠標定位和室內定位:熱圖,比率圖,時(shí)間圖,軌跡圖,感興趣的區域(*固定時(shí)間,花費的時(shí)間,比率,重新訪(fǎng)問(wèn),平均固定時(shí)間,以前的固定時(shí)間)和匯總的固定視頻。 |
組合式 | 情感定位圖,結合指標的視頻,刺激,攝像頭和麥克風(fēng)(匯總,按細分或個(gè)人匯總)。 |
輸出格式 | |
檔案 | 所有CSV格式的生物特征識別(單獨和匯總),與第三方工具(Matlab,Excell等)兼容 |
可視化軟件 | Bitbrain生物識別可視化軟件。分析間隔和感興趣的區域。 |
多媒體資料 | 包含陳述和視頻以進(jìn)行報告。 |
人機工程、人的失誤與系統安全、人機工效學(xué)、工作場(chǎng)所與工效學(xué)負荷等
從安全的角度和著(zhù)眼點(diǎn),運用人機工程學(xué)的原理和方法去解決人機結合面安全問(wèn)題
人-車(chē)-路-環(huán)境系統的整體研究,有助于改善駕駛系統設計、提高駕駛安全性、改善道路環(huán)境等
ErgoLAB可實(shí)現桌面端、移動(dòng)端以及VR虛擬環(huán)境中的眼動(dòng)、生理、行為等數據的采集,探索產(chǎn)品設計、人機交互對用戶(hù)體驗的影響
研究如何通過(guò)城市規劃與建筑設計來(lái)滿(mǎn)足人的行為心理需求,以創(chuàng )造良好環(huán)境,提高工作效率
通過(guò)ErgoLAB采集和分析消費者的生理、表情、行為等數據,了解消費者的認知加工與決策行為,找到消費者行為動(dòng)機,從而產(chǎn)生恰當的營(yíng)銷(xiāo)策略使消費者產(chǎn)生留言意向及留言行為
郵件聯(lián)系我們:[email protected]