工学院大学
2003年10月納入
 

オメガスペースと多様なデバイスを組み合わせ、手話によるコミュニケーションの
認知構造を多角的に検証・研究するためのシステムを構築しています。

 


  工学院大学  

位置角度センサー付きのサイバーグローブ2個と頭部の位置角度センサーにより、 手話の動きをリアルタイムにCG化しています。
また、両目まぶたに4個の筋電センサーを配することでまばたきをCGに反映させることができます。
さらに、鼻孔の温度変化や胸郭の伸びを測定し、呼吸の計測をして います。(同システムが2基、導入されています。)


 

キャラクターとの会話も可能です。リアルタイムはもちろん時間の変化(リズム・タイミング)・情報の遮断(動きの制限)など、加工したデータと会話することで、手話が言語として認知される過程に関する研究を行っています。

声に個性があるように、手話においても親しい間柄であれば、CG化された手話を見て個人の特定ができるそうです。
リズムやタイミング、各分の動作における微妙差異を、データから読み取ることでその認知構造を解明しようとしています。
 
工学院大学


  工学院大学  

制御用PC(右側モニター)では、更新レートの違う各センサーの
信号を、タイムコードを利用して一元管理することが可能となって
おり、手話の認知構造を詳細に検証する上での、貴重なデータと
なっています。


システム概要
ハードウェア
デバイス用計算機、デバイスインターフェース、表示用計算機、ネットワーク機器
表示コンテンツ
オメガスペース(ソリッドレイ研究所開発)
システムソフトウェア
オメガスペースを基本とした特注ソフトウェア