2025年1月22日から24日まで東京ビッグサイトで開催されていた第11回ウェアラブルEXPOに大学・研究期間イノベーションフォーラムの一部として出展しました.本研究室からは,行動認識(人間の日常行動,動物の行動),デバイスの身体上の装着位置検出,組み立て作業中の迷い推定システム,日常生活行動における認知負荷推定,VRといった「ウェアラブル」に関する研究全般的な紹介を行いました.

Daily Life Computing Laboratory@Tokyo University of Agriculture and Technology
2025年1月22日から24日まで東京ビッグサイトで開催されていた第11回ウェアラブルEXPOに大学・研究期間イノベーションフォーラムの一部として出展しました.本研究室からは,行動認識(人間の日常行動,動物の行動),デバイスの身体上の装着位置検出,組み立て作業中の迷い推定システム,日常生活行動における認知負荷推定,VRといった「ウェアラブル」に関する研究全般的な紹介を行いました.
M2の早川さん,百合草さん,M1の矢野さんが石川県金沢市で開催された電子情報通信学会 HCGシンポジウムにて下記の発表を行いました.
机の上に投影されるエージェントは,人の顔の向きや表情や周辺の音,タッチに反応して動きや表情を変えます.また,机に置いた物体を認識し,それに合った会話を生成します.実験を通じ,人への反応と物体への反応の両方がエージェントへの親近感を増すことが分かりました.
VR体験中に,人の接近や机の上の飲み物を手に取る,重要なメールの通知,など仮想空間のコンテンツに没入していると実世界との関わりが困難になります.一方,ヘッドセットを外したり,実世界映像を全て透過することは没入を阻害することになります.本研究では没入を極力妨げずに,実世界の様子を伝えて(実世界アウェアネス),関わりやすくする手法を提案しています.本研究では,瞬きの同期率,瞳孔径,注視点,注視点の移動速度,手の位置, タスク進行度などを用いて総合的に判定したユーザ状態から支援のタイミングやレベルを決定するというアウェアネス支援を提案しています.
本研究では,作業に対する自信のほどを表す「自己効力感」の定量的な推定にむけ,巧緻性作業において手の動きに先立って目標地点に視線を向ける「予期的注視」に着目しています.ペグボード課題遂行時のデータ収集機器の開発と予期的注視指標の検討を行いました.データ収集のため,手の加速度および指先の圧力を測定する手袋型デバイスと据え置き型のペグ操作検出デバイスを開発しました.上の図は自己効力感が高いケースにおいて,ペグを右側から左側のボードに移動する場合の注視点(赤丸)を表しており,視線がペグを把持 する直前に操作対象のペグから移動先に瞬時に移動しています.一方,自己効力感が低いケースでは,視線は手の動きに先行して移動しながらもペグの移動経路を追従する傾向が窺えました.このように視線と手の動きの位置や時間の関係を定量化することで,自己効力感の定量化が可能になると考えています.
情報処理学会第86回全国大会(神奈川大にて開催)にて以下の9件の発表を行い,村儀君,菊地君,佐々木君(M2),長瀬君(B4)が学生奨励賞を受賞しました(★印).2010年に初めて受賞者が出てから41件(34人)目です.また,2012年度から12年連続受賞です.村儀君は3年連続,菊地君は2年連続の受賞です.
M2の青木君と国方さんが以下のタイトルでThe 2021 IEEE 10th Global Conference on Consumer Electronics (GCCE 2021)にて発表します.
M2の青木君,国方さん,M1の小林さんが第20回情報科学技術フォーラム(FIT2021)出成果発表を行いました.