対外発表(ABC’23)

修士2年の田中さんが視線活動による人間の集中状態識別の研究に関して以下の発表を行いました.

Saki Tanaka, Airi Tsuji, and Kaori Fujinami, “Eye-Tracking for Estimation of Concentrating on Reading Texts”, In Proc. of the 5th International Conference on Activity and Behavior Computing (ABC2023), 8 September 2023.

対外発表(FIT2023/農業環境工学関連学会)

社会人博士課程の寺田憲司さんが以下の学会で発表しました.

  • 寺田憲司,藤波香織,木下研吾.不整地対応小型ローバーを用いた病害予測観測手法の検討,農業環境工学関連学会2023年合同大会,2023年9月.
  • 寺田憲司,藤波香織.センシング農業ローバーを用いたマルチモーダル観測による桑畑の病害観測手法の検討,第22回情報科学技術フォーラム(FIT2023),2023年9月.

論文採録(Sensors and Materials)

2021年度博士前期課程修了生の段雨豪君の研究が論文誌Sensors and Materialsに採録され,掲載されました.身体の最大7カ所(図1 (a))に装着した加速度センサで図1((a)から(x))のような23種の日常行動を認識するためのモデル(RandomForest,CNN-LSTM,CNN-Transformer)とセンサ装着位置の組み合わせ(1個から7個全ての計127通り)を調査しました(図2).図2は全行動の平均が載っていますが,論文中では行動ごとの結果と認識モデルやGPU利用有無による処理速度の比較も示されています.これらの情報は,利用可能なセンサの数や装着場所,重点的に認識したい行動,オンライン処理性能などの要件に合わせて認識モデルや装着場所を選ぶ指針になります.

  • Yuhao Duan and Kaori Fujinami. Effect of combinations of sensor positions on wearable sensor-based human activity recognition, Sensors and Materials, Vol. 35, No. 7 (1), pp. 2175-2193, 2023. [link]
図1:センサ装着位置(a)と認識対象の行動23種((b)-(x))
図2:センサ数(K),認識モデル(Model),センサ装着位置(T: 太股,W: 手首,U: 上腕,C: 胸部,L: 左側,R: 右側)ごとの精度(一人抜き交差検証時のF値)

対外発表・受賞(UBI78)

M2の村儀君が情報処理学会ユビキタスコンピューティングシステム研究会第78回研究会にて次の発表を行いました.(2023-07-07追記:学生奨励賞を受賞しました)

  • 村儀天星,渡邊昭信,辻愛里,藤波香織.手と視線の連動性の活用と分類の階層化による組立作業中の迷いの検出と分類,情報処理学会ユビキタスコンピューティングシステム研究会 第78回研究発表会,情報処理学会研究報告 Vol. 2023-UBI-78 No. 3,pp. 1-8,2023年5月24日.
実験環境
視線遷移と手の位置の遷移が同時に起こる様子を表したヒストグラム

2022年9月のUBI75研究会で発表した研究は視線遷移だけでしたが,今回は手の動きも組み合わせて,組立作業中の迷いの状態を推定することを試みました.AOI(関心領域)に視線と手が同時に入る度合い(共起度合い)をヒストグラムに表し,ここから特徴量を算出して機械学習により分類器を構築しています.視線遷移だけの場合に0.700であったF値は,手の遷移を組み合わせることで0.735まで向上すること,タスクの違いをほとんど受けないことを確認しました.

論文採録(Sensors)

本学農学部の新村毅教授の研究グループとの共同研究がSensors誌に掲載されオンラインで公開されました.

  • Kaori Fujinami, Ryo Takuno, Itsufumi Sato, and Tsuyoshi Shimmura, “Evaluating Behavior Recognition Pipeline of Laying Hens Using Wearable Inertial Sensors”, Sensors 2023, Vol. 23, No. 11, Article No. 5077. [link]

雌鶏に慣性センサ(3軸加速度および3軸加速度)を装着し,羽繕いや飲水,尾振りなどの12種の日常行動を機械学習を用いて認識するための一連の機能(ウィンドウサイズおよび時間,特徴量,分類モデル,不均衡データの扱い)の構成方法を実験的に明らかにしました.最も良い構成で0.88の精度(F値)となりました.アニマルウェルフェアに配慮した雌鶏の飼育方法を開発するためのデータを非属人的に大量に収集することが可能になります.

受賞(第84回情報処理学会全国大会優秀賞)

3月に開催された情報処理学会全国大会での以下の発表が大会優秀賞を受賞しました.大会優秀賞は一般・学生を含めた1556件の中から投票を経て上位10件が選ばれます.なお,宅野君の研究は昨年に続いて2年連続の受賞です.

宅野亮,佐藤逸史,新村毅,藤波香織;“鶏の行動学的分析を支援するための行動推定と行動パターンの可視化”,情報処理学会第84回全国大会,6Y-02,2022年3月5日(発表),2022年6月7日(受賞決定)(pdf).

対外発表(ETRA’22)

M1の田中さんが視線計測に関する国際会議でポスター発表を行いました.

Saki Tanaka, Airi Tsuji, and Kaori Fujinami, “Poster: A Preliminary Investigation on Eye Gaze-based Concentration Recognition during Silent Reading of Text”, In Proc. of the 2022 ACM Symposium on Eye Tracking Research & Applications (ETRA’22), June 10, 2022. (publisher link)

紹介ビデオは【こちら】からご覧になれます(英語:約1分).

対外発表(ABC2020)

M2の齋藤君が下記のタイトルでInternational Conference on Activity and Behavior Computing (ABC)で発表を行いました.

  • Mitsuaki Saito and Kaori Fujinami. “Evaluation of New Class Candidate Generation Methods in On-Body Smartphone Localization Problem”, in International Conference on Activity and Behavior Computing (ABC2020), August 28, 2020.
携帯端末の使用場所の逐次追加フレームワーク

システムが未学習の携帯機器の所持位置をユーザが利用している最中に検出して,認識対象に追加するフレームワークを研究中です,これまで上の図のAについて新規性検出(Novelty Detection)技術を使う方法,とくにアンサンブル型の検出器の利用を提案してきましたが,本発表ではその先のD(異常サンプル除外), E(次元削減), F(クラスタリング)の実現方法を検証しました.特にクラスタリングについてはクラスタ数を決定する方法を検討しました.

農工融合研究プロジェクトに採択(野生動物AI)

東京農工大学内 農工融合研究支援制度(通称TAMAGO)に,藤波が分担者として参加する研究「野生動物に関する情報のAIを用いたデータ解析手法の開発」(代表:小池伸介 農学研究院准教授)が採択されました.(産学連携室による紹介

藤波班は,これまで人間を対象として培ってきたウェアラブルセンサによる行動認識技術を用いて野生動物の行動認識に協力し,人間と野生動物の共存に貢献することを目指します.

論文採択(Sensors and Materials)

M1の齋藤君の論文が論文誌(Sensors and Materials)に採録されオンラインで公開されました.[Online]

  • Mitsuaki Saito and Kaori Fujinami, Unknown On-Body Device Position Detection Based on Ensemble Novelty Detection, Sens. Mater., Vol. 32, No. 1, 2020, p. 27-40.
Ensemble Novelty Detectorの構成

機械学習において分類や回帰問題で威力を発揮しているアンサンブル手法を新規性検出(Novelty Detection)という技術への適用法を提案しました.S個のNovelty Detectorの判定により最終的な新規性の判定を下しますが,その際に単なる多数決ではなく,訓練データから最適な判定閾値を決定する手法を提案しています.

これによりスマートフォンの未知の持ち運び場所の検出を単体のNovelty Detectorより高精度に行うことが出来ます.また,一般的な分類問題で既知クラスの判定を高精度に行うための前処理として未知クラス除外を行うようなケースにも利用可能と考えています.

論文採録(Sensors)

下記の論文が論文誌Sensorsに採録されました.プロジェクタ投影型ARにおいて,卓上に既にある物体と投影情報が重なった場合の主観的な視認性を推定する機械学習モデルによる手法(VisLP; Visibility-aware Label Placement, a.k.a. VGD; Visibility-aware Gradient Descent)を提案しました.

  • Keita Ichihashi and Kaori Fujinami; “Estimating Visibility of Annotations for View Management in Spatial Augmented Reality based on Machine-Learning Techniques”, Sensors 2019, 19 (4), Article No. 939. [link]