Updated on 2025/03/18

写真a

 
Deguchi Daisuke
 
Organization
Graduate School of Informatics Department of Intelligent Systems 1 Associate professor
Graduate School
Graduate School of Informatics
Undergraduate School
School of Informatics Department of Computer Science
Title
Associate professor

Degree 1

  1. Doctor of Information Science ( 2006.3   Nagoya University ) 

Research Interests 5

  1. Computer Vision

  2. Image Processing

  3. Medical Image Processing

  4. Pattern Recognition

  5. Computer Graphics

Research Areas 2

  1. Others / Others  / Perception Information Processing/Intelligent Robotics

  2. Others / Others  / Medical Systems

Current Research Project and SDGs 2

  1. 過去と現在の対比による環境適応型画像認識に関する研究

  2. 実世界センシングにより得られる環境依存情報を活用した環境適応型画像認識に関する研究

Research History 6

  1. Department of Intelligent Systems, Graduate School of Informatics, Nagoya University   Associate professor

    2020.1

      More details

    Country:Japan

  2. Information Strategy Office, Information and Communications, Nagoya University   Associate professor

    2012.2 - 2019.12

      More details

    Country:Japan

  3. Graduate School of Information Science, Nagoya University   Assistant Professor

    2008.10 - 2012.1

      More details

    Country:Japan

  4. 名古屋大学大学院工学研究科   研究員

    2006.11 - 2008.9

      More details

    Country:Japan

  5. 名古屋大学大学院情報科学研究科   研究員

    2006.4 - 2006.10

      More details

    Country:Japan

▼display all

Education 3

  1. Nagoya University   Graduate School, Division of Information Science   Department of Media Science

    2003.4 - 2006.3

      More details

    Country: Japan

  2. Nagoya University   Graduate School, Division of Engineering   Department of Information Engineering

    2001.4 - 2003.3

      More details

    Country: Japan

  3. Nagoya University   Faculty of Engineering   Department of Information Engineering

    1997.4 - 2001.3

      More details

    Country: Japan

Professional Memberships 3

  1. IEEE

  2. 電子情報通信学会

  3. 情報処理学会

Committee Memberships 20

  1. 画像の認識・理解シンポジウム MIRU2023   実行委員  

    2022 - 2023   

      More details

    Committee type:Academic society

  2. 情報処理学会 コンピュータービジョンとイメージメディア研究会   幹事  

    2020.4 - 2024.4   

  3. 画像の認識・理解シンポジウム MIRU2021   実行委員  

    2020 - 2021   

      More details

    Committee type:Academic society

  4. 情報処理学会 コンピュータービジョンとイメージメディア研究会   運営委員  

    2019.4 - 2020.3   

      More details

    Committee type:Academic society

  5. 電子情報通信学会情報・和文論文誌A編集委員会   編集委員  

    2018.6 - 2022.5   

▼display all

Awards 17

  1. 研究奨励賞

    2024.3   動的画像処理実用化ワークショップDIA2024   交通シーン画像からの歩行者の注視対象物推定

    村上 大斗, 陳 嘉雷, 出口 大輔, 平山 高嗣, 川西 康友, 村瀬 洋

     More details

    Award type:Award from Japanese society, conference, symposium, etc.  Country:Japan

  2. Best Paper Award

    2023.1   International Workshop on Advanced Image Technology 2023   A Preliminary Study on View Independent Panoptic Scene Change Detection

    Jiaxin Li, Yasutomo Kawanishi, Daisuke Deguchi, Hiroshi Murase

     More details

    Award type:Award from international society, conference, symposium, etc. 

  3. 研究奨励賞

    2020.3   動的画像処理実利用化ワークショップDIA2020   超低解像度FIR画像内での人物位置と動作の違いに着目した骨格推定法の検討

    岩田 紗希, 川西 康友, 出口 大輔, 井手 一郎, 村瀬 洋, 相澤 知禎

     More details

    Award type:Award from Japanese society, conference, symposium, etc.  Country:Japan

  4. MVE賞

    2020.3   電子情報通信学会 マルチメディア・仮想環境基礎研究専門委員会   心像性に基づく画像キャプショニングの検討

    梅村 和紀, カストナー マークアウレル, 井手 一郎, 川西 康友, 平山 高嗣, 道満 恵介, 出口 大輔, 村瀬 洋

     More details

    Award type:Award from Japanese society, conference, symposium, etc.  Country:Japan

  5. 優秀ポスター賞

    2019.12   一般社団法人大学ICT推進協議会   手書きレポートとLMSの連携を実現する名大版紙レポシステムの全学運用

    出口 大輔, 清谷 竣也, 大平 茂輝, 戸田 智基

     More details

    Award type:Award from Japanese society, conference, symposium, etc.  Country:Japan

▼display all

 

Papers 253

  1. Semantic matters: A constrained approach for zero-shot video action recognition Reviewed

    Zhenzhen Quan, Jialei Chen, Daisuke Deguchi, Jie Sun, Chenkai Zhang, Yujun Li, Hiroshi Murase

    Pattern Recognition   Vol. 162   page: 111402   2025.6

     More details

    Language:English   Publishing type:Research paper (scientific journal)  

    DOI: 10.1016/j.patcog.2025.111402

  2. A Cross-Modal Knowledge Distillation Approach for RGB-to-Infrared Video Action Recognition Reviewed

    Zhenzhen Quan, Daisuke Deguchi, Jialei Chen, Chenkai Zhang, Yujun Li, Seigo Ito, Hiroshi Murase

    Proceedings of Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2025)     2025.2

     More details

    Language:English   Publishing type:Research paper (international conference proceedings)  

  3. Multi-group Vision Semantic Centroid for Semantic Segmentation Reviewed

    Jialei Chen, Daisuke Deguchi, Chenkai Zhang, Zhenzhen Quan, Seigo Ito, Hiroshi Murase

    Proceedings of Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2025)     2025.2

     More details

    Language:English   Publishing type:Research paper (international conference proceedings)  

    Multi-media processing has achieved great success based on
    semantic segmentation. Semantic segmentation can be viewed as pixel-
    clustering based on semantic prototypes. However, existing methods fo-
    cus more on consistent semantics while ignoring the consistency in vi-
    sion, making this task challenging. Motivated by the success of discrete
    visual representation learning, we propose Multi-group Visual Semantic
    Centroid (MVSC) to better cluster the pixels while maintaining consis-
    tent semantics of the dense features for any image encoder. Specifically,
    we randomly initialize multiple groups of prototypes as multi-groups in
    visual space. The visual features are also randomly split into the same
    groups and forced to be aligned with the corresponding prototypes. Then
    these visual prototypes are projected into the semantic space and super-
    vised by the same classifier as the dense features. Compared with existing
    methods, MVSC further considers the visual space and thus facilitates
    the task. Experimental results on COCO-Stu! show great improvements
    compared with previous methods.

  4. CROCODILE: Crop-based Contrastive Discriminative Learning for Enhancing Explainability of End-to-End Driving Models Reviewed

    Chenkai Zhang, Daisuke Deguchi, Jialei Chen, Zhenzhen Quan, Hiroshi Murase

    Proceedings of ACCV Workshop on Machine Learning and Computing for Visual Semantic Analysis (MLCSA2024)     page: 378 - 393   2024.12

     More details

    Language:English   Publishing type:Research paper (international conference proceedings)  

  5. Early prediction of At-risk students through Learning-Activity Forecasting Reviewed

    Yuya Ozaki, Daisuke Deguchi, Haruya Kyutoku, Hiroshi Murase

    Proceedings of 32nd International Conference on Computers in Education (ICCE2024)     2024.11

     More details

    Language:English   Publishing type:Research paper (international conference proceedings)  

▼display all

Books 3

  1. モビリティイノベーションシリーズ⑤ 自動運転

    村瀬 洋, 出口 大輔, 新村 文郷, 平山 高嗣, 川西 康友, 久徳 遙矢, 他( Role: Joint author ,  4章 認知:外界センサによる草稿環境認識)

    オーム社  2021.1 

     More details

    Language:Japanese

  2. 統計的学習の基礎 -データマイニング・推論・予測-

    杉山将, 井手剛, 神嶌敏弘, 栗田 多喜夫, 前田 英作, 他( Role: Joint translator)

    共立出版  2014.6 

     More details

    Language:Japanese

  3. 医用画像解析ハンドブック

    藤田広志, 石田隆行, 桂川茂彦, 他( Role: Joint author)

    オーム社  2012.11 

     More details

    Language:Japanese

MISC 13

  1. Evolution of Object Detection Technology

    Daisuke Deguchi, Hiroshi Murase

      Vol. 31 ( 1 ) page: 1 - 1   2023.3

     More details

    Authorship:Lead author   Language:Japanese  

  2. 車載カメラを用いた周囲環境認識技術

    出口 大輔

    車載テクノロジー   Vol. 6 ( 8 ) page: 9 - 9   2019.5

     More details

    Language:Japanese  

  3. Driving Intelligence for Automated Vehicles and Future Perspective

    Tatsuya Suzuki, Naoki Akai, Daisuke Deguchi

      Vol. 34 ( 2 ) page: 206 - 206   2019.3

     More details

    Language:Japanese  

  4. Action recognition based on the temporal patterns of gaze information -Recognition of cooking operations based on gaze transition and blinks-

    Ichiro Ide, Takatsugu Hirayama, Hiroya Inoue, Keisuke Doman, Yasutomo Kawanishi, Daisuke Deguchi, Hiroshi Murase

      Vol. 29 ( 6 ) page: 14 - 14   2018.6

     More details

    Language:Japanese  

  5. Environment Understanding Based on Deep Learning

    Daisuke Deguchi, Yasutomo Kawanishi, Hiroshi Murase

    Japanese Journal of Optics   Vol. 47 ( 3 ) page: 106 - 106   2018.3

     More details

    Language:Japanese  

▼display all

Presentations 713

  1. 講義スライドのコンテンツ解析に基づく講義動画の自動生成に関する予備検討

    水上 皓太, 出口 大輔, 久徳 遙矢, 峰松 翼, 村瀬 洋

    教育学習支援情報システム研究会(CLE)  2025.3.21 

     More details

    Event date: 2025

    Language:Japanese   Presentation type:Oral presentation (general)  

    Venue:群馬大学  

  2. Multi-group Vision Semantic Centroid for Semantic Segmentation International conference

    Jialei Chen, Daisuke Deguchi, Chenkai Zhang, Zhenzhen Quan, Seigo Ito, Hiroshi Murase

    Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2025)  2025.2.18 

     More details

    Event date: 2025

    Language:English   Presentation type:Oral presentation (general)  

    Venue:Sogang University, Seoul, Korea  

    Multi-media processing has achieved great success based on
    semantic segmentation. Semantic segmentation can be viewed as pixel-
    clustering based on semantic prototypes. However, existing methods fo-
    cus more on consistent semantics while ignoring the consistency in vi-
    sion, making this task challenging. Motivated by the success of discrete
    visual representation learning, we propose Multi-group Visual Semantic
    Centroid (MVSC) to better cluster the pixels while maintaining consis-
    tent semantics of the dense features for any image encoder. Specifically,
    we randomly initialize multiple groups of prototypes as multi-groups in
    visual space. The visual features are also randomly split into the same
    groups and forced to be aligned with the corresponding prototypes. Then
    these visual prototypes are projected into the semantic space and super-
    vised by the same classifier as the dense features. Compared with existing
    methods, MVSC further considers the visual space and thus facilitates
    the task. Experimental results on COCO-Stu! show great improvements
    compared with previous methods.

  3. A Cross-Modal Knowledge Distillation Approach for RGB-to-Infrared Video Action Recognition International conference

    Zhenzhen Quan, Daisuke Deguchi, Jialei Chen, Chenkai Zhang, Yujun Li, Seigo Ito, Hiroshi Murase

    Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV2025)  2025.2.18 

     More details

    Event date: 2025

    Language:English   Presentation type:Oral presentation (general)  

  4. Object Detection using In-Vehicle Camera Images with Object Attributes Constraints

    星谷那月, Daisuke Deguchi, Jialei Chen, Hiroshi Murase, 伊藤誠悟

    IEICE Technical Report (MVE)  2025.3.5 

     More details

    Event date: 2025

    Language:Japanese   Presentation type:Oral presentation (general)  

    Venue:沖縄県市町村自治会館  

  5. 複数歩行者間のインタラクション理解に向けた 気づき認識データセットの構築

    辰己弘征, 出口 大輔, 村瀬 洋, 伊藤誠悟

    メディアエクスペリエンス・バーチャル環境基礎研究会(MVE)  2025.3.5 

     More details

    Event date: 2025

    Language:Japanese   Presentation type:Oral presentation (general)  

    Venue:沖縄県市町村自治会館  

▼display all

Research Project for Joint Research, Competitive Funding, etc. 1

  1. ヒューマンクラウドセンシングによるユーザ参加型実世界リアルタイム情報検索技術の研究開発

    2013.4 - 2014.3

    戦略的情報通信研究開発推進事業(SCOPE) 若手ICT研究者等育成型 

      More details

    Grant type:Competitive

KAKENHI (Grants-in-Aid for Scientific Research) 13

  1. Scene Understanding and Knowledge Extension by Active Open-world Recognition

    Grant number:24H00733  2024.4 - 2029.3

    Grants-in-Aid for Scientific Research  Grant-in-Aid for Scientific Research (A)

      More details

    Authorship:Coinvestigator(s) 

  2. 人物行動を手掛かりとした車載映像クラウド探索による知識獲得型認識基盤の構築

    Grant number:23K28164  2023.4 - 2027.3

    科学研究費助成事業  基盤研究(B)

    出口 大輔, 赤井 直紀, 川西 康友

      More details

    Authorship:Principal investigator 

    Grant amount:\18590000 ( Direct Cost: \14300000 、 Indirect Cost:\4290000 )

    本研究では、我々人間が明示的・暗黙的なルールに従いながら状況に合わせて同じような行動をするという知見を活用し、そのようなルールに従う行動のセンシング結果を手掛かりとして、物体認識モデルの性能を向上させる学習データを車載映像クラウドから自動的に見つけ出す基盤技術の開発を行う。そして、人の行動とルールの情報を手がかりとして、それらの学習データに対してアノテーション情報を自動付与しながらモデル更新を行う知識獲得型認識基盤の実現を目指す。

  3. 拡張時空間シーングラフによる未知物体を含むシーン認識・記述基盤の構築

    Grant number:23K21708  2021.4 - 2025.3

    科学研究費助成事業  基盤研究(B)

    川西 康友, 井手 一郎, 出口 大輔

      More details

    Authorship:Coinvestigator(s) 

    人間は,知らない物体を見たとき,それが何かわからなくても何らかの物体であると認識でき, それを覚えておいて次に見たときに同一物体だと対応付けることもできる.しかし,ロボットは 物体検出器が学習した物体しか検出できず,異なる時刻での観測同士を対応付けることもできな い.本提案では,未知物体も扱える時空間の記述(拡張時空間シーングラフ)の仕組みを作った うえで,未知物体を含めた環境中の物体検出法及び,それらを時間方向に対応付けて拡張時空間 シーングラフを自動的に構築する手法に取り組む.これにより,ロボットによる時空間的に一貫 した環境理解を実現することを目指す.
    今年度は,昨年度に引き続き,未知物体が含まれる画像に対するシーングラフ生成・セグメンテーション技術の高精度化に取り組んだ.また,シーングラフを用いた様々な応用についても検討した.
    まず,シーングラフ生成技術の高精度化について,昨年度構築した評価方法を用いて,提案手法の高度化に取り組んだ.この成果は現在論文投稿中である.一方,未知物体領域のセグメンテーションのために昨年度検討したデータセット構築をもとに構築したデータセット整理し,そのデータセットを用いて,未知物体のセグメンテーションに関する研究を進めた.物体個々にセグメンテーションが可能なパノプティックセグメンテーションと背景モデリング技術を組み合わせ,新規にシーン中に現れた未知物体領域を抽出する技術を提案し,国際会議で発表してBest Paper Awardを受賞した.
    さらに,シーングラフ推定の応用として,画像集合に対する説明文生成手法を提案した.複数枚の画像から得られる情報を統合する目的で,各画像から得られるシーングラフを統合する手法に関する研究を進めた.各画像から得られるシーングラフのノード同士の対応関係をもとにグラフを統合し,一つのグラフを生成する.この際,同一概念の物体を,外部の知識を用いて抽象化することで同一視して統合する方法を提案した.この画像集合に対する説明文生成手法について,国際会議で発表した.
    さらに今年度は国際会議を含む複数の会議で招待講演を行い,その中で本プロジェクトの未知物体を含むシーングラフ生成とその応用に関し,広く紹介した.
    シーングラフを用いた応用研究が広がり,当初の想定よりも多様な応用研究ができた.
    現状用いているシーングラフの統合手法はまだまだ初歩的な技術であり,今後より高度な技術へ発展させる余地がある.特に,Re-identificationの技術を用いた,シーン間の物体対応付けの技術との統合が期待できる.

  4. クラウド上の膨大な画像履歴情報を多様な時空間スケールで活用する超低品質画像の認識

    Grant number:17H00745  2017.4 - 2022.3

    科学研究費助成事業  基盤研究(A)

    村瀬 洋, 目加田 慶人, 井手 一郎, 平山 高嗣, 出口 大輔, 川西 康友

      More details

    Authorship:Coinvestigator(s) 

    本研究の目的は、車載カメラ画像、監視カメラ画像などに見られる超低品質な画像を認識し、ユーザーに結果を適切に情報提示する手法を実現することにある。そこでは「超低品質な画像」の認識が必要となっている。特に、本研究では、機械学習に加えて、「クラウド上の膨大な画像履歴情報を多様な時空間スケールで活用」するアプローチで、超低品質な画像の認識を実現することにある。
    本年度は、以下の成果が得られた。(1) 車載センサーを用いた周囲環境認識においては、
    過去に何度も走ったデータを用いて、車載画像と実際に走行したデータから走行領域を自動的にラベル付けし、これをセマンティックセグメンテーションの学習に用いる手法を提案した。これにより過去の履歴情報から自動的に学習が可能な走路の領域抽出手法を実現し、実験的にその効果を示した。(2) 視認性の推定においては、人間が車両を運転する際には、歩行者、障害物、死角など様々な箇所に着目することが分かっているが、初心者と熟練者での注意の仕方について分析を行った。被験者実験により、熟練になるにしたがって、より遠方の物体に注意を向けることがわかった。(3) 超低品質な監視カメラ画像の認識では、赤外線センサアレイを用いて高齢者などの日常行動を見守るシステムを目的に、このセンサーから得られる超低品質画像から、人間の骨格姿勢を推定する手法を提案した。学習時に、通常カメラと赤外線センサアレイを同時に利用し、様々な姿勢を取得することにより、効率的にDNNを学習する手法を提案し、実験によりその効果を示した。また、監視カメラを用いて、駅構内などで白杖利用者など検出するシステムにおいて、人間の骨格姿勢の動きにより白杖が見えなくても検出できる手法を提案した。また、ふらふら歩きなどの歩行者の異常行動を、人間の骨格姿勢の動きの異常値から検出する手法を提案し、実験によりその有効性を示した。
    低品質な画像を精度よく認識するための手法を目指し、研究を進めている。令和元年度当初の計画通りに、以下の点を達成した。(1)車載センサーを用いた周囲環境認識では、過去の履歴情報から自動的に学習が可能な走路の領域抽出法を提案し、有効性を示した。(2) 視認性の研究に関しては、人間が車両を運転する際の、歩行者、障害物、死角など様々な箇所に着目する特性を初心者、熟練者について分析し、熟練者ほど遠方に注意を払っているという知見を得た。 (3)監視カメラを用いた人物認識においては、赤外線センサアレイからの超低解像度画像からの骨格姿勢推定の実現と、白状利用者などの交通弱者の検出手法を提案し、その有効性を示した。以上の点から、本研究計画はおおむね予定通りに進展している。但し、一部の研究で、論文化がやや遅れているので、この点は今後加速したい。
    低品質な画像を認識する手法を体系的に開発するために、以下の方針で研究を推進する。
    (1) 車載カメラを用いた周囲環境認識では、画像から様々な物体の領域をラベル付けするセマンティックセグメンテーションと、走行中の車載カメラ映像から得られる映像からの形状復元手法を組み合わせることにより、セマンティックセグメンテーションと3次元形状復元の双方の精度を向上する手法を開発する。
    (2) 監視カメラを用いて人物行動を認識する研究においては、日常行動の見守りに適した赤外線センサアレイから得られる超低解像度画像からの骨格姿勢推定の精度をさらに向上させる。また、家庭内支援ロボットなどでは、掴むためにマグカップなどの姿勢推定が必要となるが、前景に何かあることで部分的なオクルージョンが発生する場合でも適用できる姿勢推定手法を開発する。
    (3) 視認性の研究においては、人間が車両を運転する際にどこに視覚的注意を向けるかについて、令和元年度では単純な周囲環境での特性を分析したが、令和2年度では周囲の車両や歩行者などとインタラクションが起こるような複雑な環境において、熟練するにしたがってどのように視覚的注意が変化するかを分析する研究を行う。また、イベント会場などで多数の人がある対象を着目する際に、多数の人の情報を統合することにより対象の3次元的な着目位置を精度良く推定する研究を開始する。
    これら3つの観点から研究を発展させる予定である。

  5. Development of real world activity sensing for formative assessment of group work

    Grant number:16K12786  2016.4 - 2019.3

    Grants-in-Aid for Scientific Research  Grant-in-Aid for Challenging Exploratory Research

    Deguchi Daisuke

      More details

    Authorship:Principal investigator 

    Grant amount:\3510000 ( Direct Cost: \2700000 、 Indirect Cost:\810000 )

    In this research, we developed methods for analyzing the real world group work based on three viewpoints: (i) the level of scene understanding, (ii) the level of attention against the scene, (iii) the level of activities. Here, first person view camera and wearable sensors were used for analyzing these values. In addition, we developed indices for formative assessment of the real world group work through the measurement of two types of non-verbal activities such as the level of attention against the speaker, and the level of activity synchronization.

▼display all

Industrial property rights 2

  1. System that assists in observing a luminal organ using the structure of the luminal organ

    Kensaku Mori, Takayuki Kitasaka, Daisuke Deguchi

     More details

    Application no:12/226,922  Date applied:2007.2

    Patent/Registration no:US8199984  Date registered:2012.6 

    Country of applicant:Foreign country  

  2. 医療画像観察支援装置

    森 健策,北坂 孝幸,出口 大輔

     More details

    Applicant:国立大学法人名古屋大学

    Application no:特願2008-514405  Date applied:2007.2

    Patent/Registration no:4899068  Date registered:2012.1 

    Country of applicant:Domestic  

    本技術の医療画像観察支援装置としてのコンピュータは、CT画像データに基づき、マウス等のポインティングデバイスを有する入力部が指定した管腔臓器の領域情報及び構造情報を抽出し、仮想画像を生成するための視点位置・視線方向を制御する。具体的には、観察位置である視点位置は管腔臓器の長手方向に沿った仮想芯線に沿って移動し、視線方向は視点位置から仮想芯線上に置かれた注視点へ向かう方向として計算される。なお、注視点とは、観察の中心となる点を示し、仮想画像では、この注視点は画像中心に位置することになる。したがって、視点位置から注視点に向かう方向が視線方向となる。そして、画像診断、開腹手術、内視鏡下手術前、あるいは内視鏡下手術中に管腔臓器の配置状況を、仮想画像により表示手段としてのモニタに表示し、画像診断、手術の支援を行う。

 

Teaching Experience (On-campus) 17

  1. オブジェクト指向言語及び演習

    2019

  2. 人工知能システム

    2019

  3. オブジェクト指向言語及び演習

    2018

  4. 人工知能システム

    2017

  5. 線形代数I

    2016

▼display all