米谷 竜(よねたに りょう)

情報科学分野において,主にコンピュータビジョンの研究に従事しています.出身は広島,大学生活を京都で送り,現在は東京大学の生産技術研究所(駒場にあります)で助教をしています.

学歴

  • 博士(情報学)
  • H25.11 京都大学 大学院情報学研究科 知能情報学専攻 博士課程 期間短縮修了
    • “Modeling Spatiotemporal Correlations between Video Saliency and Gaze Dynamics”(主査: 松山隆司先生)
  • H23.3 京都大学 大学院情報学研究科 知能情報学専攻 修士課程 修了
    • 「映像の顕著性変動と視線運動の時空間相関分析に基づいた集中度推定」(主査: 松山隆司先生)
  • H21.3 京都大学 電気電子工学科 卒業
    • 「提示イベントと眼球動作との同期構造分析に基づく注視対象推定」(指導教員: 松山隆司先生)

職位

  • H26-現在 東京大学生産技術研究所 助教
  • H28-H29 Visiting Scholar at Carnegie Mellon University, Robotics Institute
  • H24-H26 日本学術振興会特別研究員(DC2/PD)
  • H23-H24 京都大学グローバルCOEリサーチアシスタント

受賞

本人によるもの

  • CVPR2017 Outstanding Reviewer, IEEE Conference on Computer Vision and Pattern Recognition, 2017
  • 山下記念研究賞, 情報処理学会, 2016
  • 情報・システムソサイエティ論文賞, 電子情報通信学会, 2014
  • H25 PRMU研究奨励賞, 電子情報通信学会パターン認識とメディア理解研究会, 2014
  • MIRU優秀学生論文賞, 画像の認識と理解シンポジウム, 2012
  • IBM Best Student Paper Award (Track IV: Biometrics and Human Computer Interaction), International Conference on Pattern Recognition, 2010

共著学生によるもの

  • 杉田祐樹, インタラクティブ発表賞, インタラクション2017, 2017
  • 村上晋太郎, CVIM奨励賞, 情報処理学会コンピュータビジョンとイメージメディア研究会, 2016
  • 樋口未来, CVIM奨励賞, 情報処理学会コンピュータビジョンとイメージメディア研究会, 2016

研究助成

代表者

  • JST戦略的創造研究推進事業(ACT-I), “プライバシー保護一人称ビジョン”, 2016 - 現在
  • 生産技術研究奨励会特定研究奨励助成, “一人称視点映像の共通注目シーン解析”, 2016 - 2017
  • 科学研究費補助金若手研究B, “映像コンテンツの顕著性変動解析による特徴ベース視線推定”, 2015 - 2017
  • 栢森情報科学振興財団助成, “複数装着型カメラ映像からのインタラクション認識技術の開発”, 2015 - 2017
  • 大川情報通信基金研究助成, “ディスプレイを高原として用いた視線計測技術に関する研究”, 2015 - 2016
  • 日本学術振興会特別研究員研究助成, “時区間ハイブリッドダイナミカルシステムを用いた心の分析とモデル化”, 2012-2014

共同研究者, 研究協力者

  • JST戦略的創造研究推進事業(CREST), “集合視による注視・行動解析に基づくライフイノベーション創出”(代表: 佐藤洋一), 2014 - 現在
  • JST戦略的国際共同研究プログラム(SICORP), “多様なカメラを活用した群衆行動の変化検出”(代表: 佐藤洋一), 2016 - 現在

学会活動

  • 情報処理学会 論文誌ジャーナル/JIP編集委員会 編集委員(2017-)
  • Program Chair @ International Workshop on Human Activity Analysis with Highly Diverse Cameras (HDC2017) at WACV2017
  • Organizing Committee Member @ IAPR International Conference on Machine Vision and Applications (MVA2017)
  • Sponsorship Chair @ International Conference on Multimodal Interaction (ICMI2016)
  • 情報処理学会コンピュータビジョンとイメージメディア(CVIM)研究会 運営委員, 2014 - 現在
  • Reviewer @ CVPR (2015, 2016, 2017, 2018), ECCV (2014, 2016), ICCV (2015, 2017), ACCV (2014, 2016), CHI (2017), ICPR (2014, 2018), TPAMI, IJCV, etc.

招待講演,講義

  • 一人称ビジョン, 人工知能とメディア, はこだて未来大学, 2017
  • 一人称視点映像解析の最先端, 画像の認識・理解シンポジウム, 2016
  • Recognizing Micro-Actions and Reactions from Paired Egocentric Videos, 画像の認識・理解シンポジウム, 2016
  • Ego-Surfing First-Person Videos, 画像の認識・理解シンポジウム, 2015

発表論文

DBLP | Google Scholar | CiNii

査読付き雑誌論文

  • Ryo Yonetani, Kris Kitani, Yoichi Sato: “Ego-Surfing: Person Localization in First-Person Videos Using Ego-Motion Signatures”, IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI) (accepted)
  • 下西慶, 石川惠理奈, 米谷竜, 川嶋宏彰, 松山隆司: “視線運動解析による興味アスペクトの推定”, ヒューマンインタフェース学会論文誌, Vol.16, No2, pp.103-114, 2014
  • Akisato Kimura, Ryo Yonetani, Takatsugu Hirayama: “Computational Models of Human Visual Attention and Their Implementations: A Survey”, IEICE Transactions on Information and Systems, E96-D(3), pp.562-578, 2013
  • Ryo Yonetani, Hiroaki Kawashima, Takashi Matsuyama: Learning Spatiotemporal Gaps between Where We Look and What We Focus on”, IPSJ Transactions on Computer Vision and Applications, 5, pp. 75-79, 2013
  • 米谷竜, 川嶋宏彰, 加藤丈和, 松山隆司: “映像の顕著性変動モデルを用いた視聴者の集中状態推定, 電子情報通信学会論文誌, J96-D(8), pp.1675-1687, 2013(第15回 画像の認識・理解シンポジウム推薦論文)
  • Ryo Yonetani, Hiroaki Kawashima, Takatsugu Hirayama, Takashi Matsuyama: “Mental Focus Analysis Using the Spatio-temporal Correlation between Visual Saliency and Eye Movements”, 情報処理学会論文誌, Vol. 52, No. 12, 2011
  • 石川惠理奈, 米谷竜, 平山高嗣, 松山隆司: “Gaze Mirroringによる注視模倣効果の分析”, 情報処理学会論文誌, Vol.52, No.12, pp3637-3646, 2011
  • 米谷竜, 川嶋宏彰, 平山高嗣, 松山隆司: “Gaze Probing: イベント提示に基づく注視オブジェクト推定”, ヒューマンインタフェース学会論文誌, Vol.12, No.3, pp. 125-135, 2010

査読付き会議論文

  • Keita Higuchi, Ryo Yonetani, Yoichi Sato: “EgoScanning: Quickly Scanning First-Person Videos with Egocentric Elastic Timelines”, ACM SIGGRAPH Asia (SIGGRAPH ASIA 2017) Emerging Technologies, Bangkok, Nov 2017.
  • Ryo Yonetani, Vishnu Naresh Boddeti, Kris M. Kitani, Yoichi Sato: “Privacy-Preserving Visual Learning Using Doubly Permuted Homomorphic Encryption”, Internationl Conference on Computer Vision (ICCV2017), 2017
  • Yifei Huang, Minjie Cai, Hiroshi Kera, Ryo Yonetani, Keita Higuchi, Yoichi Sato: “Temporal Localization and Spatial Segmentation of Joint Attention in Multiple First-Person Video”, International Workshop on Egocentric Perception, Interaction, and Computing (EPIC2017), 2017
  • Rie Kamikubo, Keita Higuchi, Ryo Yonetani, Hideki Koike, Yoichi Sato: “Rapid Prototyping of Accessible Interfaces with Gaze- Contiguent Tunnel Vision Simulation”, ACM SIGACCESS International Conference on Computers and Accessibility (ASSETS 2017), 2017.
  • Keita Higuchi, Ryo Yonetani, Yoichi Sato: “EgoScanning: Quickly Scanning First-Person Videos with Egocentric Elastic Timelines”: ACM Conference on Human Factors in Computing Systems (CHI2017), 2017
  • Ryo Yonetani, Kris Kitani, Yoichi Sato: “Visual Motif Discovery via First-Person Vision”, European Conference on Computer Vision (ECCV2016), Amsterdam, Netherlands, Oct 2016
  • Hiroshi Kera, Ryo Yonetani, Keita Higuchi, Yoichi Sato: “Discovering Objects of Joint Attention via First-Person Sensing”, IEEE CVPR Workshop on Egocentric (First-Person) Vision (EGOV2016), 2016
  • Ryo Yonetani, Kris Kitani, Yoichi Sato: “Recognizing Micro-Actions and Reactions from Paired Egocentric Videos”: IEEE Conference on Computer Vision and Pattern Recognition (CVPR2016), 2016
  • Keita Higuchi, Ryo Yonetani, Yoichi Sato: “Can Eye Help You?: Effects of Visualizing Eye Fixations on Remote Collaboration Scenarios for Physical Tasks”: ACM Conference on Human Factors in Computing Systems (CHI2016), 2016
  • Ryo Yonetani, Kris Kitani, Yoichi Sato: “Ego-Surfing First-Person Videos”: IEEE Conference on Computer Vision and Pattern Recognition (CVPR2015), 2015
  • Kei Shimonishi, Hiroaki Kawashima, Ryo Yonetani, Erina Ishikawa, Takashi Matsuyama: “Learning Aspects of Interest from Gaze”, ICMI Workshop on Eye Gaze in Intelligent Human Machine Interaction: Gaze in Multimodal Interaction (GazeIn13), 2013
  • Ryo Yonetani, Hiroaki Kawashima, Takashi Matsuyama: “Predicting Where We Look from Spatiotemporal Gaps”, International Conference on Multimodal Interaction (ICMI2013), 2013
  • Ryo Yonetani: “Modeling Video Viewing Behaviors for Viewer State Estimation”: ACM Multimedia Doctoral Symposium (ACMMM2012DS), 2012
  • Erina Ishikawa, Ryo Yonetani, Hiroaki Kawashima, Takatsugu Hirayama, Takashi Matsuyama: “Semantic Interpretation of Eye Movements Using Designed Structures of Displayed Contents”, ICMI Workshop on Eye Gaze in Intelligent Human Machine Interaction: Eye Gaze, Multimodality (GazeIn12), 2012
  • Ryo Yonetani, Akisato Kimura, Hitoshi Sakano, Ken Fukuchi: “Single Image Segmentation with Estimated Depth”, British Machine Vision Conference (BMVC2012), 2012
  • Ryo Yonetani, Hiroaki Kawashima, Takashi Matsuyama: “Multi-mode Saliency Dynamics Model for Analyzing Gaze and Attention”: Eye Tracking Research & Applications (ETRA2012), 2012
  • Ryo Yonetani, Hiroaki Kawashima, Takatsugu Hirayama, Takashi Matsuyama: “Gaze Probing: Event-Based Estimation of Objects Being Focused On”, International Conference on Pattern Recognition (ICPR2010), 2010 (IBM Best Student Paper Award)

査読なし会議論文

  • 粥川青汰, 樋口啓太, 中村優文, 米谷竜, 佐藤洋一, 森島繁生, ”一人称視点動画の高速閲覧に有効なキューの自動生成手法”, インタラクティブシステムとソフトウェアに関するワークショップ(WISS 2017), 2017
  • 粥川青汰, 樋口啓太, 中村優文, 米谷竜, 佐藤洋一, 森島繁生, ”物体検出とユーザ入力に基づく一人称視点映像の高速閲覧手法”, 情報処理学会コンピュータビジョンとイメージメディア研究会, 2017.
  • Yifei Huang, Minjie Cai, Hiroshi Kera, Ryo Yonetani, Keita Higuchi, Yoichi Sato: “Spatial-temporal Segmentation of Joint Attention in Multiple First-Person Videos”, 第20回 画像の認識理解シンポジウム(MIRU), 2017
  • Ryo Yonetani, Vishnu N. Boddeti, Kris M. Kitani and Yoichi Sato: “Privacy-preserving visual learning using doubly permuted homomorphic encryption”, First International Workshop on The Bright and Dark Sides of Computer Vision: Challenges and Opportunities for Privacy and Security (CV-COPS 2017), 2017
  • 杉田祐樹, 樋口啓太, 米谷竜, 佐藤洋一: “複数一人称視点映像閲覧における行動空間とカメラ位置姿勢の3次元可視化による効果”, 情報処理学会シンポジウム インタラクション2017, 2017(インタラクティブ発表賞)
  • 中野雄介, 米谷竜, 樋口啓太, 佐藤洋一: “視線を考慮した一人称視点映像からの頷き検出”, 電子情報通信学会総合大会, 2017
  • 杉田祐樹, 樋口啓太, 米谷竜, 佐藤洋一: “複数一人称視点映像閲覧における行動空間とカメラ位置姿勢の3次元可視化による効果”, 情報処理学会ヒューマンコンピュータインタラクション研究会, 2017
  • 樋口啓太, 米谷竜, 佐藤洋一: “伸縮タイムライン生成による一人称視点映像の高速閲覧支援”, 第24回インタラクティブシステムとソフトウェアに関するワークショップ(WISS 2016), 2016
  • 樋口未来, 米谷竜, 木谷クリス, 佐藤洋一: “一人称視点映像を用いたランキング学習による相対的地位の推定”, 情報処理学会コンピュータビジョンとイメージメディア研究会, 2016(情報処理学会CVIM研究会奨励賞)
  • Hiroshi Kera, Ryo Yonetani, Keita Higuchi, Yoichi Sato: “Discovering Objects of Joint Attention via First-Person Sensing”, 第19回 画像の認識理解シンポジウム(MIRU),2016
  • 樋口啓太, 米谷竜, 佐藤洋一: “手の動作に基づく複数一人称視点作業映像のアラインメント”, 情報処理学会コンピュータビジョンとイメージメディア研究会, 2016
  • 松本大輝, 米谷竜, 佐藤洋一: “滑動性眼球運動を用いた視線計測の自動校正”, 情報処理学会コンピュータビジョンとイメージメディア研究会, 2016
  • 村上晋太郎, 米谷竜, 佐藤洋一: “視線を利用した二人称視点動作認識”, 情報処理学会コンピュータビジョンとイメージメディア研究会, 2016(情報処理学会CVIM研究会奨励賞)
  • Ryo Yonetani, Kris Kitani, Yoichi Sato: “Ego-Surfing First-Person Videos”, 第18回 画像の認識理解シンポジウム(MIRU),2015
  • 松本 大輝, 米谷 竜, 佐藤 洋一, “滑動性眼球運動を用いた視線計測の自動校正”, 第18回 画像の認識理解シンポジウム(MIRU),2015
  • 杉田 祐樹, 米谷 竜, 佐藤 洋一, “一人称視点映像における視線情報を活用した自己アクティビティ認識”, 第18回 画像の認識理解シンポジウム(MIRU),2015
  • 樋口 未来, 木谷 クリス 真実, 米谷 竜, 佐藤 洋一, “一人称視点映像を用いた話者間の相対的地位の推定”, 第18回 画像の認識理解シンポジウム(MIRU),2015
  • 樋口啓太, 米谷竜, 佐藤洋一: “遠隔作業支援シナリオにおける注視位置可視化の効果”, 第23回インタラクティブシステムとソフトウェアに関するワークショップ (WISS 2015), 2015
  • 神窪利絵, 樋口啓太, 米谷竜, 小池英樹, 佐藤洋一: “弱視者のための視線計測を用いたウェブアクセシビリティの向上”, 電子情報通信学会福祉情報工学研究会, 信学技報WIT2015-75, 2015
  • Ryo Yonetani, Hiroaki Kawashima, and Takashi Matsuyama: Modeling Spatiotemporal Correlations between Video Saliency and Gaze Dynamics”, 研究報告コンピュータビジョンとイメージメディア(CVIM), 2014-CVIM-192(32), pp. 1-16, 2014
  • 米谷竜, 川嶋宏彰, 松山隆司: “映像閲覧行動の時空間ずれ構造モデルを用いた注視点予測”, 信学技報, vol. 113, no. 196, PRMU2013-41, pp. 57-62, 2013(2013年度PRMU研究奨励賞)
  • Ryo Yonetani, Hiroaki Kawashima, Takashi Matsuyama: “Learning Spatiotemporal Gaps between Where We Look and What We Focus on”, 第16回 画像の認識理解シンポジウム(MIRU), 2013
  • 下西慶, 川嶋宏彰, 米谷竜, 松山隆司: “視線運動解析による興味アスペクトの推定”, 信学技報, vol. 113, no. 75, PRMU2013-28, pp. 53-58, 2013
  • 石川惠理奈, 米谷竜, 川嶋宏彰, 平山高嗣, 松山隆司: “提示コンテンツのデザイン構造を用いた視線運動の意味理解”, 電子情報通信学会技術報告, PRMU2012-60, vol. 112, no. 225, pp.47-52, 2012
  • 米谷竜, 川嶋宏彰, 加藤丈和, 松山隆司: “映像の顕著性変動モデルを用いた視聴者の集中状態推定”, 第15回 画像の認識・理解シンポジウム (MIRU2012), 2012(MIRU優秀学生論文賞)
  • 石川惠理奈, 米谷竜, 平山高嗣, 松山隆司: “Gaze Mirroringによる注視模倣効果の分析”, ヒューマンインタフェースシンポジウム2011, pp.561-566, 2011
  • 米谷竜, 川嶋宏彰, 平山高嗣, 松山隆司: “映像の顕著性変動と視線運動の時空間相関分析に基づいた集中状態推定”, 情報処理学会研究会資料, CVIM178-16, 2011
  • 米谷竜, 川嶋宏彰, 平山高嗣, 松山隆司: “注視オブジェクト推定のための動的コンテンツデザインとその評価”, 情報処理学会創立50周年記念(第72回)全国大会, 32N-1, pp. 5-141-142, 2010
  • 米谷竜, 川嶋宏彰, 平山高嗣, 松山隆司: “Gaze Probing, “イベント提示に基づく注視対象推定”, 第12回画像の認識・理解シンポジウム (MIRU2009), pp.1713-1720, 2009
  • 米谷竜, 川嶋宏彰, 平山高嗣, 松山隆司: “提示イベントと眼球動作との同期構造分析に基づく注視対象推定”, 情報処理学会研究会資料 CVIM 167-16, 2009

特許

  • 近藤 敏之, 奥野 英一, 安部 克則, 蜂須賀 啓介, 佐藤 洋一, 米谷 竜, 菅野 裕介, 岡 晃平, 杉本 晃宏: “注視誘導装置”, 特願2014-219450, 2014年10月28日
  • 坂田 幸太郎, 前田 茂則, 米谷 竜, 川嶋 宏彰, 平山 高嗣, 松山 隆司: “関心度推定装置および関心度推定方法”, JP2012000508, 2012年1月26日
  • 坂田 幸太郎, 前田 茂則, 米谷 竜, 川嶋 宏彰, 平山 高嗣, 松山 隆司: “関心度推定装置および関心度推定方法”, 特願2012-535534, 2012年1月26日
  • 木村 昭悟, 坂野 鋭, 米谷 竜: “物体領域検出装置, 方法, 及びプログラム”, 特願2012-002544, 2012年1月10日