ココモ法使い方

<ウェブサイト名>

<現在の時刻>

出典: 標準

立命館大学 研究者学術情報データベース English>> TOPページ TOPページ > 村尾 和哉 (最終更新日 : 2023-04-03 13:46:05) ムラオ カズヤ 村尾 和哉 MURAO KAZUYA 所属 情報理工学部 情報理工学科 職名 教授 業績 その他所属 プロフィール 学歴 職歴 委員会・協会等 所属学会 資格・免許 研究テーマ 研究概要 研究概要(関連画像) 現在の専門分野 研究 著書 論文 その他 学会発表 その他研究活動 講師・講演 受賞学術賞 科学研究費助成事業 競争的資金等(科研費を除く) 共同・受託研究実績 取得特許 研究高度化推進制度 教育 授業科目 教育活動 社会活動 社会における活動 研究交流希望テーマ その他 研究者からのメッセージ ホームページ メールアドレス 科研費研究者番号 researchmap研究者コード 外部研究者ID その他所属 1. 情報理工学研究科   2. 総合科学技術研究機構 知能化社会デザイン研究センター   学歴 1. 2010/03(学位取得) 大阪大学 博士(情報科学) 2. 2008/03(学位取得) 大阪大学 修士(情報科学) 3. ~2006/03 大阪大学 工学部 電子情報エネルギー工学科 卒業 4. ~2008/03 大阪大学大学院 情報科学研究科 マルチメディア工学専攻 博士前期課程 修了 5. ~2010/03 大阪大学大学院 情報科学研究科 マルチメディア工学専攻 博士後期課程 修了 職歴 1. 2023/04/01 ~ 立命館大学 情報理工学部 教授 2. 2019/10/01 ~ 2023/03/31 科学技術振興機構 さきがけ研究員(兼任) 3. 2017/04/01 ~ 2023/03/31 立命館大学 情報理工学部 准教授 4. 2014/04/01 ~ 2017/03/31 立命館大学 情報理工学部 助教 5. 2011/09/01 ~ 2014/03/31 神戸大学大学院 工学研究科 助教 全件表示(8件) 委員会・協会等 1. 2019/06 ~ 2021/05 NPO法人ウェアラブルコンピュータ研究開発機構 理事 2. 2019/06 ~ 2021/05 情報処理学会 新世代企画委員会委員 3. 2019/04 情報処理学会 ヒューマンコンピュータインタラクション研究会幹事 4. 2018/04 ヒューマンインタフェース学会 論文誌編集委員会委員 5. 2018/04 情報処理学会 モバイルコンピューティングとパーベイシブシステム研究会運営委員 全件表示(12件) 所属学会 1. ACM 2. IEEE 3. ヒューマンインタフェース学会 4. 情報処理学会 研究概要 私の研究分野はユビキタスコンピューティング,モバイルコンピューティング,ウェアラブルコンピューティング,行動認識です.センサを用いてユーザや周囲の環境を認識し,ユーザが快適に生活することを目的に研究しています. 現在の専門分野 計算機システム, マルチメディア・データベース, ヒューマンインターフェース・インタラクション (キーワード:ユビキタスコンピューティング,モバイルコンピューティング,ウェアラブルコンピューティング,行動認識) 著書 1. 2018/03 Mobile Computing, Applications, and Services - 9th International Conference, MobiCASE 2018, Lecture Notes of the Institute for Computer Sciences, Social Informatics and Telecommunications Engineering 240 │ (共著)   2. 2016/03 モバイルネットワーク │ ,15章 (共著)   3. 2010/03 ウェアラブルコンピューティングのための行動認識技術に関する研究 │ (単著)   4. 2010 Toward Construction of Wearable Sensing Environments, Book Chapter, (Eds. T. Hara, V.I. Zadorozhny,and E. Buchmann), Wireless Sensor Network Technologies for Information Explosion Era (Book Series: Studies in Computational Intelligence) │ ,207-230 (共著)   論文 1. 2022/05 Augmenting Ear Accessories for Facial Gesture Input using Infrared Distance Sensor Array │ MDPI electronics │ 11 (9),1480-1480頁 (共著)   2. 2022/05 Exploring Eyeball Movement Gesture Recognition Method for Hands-Free Input using Eyewear with Infrared Distance Sensor Array │ MDPI electronics │ 11 (10),1637-1637頁 (共著)   3. 2022/01 Load Position Estimation Method for Wearable Devices Based on Difference in Pulse Wave Arrival Time │ MDPI Sensors │ 22 (3),1090 (共著)   4. 2021 Three-year Review of the 2018-2020 SHL Challenge on Transportation and Locomotion Mode Recognition from Mobile Sensors │ frontiers │ (共著)   5. 2019/03 A Method for Structuring Meeting Logs using Wearable Sensors │ Elsevier Journal (Internet of Things: Engineering Cyber Physical Human Systems) │ (5),140-152 (共著)   全件表示(27件) 学会発表 1. 2019/09/12 A Method to Recognize Entering and Leaving Person Based on Door Opening and Closing Movement using Angular Velocity Sensor (in Adjunct Proc. of The ACM International Joint Conference on Pervasive and Ubiquitous Computing (UbiComp 2019)) 2. 2019/09/12 Construction of a Device that Automatically Generates Various Touch Interactions (in Adjunct Proc. of The ACM International Joint Conference on Pervasive and Ubiquitous Computing (UbiComp 2019)) 3. 2019/09/12 Data Transmission Method using Touch Generation Device for Multi-touch Display (in Adjunct Proc. of The ACM International Joint Conference on Pervasive and Ubiquitous Computing (UbiComp 2019)) 4. 2019/09/10 7th International Workshop on HumanActivity Sensing Corpus andApplications (HASCA) (in Proc. of the 7th International Workshop on Human Activity Sensing Corpus and Application (HASCA2019)) 5. 2019/09/10 Automatic Annotation for Human Activity and Device State Recognition using Smartphone Notification (in Proc. of the 7th International Workshop on Human Activity Sensing Corpus and Application (HASCA2019)) 全件表示(216件) 受賞学術賞 1. 2020/06 IPSJ/IEEE-Computer Society IPSJ/IEEE-Computer Society Young Computer Researcher Award 2. 2019/09 ACM The 23rd International Symposium on Wearable Computers (ISWC 2019), Best paper (Estimating Load Positions of Wearable Sensors based on Difference in Pulse Wave Arrival Time) 3. 2018/09 情報処理学会 情報処理学会第59回ユビキタスコンピューティングシステム研究会,優秀論文 4. 2018/01 Information Processing Society of Japan Specially Selected Paper 5. 2017/12 計測自動制御学会 第18回計測自動制御学会システムインテグレーション部門講演会優秀講演賞 (Preliminary Analysis of Realtime Classification of Feeding Activity for the Streaked Shearwater) 全件表示(17件) 科学研究費助成事業 1. 2019/04 ~ 2022/03 大学横断型統一実験プロトコルに基づくセンサ利活用の教育ビッグデータ収集 │ 基盤研究(B)   2. 2017/04 ~ 2018/03 土地鑑のない状況における経路情報収集過程の抽出 │ 新学術領域研究   3. 2015/04 ~ 2018/03 非電化製品のセンサ化による住宅住人管理・制御システムの構築 │ 基盤研究(B)   4. 2012/04 ~ 2016/03 赤外線人感センサを用いた住宅管理・制御システムの構築 │ 若手研究(B)   5. 2009/04 ~ 2011/03 ウェアラブルコンピューティングのための行動認識技術に関する研究 │ 特別研究員奨励費   競争的資金等(科研費を除く) 1. 2019/10 ~ 2023/03 生体情報操作を活用したウェアラブルセンシング基盤の拡張 │ 競争的資金等の外部資金による研究 │ 戦略的創造研究推進事業さきがけ   2. 2019 ~ 2020 身体装着位置に応じて機能を適応的に変化させるためのデバイス自己位置推定手法 │ 競争的資金等の外部資金による研究 │ 2019年度学術・研究助成   3. 2017/10 ~ 2019/03 システムからの通知にユーザが対応できないことを利用したセンサデータのアノテーション │ 競争的資金等の外部資金による研究 │ 国立開発法人科学技術振興機構(JST) 戦略的創造研究推進事業(ACT-I)   4. 2016/01 ~ 2018/03 ウェアラブルセンサを用いたジェスチャ認識システム │ 競争的資金等の外部資金による研究 │ 公益財団法人栢森情報科学振興財団第20回(平成27年度)研究助成   5. 2014/04 ~ 2015/03 行動認識のためのセンシングデータ自動アノテーション手法 │ 競争的資金等の外部資金による研究 │ 公益財団法人大川情報通信基金2014年度研究助成   全件表示(7件) 共同・受託研究実績 1. 2018 ~ 2019/03 在宅高齢者見守りシステムの試作開発と運用検証 │ 受託研究 2. 2013 ~ 2014/03 スマートフォンセンサデータを用いたPT調査の可能性検証 │ 受託研究 3. 2013 ~ 2014/03 スマートフォン搭載センサを利用したユーザ行動支援方式の研究 │ 共同研究 4. 2013 ~ 2014/03 複合センシング情報に基づく人の行動把握の研究 │ 受託研究 5. 2012 ~ 2013/03 複合センシング情報に基づく人の行動把握の研究 │ 受託研究 取得特許 1. 動作認識システム及び動作認識方法 (特開2015-132877) 2. 文字入力システム、辞書データ、及びコンピュータプログラム (特開2016-085516) 3. 2020/04 データ送信システム、データ受信システム、データ送信方法、及び、データ受信方法 (特願2020-75713) 教育活動 ●教育に関する発表 1. 2018/08 ~ 2018/08 立命館大学オープンキャンパスミニ模擬講義 ●その他教育活動上特記すべき事項 1. 2015/06 ~ 2015/06 高校等の模擬講義: 立命館宇治中学体験講座 ホームページ 個人ホームページ 立命館大学 知的インタラクティブシステム研究室 メールアドレス 外部研究者ID ORCID ID 0000-0002-3777-8399 © Ritsumeikan Univ. All rights reserved.

人気抜群【スポーツベットアイオー 評判】は? 🎮 Eスポーツを満喫 べっとちゃんねる ラッキールーレット,1BTCの賞金を勝ち取る!188bet 麻雀aw ... 人気抜群【スポーツベットアイオー 評判】は? 🎮 Eスポーツを満喫
Copyright ©ココモ法使い方 The Paper All rights reserved.