43 AIチャレンジ研究会予稿集 (SIG-Challenge)



09:40-10:40    招待講演:音声・画像・映像におけるDeep Learningを用いたパターン認識

○篠田 浩一(東京工業大学)

音声・画像・映像などのメディアにおけるパターン認識技術におけるDeep Learningなどの最新技術を紹介する

10:40-11:00    Robust Dereverberation Adaptive to Speaker's Face Orientation

Randy Gomez, Keisuke Nakamura, Takeshi Mizumoto, Kazuhiro Nakadai (Honda Research Institute Japan Co., Ltd.)

The change in face orientation is compensated via a filtering mechanism that captures the room acoustics for effective dereverberation.

11:00-11:20    音環境知能技術を活用した聴覚支援システムのプロトタイプの開発

○石井 カルロス寿憲,劉 超然,Jani Even (ATR)

音環境知能技術を活用し、環境内の音を取捨選択でき、選択された音に対する空間的感覚を再構築できる聴覚支援システムのプロトタイプの開発について進捗を報告する。

11:20-11:30    break

11:30-11:50    Coarse-to-Fine チューニングを用いたHARKの音源定位パラメータの最適化

○杉山 治1,小島 諒介1,中臺 一博1,2

1. 東京工業大学 2. () ホンダ・リサーチ・インスティチュート・ジャパン

本研究ではオープンソースロボット聴覚ソフトHARKの音源定位におけるパラメータを最適化するためのインタフェースを提案する.

 

11:50-12:10    身体的拘束に基づく音声駆動体幹動作生成システム

○境 くりま1,2,港 隆史2,石井 カルロス寿憲2,石黒 浩1,2

1. 大阪大学 2. ATR

人間が発話している際の身体的拘束に基づいて,ロボットの発話に同期した体幹動作(頷きなど)を自動で生成するシステムを提案する.

12:10-13:20    昼休み

13:20-14:30    【合同企画】優秀賞記念講演(シンポジウムスペース)

14:50-15:10    Using Sensor Network for Android gaze control

Jani Even, Carlos Ishi, Hiroshi Ishiguro (ATR-HIL)

This paper presents the approach developed for controlling the gaze of an android robot. A sensor network composed of RGB-D cameras and microphone arrays is in charge of tracking the person interacting with the android and determining the speech activity. The information provided by the sensor network makes it possible for the robot to establish eye contact with the person. A subjective evaluation of the performance is made by subjects that were interacting with the android robot.

15:10-15:30    小型クアドロコプタの群を用いたコンセンサスに基づく音源定位

○中村 圭佑1,ラナシナパヤ2,中臺 一博1,高橋 秀幸2,木下 哲男2

1. () ホンダ・リサーチ・インスティチュート・ジャパン 2. 東北大学

本稿では単独マイクを搭載した小型クアドロコプタの群を用いて自己位置を推定しながら環境中の音源を定位する手法を紹介する。

15:30-15:50    複数移動ロボットによる協調音源分離のための分離精度予測を用いた配置最適化

○関口 航平,坂東 昭宜,糸山 克寿,吉井 和佳(京都大学)

複数台の移動ロボットを用いた協調音源分離を実現するため,分離精度を予測することで各ロボットの配置を最適化する.

15:50-16:00    break

16:00-17:00    招待講演:ビッグデータ解析とクラウドソーシング(中会議室)

鹿島 久嗣(京都大学)

機械学習をはじめとするデータ解析技術の進歩が実世界において様々なブレークスルーを起こしている一方で、ビッグデータの解析や処理のプロセスはいまだ極めて労働集約的であり、これらを行う人手をいかに調達するかが重要な課題である。この人的ボトルネックの問題を解消するための有望なアプローチの一つとしてクラウドソーシングの考え方が注目されている。クラウドソーシングを利用して人間による判断や処理をプロセスに組み込むことによって、機械だけでは解決できない、いわゆる「データの外側」 を人間の知識や判断によって補うことが可能となる。本講演ではビッグデータ解析・処理をクラウドソーシングで実現するための要素技術となる品質保証技術、クラウドソーシングで収集したデータからの機械学習、クラウドソーシングを利用したデータモデリング事例などを紹介するとともに、セキュリティやプライバシー、人間と機械の協働問題解決といった今後の課題についても述べる。

17:00-17:20    凧型無人航空機を用いた音源探査

○公文 誠,田嶋 脩一,永吉 駿人(熊本大学)

凧型の主翼を持つ無人航空機を用いて地上の音源を探査法について、飛行方法と制御方法の2点を提案する。

17:20-17:40    複数のマイクロホンアレイとロボット聴覚ソフトウエアHARKを用いた野鳥の観測精度の検討

○松林 志保1,小島 諒介2,中臺 一博2,3,鈴木 麗璽1

1. 名古屋大学 2. 東京工業大学3. () ホンダ・リサーチ・インスティチュート・ジャパン

本稿では、複数のマイクロホンアレイとHARKを用いた野鳥の位置推定結果を人間による観測結果と比較し、その精度を調べた

17:40-18:00    HARK SaaS: ロボット聴覚ソフトウェア HARK のクラウドサービスの設計と開発

○水本 武志,中臺 一博(() ホンダ・リサーチ・インスティチュート・ジャパン)

音源定位・分離などのロボット聴覚技術を実装したソフトウェア HARK をクラウドサービス化した HARK SaaS について報告する。


公知日について

公知日は 2015/11/11 となります。

リンク

人工知能学会 AI チャレンジ研究会

Copyright (c) 2015, 人工知能学会 AI チャレンジ研究会.