************************************************** 第20回AIチャレンジ研究会 プログラム ************************************************** AIチャレンジ研究会(人工知能学会第二種研究会)では,日本ロボット学会 ロボット聴覚研究専門委員会および京都大学21世紀COEとの共催で、第20回 研究会を開催致しますので,参加者を募集します. 本研究会への登録や本研究会での発表は,人工知能学会の会員,非会員を 問わずどなたでもできます.ただし,準備の都合がございますので, 参加を御希望の方は11月28日(金)までに okuno@i.kyoto-u.ac.jp にメイルで, Subject: SIG-Challenge Participation として,お申し込み下さい.もちろん,飛び込み参加も可能です. 日時: 2004年12月6日 (月) 10:00〜17:30 場所: 京都大学工学部 8号館 2階 中会議室 テーマ: ロボット聴覚・音環境理解 (聴覚による情景分析)、 ロボット聴覚機能のための音響技術、 音声に限らず音一般の知覚・理解 参加費: 本研究会登録会員: 無料 (年間会費 4,000円)     その他:一般 2,000円, 学生 1,000円 問い合わせ先: 京都大学大学院 情報学研究科 知能情報学専攻 〒606-8501 京都市左京区吉田本町 電話: (075) 753-5376 FAX: (075) 753-5977 奥乃 博 okuno@i.kyoto-u.ac.jp http://winnie.kuis.kyoto-u.ac.jp/SIG-Challenge/ プログラム: -------------------------------------------------- 10:00 - 10:10 挨拶 人工知能学会AIチャレンジ研究会主査 奥乃博 (京都大学) 10:10 - 11:10 基調講演 「マイクロホンアレイを用いた移動音源の追跡と分離について」 浅野太,麻生英樹 (AIST) 移動音源に対して,マイクロホンアレイを用いて,音源定位や音源分離をする 場合,準定常とみなせる区間が短く,十分な統計量が得られないため,従来の 静止音源で有効な手法をそのまま適用することができない.本稿では,著者ら が検討している,EMアルゴリズムやKalman filter,particle filterなどの手 法を用いた手法を簡単に紹介し,今後の展望を考える. ** 定位・分離 *** 11:10 - 11:40 「128チャンネルスピーカーアレイによるサウンドスポット形成」 溝口博(東理大, AIST)、玉井裕樹(東理大, AIST)、加賀美聡(AIST, 東理大)、 鳥羽高清(東理大)、長嶋功一(R-lab, Inc.)、高野太刀雄(AIST) HAL-2000ライクな環境型ロボットの音声インタフェースを想定して、 多チャンネルスピーカーアレイによる選択的音声伝送に取り組んでいる。 これまでに、4列×32個のスピーカーから成る128チャンネルのアレイ を構築し、スポット状の小さな領域に高音圧を形成することに成功した。 しかも、スポットは1ヶに限定せず、同時に複数個形成することにも成功 した。本発表では構築したスピーカーアレイの実現技術とスポット形成 技術について紹介する。 11:40 - 12:10 「ロボットによる音源定位のための人工耳介」 公文誠、下田倫子、神澤龍市、水本郁朗、岩井善太(熊本大学) 著者らは、2つのマイクロフォンを用いて3次元音源定位を行うロボットを対象 とし、水平面において IID をもとにした適応オーディオサーボ手法を提案し てきた。本報告では音源の上下方向を定位するため人工耳介の設計を行い、設 計された耳介の特性について紹介する。 12:10 - 13:30 昼休み・研究委員会 ** 認識 *** 13:30 - 14:00 「ロボット頭部に設置した4系統指向性マイクロフォンによる 音源定位および混合音声認識」 持木南生也,関矢俊之,小川哲司,小林哲則(早稲田大学) 我々は,複数の人間とコミュニケーションのとれるロボットの開発を行なって いる.そのためには,ロボット頭部に設置したマイクロホンで定位,認識を行 う必要がある.今回,ロボット頭部を利用した音源定位,音源分離手法を提案 する.音源分離では,2万語の3話者同時発話認識においても70%の認識率を達 成した. 14:00 - 14:30 「マイクロホンアレイ音源分離とミッシングフィーチャー理論に基づく         ロボットのための音声認識」 山本俊一(京大),Jean-Marc Valin(京大、Sherbrooke大), 中臺一博(HRI),奥乃博(京大) ヒューマノイドロボットが実環境で聞く音は混合音であるため,混合音を扱うロ ボット聴覚の実現に取り組んできた.これまでは,ロボットの頭部に設置された 2本のマイクで録音されたバイノーラル音を対象としていたが,本発表では8本の マイクロホンアレイを利用し,音源分離には幾何学的信号原分離と複数チャンネ ルポストフィルターに基づく手法を利用する.そして,ポストフィルターから歪 んだ特徴量を計算してミッシングフィーチャーマスクを生成する.このミッシン グフィーチャーマスクを利用した音声認識により,三話者同時発話の分離音を直 接音声認識するよりも高い認識率を得ることができた. 14:30 - 15:00 「コミュニケーションロボットにおけるノンバーバル情報         を用いた状況依存型音声認識」 岩瀬佳代子(同志社大学大学院・ATR-IRC),塩見昌弘(大阪大学大学院・ ATR-IRC),神田崇行(ATR-IRC),石黒浩(大阪大学大学院・ATR-IRC), 柳田益造(同志社大学大学院) 本研究では,ロボットが相手の感情を認識することにより,現在の状況を限定 して音声認識を行う手法を提案する.感情は,文脈に依存しにくい持続的感情 (緊張)と文脈に依存しやすい一時的感情(喜びなど)に分類することができ,ま た,持続的感情である緊張感情の表出が一時的感情の表出を妨げ,状況の限定 に影響を与える可能性があることを示唆した. 15:00 - 15:15 休憩 ** 生成 *** 15:15 - 16:45 「指向性スピーカを用いた人・ロボットコミュニケーション手法の検討」 中臺 一博, 辻野広司 ((株) ホンダ・リサーチ・インスティチュート・ジャパン) 自然な人・ロボットコミュニケーションを実現する上で、ロボットの動作中、 発話中など高雑音下でロバストな聴覚機能の実現は大きな課題である。本稿で は、このうち発話中のロバストな聴覚機能を実現するために、発話デバイスと して指向性スピーカを用いた手法を報告する。指向性スピーカは、超音波と空 気の非線形性を利用することによって、指向性の高いビーム状の音場を生成す ることが可能なスピーカである。また、高い指向性を利用して、ささやくよう に特定の人物だけに情報を伝えるという新しいコミュニケーション機能実現を 併せて試みる。実際に、Honda ASIMO の口の位置に指向性スピーカを実装し、 発話中の音声認識を行った結果、最大で約50\%の孤立単語認識率の向上を達成 した。 16:45 - 16:15 「聴覚フィードバック系を有する人間形発話ロボットの開発」 福井孝太郎,西川員史,桑江俊治,秋山隆行(早稲田大学),高信英明(工学 院大学),持田岳美(NTT),誉田雅彰,高西淳夫(早稲田大学) 人間形発話ロボットWT-4 (Waseda Talker No.4)において,ロボットの生成音 声から音響特徴量を抽出し,これを元にロボットの制御パラメータの最適化を 行う聴覚フィードバック系を構築した.また,これを用いて人間の連続発話を 再現する聞き真似発話を実現した. 16:15 - 17:30 奥乃研見学会 ---------------------------------------------------------------------