************************************************** 第18回AIチャレンジ研究会 プログラム ************************************************** AIチャレンジ研究会(人工知能学会第二種研究会)では,日本ロボット学会 ロボット聴覚研究専門委員会と共催で、第18回研究会を開催致しますので, 参加者を募集します. お昼休みに、最近報道発表のあった会話型ロボット「イフボット(ifbot)」 (ビジネスデザイン研究所)のデモを行います。 本研究会への参加や登録は,人工知能学会の会員,非会員を 問わずどなたでもできます.ただし,準備の都合がございますので, 参加を御希望の方は11月7日(金)までに okuno@i.kyoto-u.ac.jp にメイルで, Subject: SIG-Challenge Participation として,お申し込み下さい.もちろん,飛び込み参加も可能です. 日時: 2003年11月13日 (木) 9:50〜17:30 場所: 京都大学工学部 8号館 2階 中会議室 テーマ: ロボット聴覚・音環境理解 (聴覚による情景分析)、 ロボット聴覚機能のための音響技術、 音声に限らず音一般の知覚・理解 参加費: 本研究会登録会員: 無料 (年間会費 4,000円)     その他:一般 2,000円, 学生 1,000円 問い合わせ先: 京都大学大学院 情報学研究科 知能情報学専攻 〒606-8501 京都市左京区吉田本町 電話: (075) 753-5376 FAX: (075) 753-5977 奥乃 博 okuno@i.kyoto-u.ac.jp http://winnie.kuis.kyoto-u.ac.jp/SIG-Challenge/ プログラム: -------------------------------------------------- 9:50 〜 10:00 挨拶 人工知能学会AIチャレンジ研究会主査 奥乃博 (京都大学) 10:00 〜 11:00   <招待講演> 「ROBISUKE:新世代の対話ロボット」   小林哲則(早稲田大学理工学部)  開発中の対話ロボットROBISUKEを紹介する。ROBISUKEは,言語理解機能に加え, パラ言語の理解・表出能力を有する。また,気の利いた会話に必須となる間接発 話行為の受理機能も持つ。本講演においては,デモを交えながら,これらの機能 が円滑な対話を進める上で有用であり,従来の対話ロボットとは全く異なる印象 を与える対話を実現できることを示す。 11:00 〜 11:35   「発達ロボティクスからみたロボット聴覚研究」   小嶋 秀樹 (通信総合研究所)  コミュニケーション能力をロボットを使って発達的に捉えなおす立場から,ロ ボット聴覚とのつながり(ニーズとシーズの擦りあわせ)を議論する.とくに母 子インタラクションにおける音声(音韻情報・韻律情報)と身体的手がかり(視 線・表情・身体動作など)の相関から,コミュニケーションがいかに発現するの かを考察し,今後の研究・コラボレーションのありかたを探りたい. 11:35 〜 12:10   「QRIO SDR-4X II の音声インタラクション   下村 秀樹 (ソニー株式会社 ライフ・ダイナミクス研究所準備室)  実環境,家庭での長期間使用を前提としたヒューマノイドロボット QRIO SDR-4X II に実装された音声インタラクション機能を紹介する. 12:10 〜 13:30 昼食 「イフボット(ifbot)」(ビジネスデザイン研究所)のデモ 13:30 〜 14:05   「音響と画像の情報統合を用いた話者追跡と音源分離」   浅野太,麻生英樹,原功,吉村隆,緒方淳,市村直幸,本村陽一,後藤真孝     (産総研),山本潔(筑波大)   音響(マイクロホンアレイ)による音源定位の情報と画像による人物追跡の   情報を統合することにより,話者が,いつどこで発話したかを検出し,これに 基づいて音源分離を行うシステムを紹介する.音声認識による評価実験, リアルタイムシステム,ロボットへの応用の可能性などについても,検討する. 14:05 〜 14:40   「階層的音源分離に基づく混合音声の認識」   澤田知寛,関矢俊之,小川哲司,小林哲則(早稲田大学理工学部) 複数の指向特性の付与に基づいて音源分離を行った後,これらの出力差情報に基 づいてさらに分離精度を上げる階層的な音源分離手法を提案した。本手法を前処 理として,2人の話者が同時に発話した2万語彙の連続音声の認識実験を行い, 6%であった音声認識率を82%にまで改善できた 14:40 〜 15:15  「ロボットを対象とした散乱理論による三話者同時発話の定位・分離・認識の向上」   中臺 一博(1), 奥乃 博(京都大学), 辻野広司(1)        1. (株)ホンダ・リサーチ・インスティチュート・ジャパン 本稿では、これまでに報告したロボットの三話者同時発話認識システムに対し、 散乱理論を用いた精度向上について報告する。散乱理論は、ロボット頭部の回 りこみも考慮した頭部の高精度な音響モデルを提供することができる。これに より、従来精度の低かった横方向の音源定位の精度向上、頭部伝達関数を使用 した場合とほぼ同等の分離性能、孤立単語認識率で10%程度の向上を達成した。 15:15 〜 15:30 休憩 15:30 〜 16:05   「人間との円滑なコミュニケーションを目的としたヒューマノイド    ロボットの心理モデルの構築」   三輪 洋靖(早稲田大学),伊藤 加寿子(早稲田大学大学院),   高西 淳夫(早稲田大学, 早稲田大学ヒューマノイド研究所)  本研究では,ロボットと人間との円滑なコミュニケーションに必 要な機能の実現を目標としている.われわれは,ヒューマノイドロ ボットに必要な心理モデルを構築し,2003年に開発した情動表出ヒュー マノイドロボットWE-4Rに適用した. 16:05 〜 16:40   「ユビキタスセンサ環境における音と画像の直接統合」   池田 徹志,石黒 浩,浅田 稔 (大阪大学大学院) 日常環境中に多数のセンサが配置されている環境が現実的になってきている. このような環境中で人間の位置をロバストに抽出するため,異種センサの信号 をより直接的に統合新しい信号統合手法を提案する. 16:40 〜 17:15   「頭部運動に追従するダミーヘッドシステム:テレヘッド II」   平原達也、戸嶋巌樹、川野洋、青木茂明(NTT コミュニケーション科学     基礎研究所) 頭部形状を模擬したダミーヘッドを人間の頭部の動きに追従させて 動かすダミーヘッドシステム−テレヘッド −の構築を進めている。 今回は、昨年発表したテレヘッド1号機の問題点を改良した2号機の 構造、運動特性、音響特性について報告するとともに、テレヘッド の実現に必要な残された課題について論じる。