第108回情報処理学会 音楽情報科学研究会(夏のシンポジウム)参加報告

投稿者: | 2015年9月21日

中村研究室B3の土屋駿貴です。

今回8月31日〜9月2日にかけて名古屋大学で行われた第108回情報処理学会 音楽情報科学研究会(夏のシンポジウム)に、中村先生と登壇発表を行う大野くんと一緒に参加してきましたのでその報告をさせていただきます。

3日間で様々な発表や討論、デモが行われましたが、すべては書ききれませんので、今回は各日程ごとにいくつか紹介し、まとめさせていただきます。

1日目

初日は、「音楽音響処理」についての発表が2件、生成系音楽情報科学についてのオーガナイズセッション、音楽情報処理のデモ発表が行われました

音楽音響処理については

(1)「音楽音響信号に対する歌声・伴奏音・打楽器音分離に基づくコード認識」丸尾智志、池宮由楽、糸井克寿、吉井和佳(京都大学)

(2)「非ガウス性モノラル音響信号に対する音源分離のための非負値行列分解と半正定値テンソル分解」吉井和佳、糸井和寿(京都大学)、後藤真孝(産業技術総合研究所)

上記2つの研究発表がありました。

(1)の研究は楽曲を構成する各要素(歌声、伴奏音、打楽器音)の違いに着目し、その中の伴奏音をクロマベクトルにしコード認識を行うことで、コード認識の正確性の向上を目的とするものです。

(2)では、モノラル音響信号の音源分離においてスペクトル領域で音源(パワースペクトルを使う)分離を行うのが一般的ですが、その場合では情報を半分しか扱えないため、入力音響信号のもつ情報をすべて適切に取り扱うための方法論を提案するという研究です。

このセッションに限ったことではないのですが、特にこの2つの研究では知らない知識が多く出てきたため発表を聞くことで精一杯でした。

その後のデモ発表において興味をもったのは

「入力文書の印象と感情に基づく楽曲提供の一手法」菅野沙也(お茶の水女子大学)

でした。この研究は文書の特徴量と音楽的特徴量の比較から楽曲を生成するといったものになります。具体的には、文章から7次元の印象ベクトルを作成し、その内の4つでコード進行を、3つでリズム帯を決定するという手法です。文章から音楽を作成するというアイデアがとても興味を持ちました。このような楽曲の生成が可能となれば、楽曲を検索するよりも、よりユーザの嗜好にあった楽曲を提供できるのではないかと思いました。文章からの印象の抽出は、私が行っている研究でも検討できるのではないかと思いました。

2日目

2日目は、発表が「歌詞・歌声分析」について3件、「音楽動画処理」について2件、「楽器演奏支援」について2件ありました。ちなみに、大野くんは「音楽動画処理」のセッションで発表しました。そちらに関しては本人の報告がありますのでそちらをご覧ください。(下の写真は大野くんの発表の様子です)

DSC00273

ここでは

(3)「音楽動画視聴時にライブを疑似体験できる声援コメント共有システム」早川和輝(筑波大学)、後藤真孝(産業技術総合研究所)

(4)「ピアノ練習状況の可視化および気づきのアノテーション機能をもつ学習支援システムの評価」上田健太郎、竹川佳成、平田圭二(はこだて未来大学)

の2つの研究について紹介します。

(3)の研究は、音楽動画の再生に同期させ、コメントを共有し、タイピングした瞬間に1文字づつ表示するというものです。こちらの研究に関しては、Google Chromeの拡張機能として、すでにChromeウェブストアで配信されています。また、サイトもありますので、そちらを見ていただくとわかりやすいと思います。(http://nogikome.net/
このシステムを使うことで、音楽動画を視聴しながらライブの雰囲気をより体験できる、どこでもライブに参加できる、アイドルのライブ特有の「コール」を事前に確認できるなどといったことができると期待できます。

(4)の研究は、ピアノ練習状況を打鍵情報を可視化し、得られた気づきをその場でアノテーションという形で付与できるようにするというものです。また、自分で打ち込んだアノテーションから新たな気づきを推進するようになっています。結果は、システムを使用することで演奏課題の達成が早くなりました。

こちらの二つの研究についての発表は、今回のSIGMUS夏のシンポジウムにおいてベストプレゼン賞を受賞されました。発表のスタイルは全然違うものでしたが、どちらの発表もすごく引き込まる発表でした。私も研究の発表を控えているので、このお二人のようにうまく伝えられるよう準備を進めていこうと思いました。

発表のあとには「新楽器」というテーマでオーガナイズドセッションが行われました。その中で静岡文化芸術大学の長嶋洋一先生がお触り楽器に関する発表をされていました。そのお触り楽器は下の写真のようなものになります。こちらは、各指の先にスポンジがついています。そのスポンジの押し方によって音がでるといったような仕組みになっています。人間の体の中で手と指が非常に感覚に優れていることから、微妙な変化を表すことができるためこのような楽器を作られたそうです。

DSC00306

3日目

最終日の3日目には「演奏分析・自動化」についての発表が3件ありました。そのうちの1件である

(5)「階層的確率生成モデルによる装飾音を含む多声MIDI音楽演奏の楽譜追跡」中村栄太(明治大学)、Philippe Cuvillier、Arshia Cont(INRIA/IRCAM)、小野順貴(国立情報学研究所)、嵯峨山茂樹(明治大学)、渡邊健二(東京藝術大学)

は、演奏音符と楽譜ないの音符との実時間マッチングを行う楽譜追跡するというものです。同じ楽譜であっても人によって動作ノイズや演奏誤りなど不確定要素があるため演奏は異なります。人間の伴奏者はこの多様な演奏に対応することができますが、これをコンピュータ上においても実現するといったものになります。

今回学部3年のうちからこのような研究会に連れて行っていただくことで音楽情報科学の分野での様々な研究に触れることができ、大変刺激をうけました。まだまだ勉強不足のため、理解できない内容もあったため知識を増やしていきたいとも感じました。また、研究会の空き時間には名古屋名物を色々といただいてきました。とても充実した3日間で、良い経験になりました。

DSC00245