Y2 PROJECT

2014.11.16

Play-a-thon 2014.11 新しい「楽器」を作る4日間

playathon_banner.jpg

2014年11月6日(木)、7日(金)、21日(金)、24日(月、振休)の4日間に渡り、音楽系ハッカソンイベント『Play-a-thon』が開催されます。参加者は「演奏をリデザインする」というテーマのもと、ヤマハが提供する様々な技術やハードウェアを用いて「楽器」や「音楽インターフェース」を作り、最終的には「演奏」(Play)という表現によって成果物を発表します。ここでは、今回提供される二つの技術をご紹介します。

1. コード認識技術/ビート解析技術

コード認識技術は音源からコード進行を、ビート検出技術は音源からビートとテンポを抽出する技術です。音楽をこのような要素に分解できると、音楽にアレンジを加えることが容易になります。たとえば、コード進行が分かれば、メロディーに伴奏をつけたり、バンド演奏にストリングスの白玉を重ねることができます。ビートやテンポの情報が分かれば、演奏に合わせてパーカッションを鳴らすこともできます。既存の音楽からこれらの情報が抽出できることで、音楽をただ聞くだけではない、様々な用途の新しい楽器が作れそうです。

mahaRuBeatO_600.png
コード認識技術/ビート解析技術 概要図

2. マルチトラック自動ボリューム調整

この技術は、マルチトラック音源の各トラックの音量を適切なバランスに整えてくれる技術です。実はこのミキシングというのはなかなか大変な作業です。たとえば、ボーカル、ギター、ベース、ドラムで構成されるバンド演奏をミキシングするとします。ボーカルが入ったらギターが聴こえづらくなった、ではギターの音量を上げよう、いや、ボーカルの音量をちょっと下げようと繰り返しているうちに、今度はベースの音が聴こえなくなったりするのです。この技術があれば、どの楽器もちょうど良い音量で聴こえ、かつボーカルが主役となるような音量の調整を自動で行ってくれます。複数の楽器の音量をインタラクティブにコントロールできるこの技術を応用することで、複数人でのインタラクティブな演奏の幅がさらに拡がっていくことでしょう。

autovolume_600.jpg
マルチトラック自動ボリューム調整技術 概要図

Play-a-thonでは上記の技術以外にも様々な新しい技術が紹介されます。豊かな発想を持つ人々とこのような技術との出会いがどんな新しい「楽器」を作り出すのか楽しみです。

2014.09.30

Pepper Tech Festival 2014に出展しました

pepper_banner.jpg

2014年9月20日、ソフトバンクモバイル株式会社主催で「Pepper Tech Festival 2014」が開催され、ヤマハもパートナー企業として参加しました。このイベントでは、クリエーターやデベロッパー向けに、世界初の感情認識パーソナルロボット「Pepper(ペッパー)」の技術仕様や先進的な開発事例が公開され、約1,000人が参加しました。

公開された開発事例の一つとして、ヤマハはPepperが歌うアプリを展示しました。Pepperに歌詞を伝えるだけで、Pepperがその場で作曲し、伴奏に合わせて歌って踊ります。小学生ぐらいの背丈のPepperに話しかけると、少し上向き加減でこちらを向き、目をくりくりさせながら一生懸命歌って踊る姿はなんとも可愛らしく、思わず微笑んでしまうものでした。


Pepperに歌詞を伝えるだけで、Pepperがその場で作曲し、伴奏に合わせて歌って踊ります。

lyrics.jpg
連携したタブレットから歌詞を送信すると「作詞ありがとう!」とPepper

genre.jpg
デモンストレーターの顔を見上げながら「ジャンルはどうする?」と質問する

compose.jpg
「うーん」と頭を抱えながらもがんばって作曲

sing.jpg
出来上がった曲を得意げに披露してくれた

技術に興味がある方のために、今回の技術の構成を少しご紹介します。作曲は、クラウド上にあるヤマハのボカロデューサー(https://net.vocaloid.com/ :ブラウザから無料で試せます!)のAPIを使って行いました。コーディングは、Pepper側はSDKであるChoregrapheのGUI、詳細アルゴリズムはPython、Web API側はPHP、Pepper胸元のタブレットと歌詞入力の画面はHTML(JavaScrpit、CSS)、Pepper胸元のタブレットの表示と歌詞入力画面のデザインは共にGoogleのMaterial Designを適応しています。開発担当者はSDKに触るのもPythonに触るのもロボットに携わるのも初めてという状況ではありましたが三週間で今回の開発を完了することができました。Pepperが何を見、何を聞き、何を感じているのかをイメージしながら、Pepperの顔の表情、手の動き、喋り方などを三次元でデザインしていく作業は、これまの二次元でのデザインとは全く違うとてもエキサイティングなものでした。

pepper_developers.jpg 左から多田幸生氏(研究開発統括部)、河合良哉氏(開発担当、研究
開発統括部)、 剣持秀紀氏(ボーカロイドプロジェクト)とPepper

Pepperをソフトバンクと共同開発したアルデバラン社CEOブルーノ・メゾニエ氏は「ロボットの役割は、人々を豊かにし、喜ばせること。孤独や寂しさに苦しまないように助けること」と語りました。Pepperが歌い、踊るというのは、まさに人々を笑顔にし、楽しませることであり、新しい音楽のカタチでもあります。ロボットが身近にいるという未来はもうすぐそこまで来ています。ヤマハは今後も日々研究を重ね、音楽と他のメディアを融合した新しい音楽のカタチを提案していきます。

2014.07.14

EVERNOTE DAYS2014 TOKYOに出展しました

en_days_2014_banner.jpg

2014年7月11日、12日に日本科学未来館で開催されたEvernote Days 2014 Tokyoに出展しました。多くの方にご来場いただきありがとうございました。

ENDays_4.png

ヤマハブースでは、2つのプロトアプリ「DailyPiano」と「TaktPiano」を出展しました。

ENDays_apps.png

ENDays_2.jpg ENDays_3.jpg

出展の様子はこちらの記事でも取り上げていただきました。

イベント参加者だけでなく、未来館に遊びに来た親子連れの方々など、多くの方にアプリを体験していただき、貴重なご意見をいただくことができました。
引き続きY2プロジェクトでは、人との絆を深め、生活を豊かで楽しくするための音楽・楽器のあり方をご提案していきたいと考えています。

2014.06.30

EVERNOTE DAYS2014 TOKYOに協賛出展します

en_days_2014_banner.jpg

Note Every Note - すべての音符を記録する

「記憶の未来」を考える2日間のイベントにヤマハも協賛します。
私たちにとって、楽器を弾く目的とは何でしょうか?なぜ弾きたいと思うのか?弾けるようになりたいと思うのか?
音楽家になるため、あるいは教養のためといったこれまでの価値観だけではなく、私たち生活者にとって日常的に音楽を奏でる意味、そしてそれを記録する意味とは?
今回、会場には演奏ライフログアプリと、指一本でピアノが弾けるアプリを特別にご用意しています。
2つのプロトタイプを体感しながら、楽器を弾きたいと思っている人にとっての演奏体験・記録・振り返りの価値について
一緒に考えましょう。
当日は会議室3にブースを構えて皆様をお待ちしています。是非お越しください。

あなたが、未来に残したい演奏は何ですか?あなたの残したいものを教えてください。

開催概要
日時  :7 月 11 日 (金) 〜 7 月 12 日 (土) 11:00 〜 17:00 (10:00 開場)
会場  :日本科学未来館 7階 東京都江東区青海 2-3-6
チケット:1 日券 一般 3,000 円 / 小学生以下 1,500円
          2 日券 一般 5,000 円 / 小学生以下 2,500円
主催  :エバーノート株式会社

イベント詳細はこちら:http://evernote.com/intl/jp/evernotedays/

2014.01.01

2014年もY2をよろしくお願い致します。

2014年もY2 PROJECTをよろしくお願いいたします。

2014