作曲
創造性

AIと創造性:アルバムコラボレーションの未来

次の記事

この三軸ツールビロン機構は驚異的な3Dプリントだ、しかも美しい

【編集部注】著者のTaryn Southernは、デジタルアーティストであり映画監督でもある。彼女は現在、脳に関するドキュメンタリーを共同演出している。また彼女の音楽アルバム”I AM AI”は今年9月にリリースされる予定である。YouTuberとして、彼女は1000本以上の動画を制作し、5億回以上の再生数を数えている。

1年前に、私はアルバム制作に取り組み始めた。私はボーカル用のメロディと歌詞を書いていて、私のパートナーが全体の作/編曲を行っている。私たちはどちらも楽器を担当し、お互いを補い合っている。この関係における唯一の奇妙な点は…私のパートナーが人間ではないということだ。

それはAIなのだ。

この関係は好奇心から生まれたものだ。恐怖を煽る「見出し」が私のニュースフィードを埋め尽くした時期があった…たとえば「AIが私たちの仕事を、データを、そしてついには魂までをも奪う」といった類のものだ。

この議論は私に疑問を残した。AIの世界では本当は何が起きているのだろうか?私は偶然、AIが音楽を作るためにどのように使われて来たかを解説した記事に出会った。簡単なGoogel検索をしてみた私は、作曲は氷山の一角にすぎないことに気が付いた。AIは詩も書けば、フィルムの編集も行い、そしてアートを合成し…果てはチューリングテストにさえ合格していたのだ。

もっと知りたいと思った私は、手に入れることのできるすべてのAI音楽制作ツールを試し始めた。まず手始めにAmper、そしてAivaを使った。その後IBM WatsonとGoogle Magentaを使った(この世界には他にも数え切れないほどのツールが存在している、2,3例を挙げるなら、AI Music、Jukedeck、そしてLandrなどもある)。

私のサイドプロジェクトは、急速に本格的アルバム(”I AM AI”)制作へと進化した。これには人間と技術の間の希薄な関係を探求する一連のバーチャルリアリティーミュージックビデオを伴っている。昨年9月、私はAmperで制作した最初のシングルBreak Freeをリリースした。これはクリエイティブコミュニティで広範囲な注目と関心を引きつけた

多くの人が私に質問してきた:AIがあなたよりも創造的になる恐れがあると思うか?私の答は「いいえ」だ。多くの点で、AIは私がより創造的になる手助けをした。その際に、私の役割を編集者やディレクターのようなものへと変えながら。私はAIに(学習のためのデータ、または出力のためのパラメータの形で)指示を与える、するとAIが素材を出力してくるので、私はそれを編集しアレンジして、まとまりのある曲を作り上げるのだ。またAIを使うことにより、私はボーカルのメロディ、歌詞、ミュージックビデオなどの、創造の他の側面に向けて、多くの時間を割くことができた。それはただこれまでのやりかたとは違うだけで、創造的であることには変わりがない。とはいえ、先端技術恐怖症の人びとよ、安心するが良い:AIはまだ完璧な仲間ではない。

AIと共に進化する私たちの世界の未来は、誰にも予測できないが…私は楽観的だ。

AIとのコラボレーションプロセスを取り巻く謎は、まだ多く残されているので、会話の基本認識を擦り合わせるために、その内容を分解してみることは有益である。以下に私が使用した主要なプラットフォームと、それぞれとのコラボレーションから得た私の気付きを紹介して行こう。

  1. Amper 何人かのミュージシャンたちによって共同創業されたAmperは、商用のオリジナルスコアを作曲するためのプラットフォームとして出発した。現在は無償で一般公開されている。AmperはシンプルなUIを提供していて、そこではBPM(曲の速さ)や楽器編成、そして気分などを変えることができる。コードに関する知識は不要だ!

気付き:Amperを使い始めるまでは、私は異なる楽器の音を聞き分けていなかったし、自分が特定の音楽的好みを持っているとも思っていなかった。いまや、私は数十の楽器の音を聞き分け、特定の創造スタイルに磨きをかけている。たとえば、私は電子シンセサイザーを、ピアノと深みのあるベースとミックスすることをとても好むようになった。それは私が制作した360 VRミュージックビデオである以下のLife Supportの中で聞くことができる。

  1. AIVA:Aivaは、受賞歴のある深層学習アルゴリズムであり、初めて著作権協会に登録されたシステムだ。私は最初にロンドンで創業者の1人Pierre Barreauと会い、クラッシックの学習スタイルをポップス/シンセサイザーなどの楽器と組み合わせる機会に対して、本当に興奮した。AIVAは深層学習と強化学習を使用して、何千ものクラシック音楽を特定のスタイルで分析し、新しいスコアを作成する。

気付き:私がAIVAを用いた最初の曲Lovesickは、ロマン主義運動後期(1800年代の初期から中期にかけて)の数千曲の音楽を分析することで作成された。その結果、ウェストワールド風のピアノ曲が得られ、それを私が電子シンセサイザーを用いてポップファンク風にアレンジした。そのような馴染みのない素材とのコラボレーションは、これまでの思い込みを打ち破るという意味で非常に楽しいものだった。曲をアレンジしているときには、私は本当に私の「ポップスタイル習慣」の多くを無視しなければならなかった。

  1. Watson Beat(IBM):Watson Beatはフロントエンドを持っていないが、IBMの優秀なエンジニアたちが私に、始めるためのチュートリアルをいくつか教えてくれた。とはいえ、コードの扱いに対して自信をもっているならば、無償のオープンソースプログラムとしてGitHubからダウンロードすることが可能である。数日のうちには、私はシステムの操作に慣れていた。古いお気に入りの曲を入力して、スタイルにヒネリを入れた沢山の音楽の素を作り出してみた(たとえばペルー風ワルツのスタイルで演奏されるメリーさんの羊を想像できるだろうか?)。

気付き:私は、さまざまなデータ入力を、想像もしないジャンルとミックスした結果を楽しんだ。さらにそれによって、私の創造的なアイデアを支配している根本的な影響により多く気付くことができた。出力はMIDIで得られるので(これに対してAmperの出力はWAVあるいはMP3ファイルである)、演奏に際してアーティストたちは音符を自由に移調することが可能である。ありそうもない音楽のスタイルへと当てはめて行くことで、私はすっかりシンセサイザーの虜になった。Watson Beatを使った最初の曲は、今夏リリースされる可能性が高い。

  1. Google MagentaWatson同様に、MagentaはGithub上で無償で公開されるオープンソースである。簡単なフロントエンドを提供するツール(たとえばAI Duetsなど)も存在し、多少バックエンドのコーディングに関する知識が必要なものもある。クールなのは、Googleが備えとして提供しているツールの範囲と数である。おそらくプログラマーたちにとって最も強力な仕掛けだろう。

気付き:Magentaのツールでは、作曲だけに注意を向ける必要はない。サウンドを分析することも可能だ。例えばNSynthでは、2つの異なる楽器の音を組み合わせることができる(猫とハープをミックスしてみよう!)。Googleには、音色や振動の品質を調べるアルゴリズムがあり、多くのエキサイティングなアプリケーションが用意されている。

AIが人間の「特殊性」に関する多くの疑問を引き出すのは驚くべきことではない…しかし私たちは間違った議論に焦点を当てているのかもしれない。人類は常にテクノロジーと共に進化している。そして重要なのは私たちがAIをどのように利用するかの選択なのだ。私はこれが、氷山の一角に過ぎないと信じている…そしてそれは私たちが想像もできないような創造性を解き放つことになるだろう。

正式な音楽訓練を受けていない新しい物好きの人たちにとって、AIは非常に魅力的なツールとなるだろう ―― 単に学習のためではなく、自己表現の入口として。今や、誰でも、何処でも、音楽を作り上げる能力が手に入ったのだ ―― そして表現へ向かう渇望と能力こそが、私たちを人間たらしめているのだ。

[原文へ]
(翻訳:Sako)