AIと人間の共創から新たな創造性は生み出されるのか。アーティスト/AI研究者・徳井直生さんが考えるクリエイターが持つべき問題意識

博報堂 メディア環境研究所では、AIが社会や産業、メディアにもたらす影響について研究・洞察するプロジェクト「AI×メディアの未来」を立ち上げました。その一環として、さまざまな分野で活躍している有識者にインタビューを重ねています。

アーティストであり、AI研究者でもある徳井直生さんは、AIが生成した曲のパーツをリアルタイムでミックスして1つの楽曲に仕立てていく「AI DJ」として活動しています。また、デザイナーやAI研究者、エンジニアなどで構成する株式会社Qosmo(コズモ)の代表取締役を務める傍ら、2023年に設立した株式会社Neutone(ニュートーン)では、AIを用いた新しい音楽制作ツールの開発も手掛けています。

近年、目覚ましい進化を遂げる生成AIですが、徳井さんはその可能性と課題をどのように捉えているのでしょうか。これまでの活動や研究を振り返りながら、生成AIがもたらす未来や、私たちがAIとうまく付き合っていくために必要な視点について伺いました。

徳井直生(とくい・なお)
アーティスト / AI研究者。株式会社 Qosmo 代表取締役 / 株式会社 Neutone 代表取締役。東京大学 工学系研究科 電子工学専攻 博士課程修了。工学博士。
AIを用いた人間の創造性の拡張を研究と作品制作の両面から模索。アーティスト、デザイナー、AI研究者/エンジニアなどから構成されるコレクティブ Qosmoを率いて作品制作や技術開発に取り組むほか、2023年7月設立のNeutoneでは、AIを用いた新しい「楽器」の開発を手がける。著書に『創るためのAI — 機械と創造性のはてしない物語』(BNN)。

多くの人は「生成AIがクリエイティブなものを生み出す」と誤解している

――徳井さんの現在の活動内容とご経歴について教えてください。

いま株式会社Qosmoと株式会社Neutoneという2つの会社を運営しています。QosmoはAI技術の開発とそれを使った表現活動、企業のR&Dのお手伝いをしています。一方、NeutoneはAIを使った新しい音楽ツールを作る会社です。

2000年頃から、東京大学で「どうすれば人間の創造性の拡張にAIを活用できるか?」というテーマで、AIを使って音楽を生成する研究をしてきました。

ただ、当時はどうやってビジネスに落とし込めばいいのか分からなくて。アーティストとして美術館で展示したり、依頼を受けてスマホアプリを作ったりしつつ、2013年ごろからAIや機械学習関連の仕事が増えてきました。

僕自身、音楽的な素養は全くないし楽器も弾けません。正直、音楽家としての才能はないと感じているのですが、「AI研究」と「音楽の表現」をブリッジさせることが自分の存在意義だと思っています。

Nao Tokui / Emergent Rhythm — Real-time AI Generative Live Set / MUTEK.JP 2022.12.8 (summary)
https://www.youtube.com/watch?v=FeNeH-OY66E



――最近のAIの変化、進化についてはどう感じていますか?

音楽の分野では、2022年までは楽譜の生成が中心で、30秒の音を生成するのに8~10時間くらいかかっていました。ところが最近のAIは、数分の曲を生成するのに1~2秒くらい。ほぼリアルタイムで作ることができる。

しかも、人間が作ったのかAIが作ったのか分からないレベルの音楽が生成できるようになりました。想像以上に技術の進化が速かったな、と感じています。

ただ、僕が研究していた「人間の創造性を拡張するためのAI」という立ち位置からはズレてきている気がします。AIを使ってまるっと音楽を生成することと、AIを「人の創作を手助けするツール」として活用して音楽を作ることは、似ているようでまったく違うものだと思っているので。

AIは人間の作ったものを学習して模倣するのがうまくなりました。その際、AIは新しい絵や音楽を創造しているように見えるけど、実際には既存のスタイルやパターンを再生産していることが多い。そこを理解した上でAIを使うのであればいいのですが……。

AIは非常に複雑なデータを模倣して再生産できるのと、生成AIという言葉のニュアンスから、どうしても「新しいものが生まれた」「生成AIがクリエイティブなものを生み出している」と誤解してしまう可能性があるな、と。そこはかなり注意が必要なんじゃないかと思います。

――何をもって「新しい」とするかは捉え方が難しいところだと思いますが、徳井さんはどうお考えですか?

おっしゃる通りで、「新しさ」を定義しないといけないですね。僕は「新しさ」には2つあると思っています。1つ目は、既存の表現やスタイルの中から新しいアイデアを作り出す「既存の枠の中での新しさ」、2つ目は枠そのものを拡張する「枠の外側に生まれる新しさ」です。

今のAIがやっているのは、基本的に既存の枠の中で要素を組み合わせて、新しいものを生み出す作業です。ただそれだと、枠の外側にはみ出たものは生まれません。枠を超えて新しいものを生み出すためには、やはり人間の力が必要なのではないか、と考えているところです。

AIは「創作」と「消費」の間にある行為を可能にするツール

――最近ではSunoのような、ユーザーがテキストを入力・指示するだけでオリジナルの楽曲を制作できるAIツールが登場しています。そういうAIによって、「自分も音楽を作ってみよう」と思う人は増えると思いますか?

Sunoに触れた人が、そこから実際に音楽制作を始めてみようと思うかは、少し疑問ですね。逆に、AIによって簡単に音楽が作れるようになったことで、「自分で楽器を弾く」とか「バンドを組む」みたいな、身体性を伴う行為の価値が上がるでしょう。

この議論って、繰り返しなされているんですよね。それこそレコードが発明されたとき、「いつでも簡単に音楽が聞けるようになると、楽器を練習して弾けるようになりたいと思う人が減るのではないか」という意見もありました。ただ結果的には、レコードが普及したことで音楽に触れる機会が増え、音楽を作る人や演奏する人は増えたんです。

そういう例もあるので、明確な答えは出せないな、というのが正直なところです。

――生成AIによって、誰でも簡単にクオリティの高い音楽が作れるとすると、それは創作になるのでしょうか? それとも消費でしょうか?

前提として、Sunoで生成しているものは創作ではなく複製だと考えた方がいいでしょう。単に枠の中での新しさであり、創作とは一線を画しているのかな、と。ただ、かなり凝った指示やプロンプトを入力して生成するなら、創作っぽい行為ともいえます。

かつてアメリカの未来学者、アルビン・トフラーは「今後は生産とも消費ともいえないような、中間にある新しい行為が生まれてくる」と言っていましたが、まさにそういうことなんじゃないかな、と。

創作と消費の間にグラデーションがあり、その中間的な行為を可能にするツールとして考えると、生成AIには非常に価値があります。ただ、「AIにテキストを入力して音楽を作る行為=創作活動」だと勘違いしない方がいい。そこはきちんと分けて考える必要があるんじゃないかと思います。

Google I/O 2019。サンダー・ピチャイCEOの基調講演の前の1時間をAIを用いたDJで盛り上げた。

音楽をまるっと再生産するのではなく、絵筆やピアノのように使える道具

――アーティストの人たちは、昨今のAIの進化についてどう思っているのでしょうか?

ヨーロッパやアメリカでは、「いまのテクノロジー主導のAIのあり方はちょっとおかしいよね」とか「自分たちならではのAIの使い方って、どういうものがあるんだろう?」と考えるアーティストやコミュニティが少しずつ増えているなと感じています。

先日ベルリンで開催された、アート×音楽のイベント「CTM Festival」に参加したんですが、AIをテーマにしたワークショップでは「DIY+AI」が話題にあがっていました。自分たちが使いたい音や絵を生成する小さなAIモデルを作り、環境負荷をおさえながら、コミュニティ内でノウハウを共有していく。そんな活動を目の当たりにして、少し希望が見えた気がしました。

日本にはローランドやヤマハなどの楽器メーカーがあるし、歌舞伎や音楽、芸能、アートの文化がある。一方で、生活コストが安く、アーティストの人が集まりやすくなっている。これらはシリコンバレーにない要素です。そう考えると、日本は「AI×表現」に関する新しい技術を作っていける良い土壌なんじゃないか、と思い始めています。

ベルリン CTMフェスティバルで 多くのアーティストがNeutoneを使用

――徳井さんはNeutoneという「AI×音楽」のツールを作っています。そこに込めた思いや技術的な考えについてお聞かせください。

Neutoneの最初の商品、Neutone Morphoは、入力された音を別の音に瞬時に変換することができるエフェクターです。

Neutone Morpho, real-time Tone Morphing plugin, has arrived!
https://youtu.be/CI79qnstFN0

Neutoneは、消費のための生成AIとは真逆の立場を取ろうとしています。音楽をまるっと再生産するのではなく、絵筆やピアノのように、アーティストが新しい表現スタイルを確立するための道具を提供したい。

モデルが小さく環境負荷も低いですし、自分が権利を持っているデータだけで学習できるので、著作権侵害を避けられます。個人的には、Neutoneのような新しいAIツールによって、今までになかった新しい音楽ジャンルが生まれてくるといいな、と思っています。

「どこまでAIに委ねるべきか?」というバランスと、基準から外れた「ノイズ」が大事

――例えば、新聞社には「AIによって簡単にニュースがまとめられてしまい、誰も一次情報にアクセスしなくなるのでは?」という懸念もあると聞いています。今後、メディア業界はどう変化していくと思いますか?

生成AIは学習したデータのパターンを再生産しているだけなので、そこまで恐れる必要はないんじゃないかという気がします。

新聞のようなメディアが生成AIによって置き換えられるわけではなく、新聞やテレビ、SNSなどの役割・立ち位置とユーザーの間に、中間的な情報がどんどん生まれてくるのではないでしょうか。

確かに、「AIに聞けば何でも答えてくれるから、それで事足りる」という側面もあるでしょう。そうなると質の低い記事でPV数を集めようとするメディアは苦戦するのかもしれません。一方でそうしたメディアを運営するコストはAIによって大きく下がるはずです。低品質のメディアが増殖することで、学習データの質が下がり、結果的にAIの精度も下がってしまうかもしれません。そういう意味でも、専門家がきちんと深くまとめた一次情報の価値は残るし、むしろ高まるんじゃないかと思っています。

――昨今のSNSは、興味のある情報だけを提示するアルゴリズムになっていますが、AIによってそれが強化されていく可能性もあります。逆にフィルターをかけて、興味・関心のない情報をランダムに流すといったことは技術的に可能なのでしょうか?

できるとは思いますが、難しいのは「提供する情報は本当にランダムでいいのか?」という点です。「絶妙にボール1個分外す」のように、普段見えているコンテキストの少し外側に広がっていくといいんですよね。

かつてのTwitter(現X)は、そういうものだったと思います。友だちをフォローしていたら、自分が知らない情報を自然と知ることになる、とか。ところがいつの間にか、アルゴリズムによる「おすすめ」が強まって、むしろ偏った情報が増えてきている感じがしています。

やっぱり本当にランダムな情報ではなく、「自分の興味の範疇にあるんだけど、視野の端っこにあるもの」がほしい。そうなると、友人から広がっていく情報は大切で。いつか自分と友人のAIエージェント同士をやり取りさせて、「友だちが面白いと思っている情報を集めてきて」と頼みたいですね。

――現時点で、徳井さんが「こうすれば、自分の中でボール1個分外れたものを増やしていける」と意識している行動はありますか?

最近はXを見る時間、Spotifyを聴く時間を減らしていて、代わりに本屋に行ったり、人に会ったりしています。2025年はベルリンやニューヨークにも行ってきたのですが、やっぱり人と会うのが一番刺激になる感じがしますね。

あと、瞑想として1日10~15分くらい、外部からの情報をシャットダウンする時間を必ず設けています。趣味のサーフィンも同じですね。波に乗るよりも、プカプカ浮いている時間の方が長いんですが……。それも自分にとっては情報から距離をとる大事な時間です。

――AIの技術革新が進む中で、創作・クリエイティブに関わる人はどういうマインドセットを持てばいいのでしょうか?

1つは、「どこまでAIに委ねるべきか?」というバランスを見極めること。今後、クリエイターの力量につながってくる部分だろうと思っています。全部AI任せでは、オリジナリティのあるものは生み出せない。だからといって、自分が持っているものだけに固執しすぎるのも良くないので、「適度に」AIに委ねるところが肝になるでしょう。

もう1つは「ノイズになる」ということ。優等生的な表現は、AIによって簡単に作り出せます。世の中的には「下手」「異端」「無駄」とみなされるかもしれない、基準から外れたノイズのような側面をどう大事にできるか。そこがポイントになると思います。

2023年、バルセロナでのSonarフェスティバル。AIと創造性に関しての基調講演を行った。

2025年2月27日インタビュー実施
聞き手:所外協働プロジェクトメンバー 鵜飼大幹+メディア環境研究所 冨永直基

編集協力:村中貴士+有限会社ノオト


※掲載している情報/見解、研究員や執筆者の所属/経歴/肩書などは掲載当時のものです。