世界を動かす技術を、日本語で。

AIシンガーがiTunesシングルチャートで11位を占める

概要

  • Dallas Little がAIアーティスト Eddie Dalton を創造し、iTunesチャートを席巻
  • Eddie Dalton名義で iTunesトップ100に11曲 ランクイン
  • AI生成音楽 によるチャート操作疑惑が浮上
  • YouTube再生数と実売数の 不一致
  • 本件が 音楽業界とAIの関係 に投げかける課題

AIアーティスト「Eddie Dalton」によるiTunesチャート席巻

  • Dallas Little、AIを活用した架空アーティスト Eddie Dalton を創出
  • 2024年4月1日、 エイプリルフール に新曲4曲を追加公開
  • iTunesトップ100に11曲 が同時ランクインという異例の状況
    • 3位、8位、15位、22位、42位、44位、51位、58位、60位、68位、79位
  • Eddie Dalton名義のアルバム がiTunesで3位にランクイン
  • AIによる楽曲制作 :歌詞執筆から音源生成、ビジュアルやMV制作まで全てAI主導
  • 新曲の大量生産 が可能、従来のレコーディング工程不要

チャート操作疑惑と実態

  • YouTube再生数 :「Another Day Old」は 120万回再生 を突破
  • 実売数 :Luminate社によれば、Eddie Daltonの楽曲売上は 6,900曲 に留まる
  • ラジオ放送やストリーミング再生 はほぼゼロ
  • iTunesチャート順位と売上・再生数の乖離
  • チャート操作(ゲーミング) の疑念
    • プロンプト入力とボタン操作 で無限に楽曲生成可能
    • 消費者がAIアーティストであると理解しているか疑問

音楽業界とAIの課題

  • AIアーティストの台頭 が既存ミュージシャンへの脅威
  • 本物のアーティストへのリスペクト欠如 との批判
  • チャートやランキングの信頼性低下
  • 音楽消費・評価のあり方 に対する根本的な問いかけ
  • 今後の規制やルール作り の必要性

Showbiz411とRoger Friedmanについて

  • Showbiz411 :独立系エンタメニュースサイト、13年目
  • Roger Friedman :映画・音楽業界のベテラン記者
    • Fox News「Fox411」創設者
    • Rotten Tomatoes掲載レビュワー
    • Critic Choice Awards会員
    • Cannes、Sundance等映画祭で作品発表経験

まとめ

  • AIと音楽産業 の新たな局面
  • チャートの公正性リスナーの認識 に関する議論の活発化
  • 業界全体の透明性向上と倫理的課題 への対応が急務

Hackerたちの意見

AI音楽がちょっとシビランスっぽいのが面白いなって思う。まるでスピーカーに紙を貼り付けたか、頭を乾いた葉っぱで覆われたみたいな感じ。完璧なモデルなんてないのは分かってるけど、こんなに広まってるのに、もう少し改善されてると思ったんだよね。これが最終的な製品にかなり影響を与えてるし。

同意だね。特にそれがイライラするし、大抵の楽器の空間的な配置やステレオ効果が薄い気がする(モデルが良い人間のミュージシャンほどその機能をうまく使えてないのかも)。

これも気づいた。いくつかの仮説があるんだけど、開示しておくと、音響について少し知ってて、音響生成AIについてはほとんど知らない。まず、モデルが比較的低ビットレートのエンコーディングで訓練されてるのかもしれない。画像生成が時々JPGアーティファクトを生成するように、低データレートエンコーディングの高周波数損失を聞いてる可能性がある。もう一つのアイデアは、「S」や「T」音などが比較的広帯域の音で、ホワイトノイズに似てるってこと。そういう音は、損失のある周波数ドメインエンコーディングスキームでエンコードするのが難しいことが知られてる。これらのモデルが似たようなドメインで動いていて、同じような制約を受けてるのかも。もしかしたら、ローパスフィルターと「ワービー」な音のバランスがあって、私たちはその中間の妥協点を聞いてるのかも。どうやってそうなるのかは分からないけど、音楽の中で「AI」サウンドを聞くと、これが最初の兆候の一つだね。

AIが音楽を生成するのは、波形を段階的に生成するからだと思う。だから、滑らかな音が好まれて、シャープなコントラストは出にくいんじゃないかな。もしMIDIデータを生成して、それをMIDIシンセで音にしたら、そんなことにはならないよ。

もしかしたら、人間の役割はEQカーブを適用することなのかも。

データセットがすべてアルゴリズム的にロスのある圧縮音楽で、実際のソースじゃないからだよ。要するに、海賊版のmp3で作られてるってこと。

ns10sのツイーターにティッシュペーパーを貼るのが、昔のスタジオでは流行ってたよね ;)

SunoでちょっとAI音楽を試してみたんだけど、まあまあ良かったよ。自分が好きなニッチなテーマの音楽を聴ける唯一の方法だし、Shadowrunみたいなね。いろんな音楽ジャンルを試してみて、いくつかは普通のプレイリストに追加するくらい良かった。でも、30曲くらい作ったら新しいアイデアが出てこなくなっちゃった。自分で音楽を作ったことがないから、遊ぶのは楽しかったよ。

AIアートについては二つの議論があって、そのうちの一つは「サンプリングやコラージュはアートなのか?」ってことに還元できるよね。AIで作った要素を使って何かを表現してるなら、それはアートを生み出してるってことだし、そこにかける時間(スキルを磨くか作品を作るか)も、他の人がそれにどれだけ価値を見出すかに関係してると思う。ヒップホップトラックをドラムループで作るのと同じことだよ。もう一つの質問はもっと面白くて、「生のAI生成アートには芸術的価値があるのか?」ってことなんだけど、その「芸術的」な部分は置いといて、「価値」の部分はノーだね。人々が楽しむかもしれないからじゃなくて、現代アートの「5歳の子供でもできる」って批判にまさに当てはまるから。誰でもAIを使って平凡なメディアを作れるんだ。ここで面白くなるのは「量」だよ。AIが解放するのは、誰でも自分のために曲や動画、画像を作れるってこと。価値は彼らがそこにかける時間や費用のほんの少しのものかもしれないけど、自分のために何かを作って、ちょっと楽しんで、すぐに捨てるのもいいかもしれない。Shadowrunテーマの音楽が欲しかったら、それを手に入れて楽しんだ。自分だけの価値のあるものを作ったけど、それはまあいいんじゃない? 何十億人もの人がいるから、たまには本当に良いものが生まれるかもしれないし。

私もSunoで遊んでみたよ。実際、何が作れるかはちょっとクレイジーだよね。客観的に良いとは思わないけど、多くの用途においてはこれ(他の生成AIも含めて)は「十分に良い」と呼べるものだと思う。アパートに引っ越したり、レンタルの家具を揃えたりするときに、壁に何かを飾ることもあるよね。例えば、何年もIKEAの大量生産されたプリントを飾ってたかもしれない。これらは写真や絵画かもしれないけど、多くは「抽象的」なものだよね。この種の用途において、現在の生成AIは「壁を埋めるもの」を作るには十分だと思う。だから、インディーゲームを作ってるなら、音楽や基本的なアート資産を考えるためにアーティストを雇うほどの予算がないかもしれないけど、AIがその役割を果たせると思う。プレースホルダーとして使えるから。だから、アーティストの苦境には共感してるよ。これらのLLMがどう訓練されてるか、そしてそれが「盗用」なのかという問題は確かにある。法的にも倫理的にもまだ解決中だから、新しい問題なんだ。でも、アーティストが必要ないこともあると思う。

AIをBand-in-a-Boxのフロントエンドとして使うのがどれくらいうまくいくか気になるな。Band-in-a-Boxは1990年からある商業プログラムで、当時はコード進行、スタイル、テンポ、楽器を指定するとMIDIトラックを生成してくれたんだ。メロディを取って、選んだスタイルやジャンルに合わせたコード進行を考え出すこともできたと思う。ターゲット市場はミュージシャンだった。楽器演奏者は即興やソロ用のトラックを生成するために使ってたし、作曲家は実質的にフルバンドを呼び出せるのが便利だった。年々機能が追加されて、実際の楽器を演奏するミュージシャンの録音からの音に切り替えられた。非常に良いストレッチとピッチトランスポジションがあって、さまざまなテンポやキーで使っても良い音がする。今でもミュージシャン向けで、他の人には圧倒されることがある。これを読んだところによると、機能や能力が25年以上の間に増えたことで、インターフェースがちょっとバラバラになってしまったらしい。自分が聞きたいことを説明して曲を作ってもらうのが好きな人には向いてないかも。でも、AIがそれを操作してくれたら、うまくいくかもしれないし、結果的にAI音楽メーカーよりもずっと良い楽器の音が得られるかも(無許可の著作権素材を含むリスクもないし)。

YouTubeで見た、ちょっとしたスターウォーズのファンフィクションの動画を思い出す。それにはジョン・ウィリアムズとマイケル・ジャチーノの間の素晴らしいサウンドトラックがあった。YouTuberはオーケストラの楽器のサンプルを含む商業プログラムを使っていて、豪華なスコアを作曲するのに使えた。高価だったから使ったことはないけど、そんなツールがあればいいなってずっと夢見てた。オーケストラ用のGarageBandみたいなやつ。今、そんなのをどれくらい早くコードで作れるか考えてる…

これについて読んだんだけど、25年以上も使われている間に機能が増えていくにつれて、インターフェースがバラバラになってきたみたい。これがどれだけ本当か、誇張することはできないよ。「BiaBは最悪の最高ソフトウェア、もしくは最高の最悪ソフトウェアだ」とよく言ってる。ツールバーには小さなアイコンが何十個も詰め込まれてて、視覚的な階層がほとんどなくて、古臭いデザイン、ダイアログが多すぎる(ダイアログの中にダイアログ!)、発見しづらい、ラベルが不一致、基本的な機能が欠けてる…まだまだ言いたいことがあるよ。さらに悪いことに、Mac版を使ってるんだけど、ネイティブアプリじゃなくてポートされた感じがする。AppleのLogic Pro Xみたいなデジタルオーディオワークステーションの方向性は好きだけど、AIが一般的になる数年前から、ドラム機能を始めとしたインテリジェントな音楽機能を導入してきたのはいいよね。

AIをBand-in-a-Boxのフロントエンドとして使うと、どれくらい上手くいくんだろう?わあ、その名前は…ソフトが比較的新しかった頃以来、聞いてなかったな。ああいうワークフローを持てるAI音楽ツールのアイデアは好きだよ。粒度を選んで(おそらく中間結果を編集できるように)使えるのはいいね。

BIABはまだまだ最高のクラスだよ(UIはほぼソビエト時代だけど)。リアルトラックの数が半端ないからね。リアルトラックは実際のミュージシャンの演奏で、コード進行に合わせて動的に適応するんだ。実際、自分の作曲を「カバー」オプションを使ってSunoにかけてみたんだけど、マジで凄いことができる。物理的なアレンジャーキーボード(ヤマハのPSR-SXみたいな)と、バックグラウンドの生成モデルによるリアルタイムオーケストレーションを組み合わせるっていうコンセプトがあったら、めっちゃクールだよね。

個人的には、AIが生成した音楽を買って、事前に通知がなかったら、めっちゃ損した気分になるな。そんなグループには、今後一切関わりたくない。

AI音楽の制作と消費は、独特に…人間に反していると思う。他のAIの使い方には実用的な理由があるけど、音楽に関してはどうだろう?例えば、あなたが生成しているコードは以前は存在しなかったし、書くのにはかなりの時間やお金がかかる。だから、経済的な理由は納得できる。でも音楽は?人間が作ったトラックはほとんど無限にあって、ほとんどタダでアクセスできる。ありとあらゆるスタイル、気分に合わせた何百万ものトラックがある。AI音楽を日常的に聴いても得られるものはないから、じゃあ何のためにあるの?人間の創造性に対する無関心以外に。

エレベーター音楽、つまりただ空間を埋めるためだけの音楽を考えると、AIを使ってそれを作るのと、AIを使ってクリップアートやボイラープレートコードを作るのに大差はないと思う。

企業レーベルが作った、すべてのボタンを押すように設計された型にはまったポップ音楽は、Sunoで公開されている平均的なトラックより「人間的」だと言える?そうは思わないな。ポップ音楽はすでにある程度商品化されているし。

でも音楽は?人間が作ったトラックはほとんど無限にあって、ほとんどタダでアクセスできる。これは、新しい音楽、つまり人間が作った音楽に対する反論にならない?すでにすべて持っているか、まだ聴いたことのない新しいものが必要かのどちらかだよね。

それに対する主張は何なの? レコード会社はそれを売って、ロイヤリティを支払う必要がないんだ。アーティストにはほんの少ししか払わないし、それでも多すぎるって感じだよ。

基本的に、人間が作ったトラックは無限にあって、ほとんどタダでアクセスできるんだよね。それをAIに学習させて、自分が欲しい部分を組み合わせたものを作る。むしろ、AI音楽は、人間が持っている「巨人の肩に乗る」っていう本能的な欲求の自然な進化だと思う。小さなパーツから大きなものを創り出すためにね。

時々、全然わからないこともあるよね。ウーバーのドライブ中に、運転手が素晴らしいブラジルのボサノバのプレイリストを流してたんだ。それはもう最高で、今まで聴いた中で一番良いトラックだった。運転手もそのシンガーが好きだけど、名前がどこにも見つからないって言ってた。実はそれ、完全にAI生成のYouTubeプレイリストで、想像できる中で最高のボサノバなんだ。正直、今でもそのプレイリストを毎日聴いてるよ。それに、もし君が独立したミュージシャンで、いい声を持っていて、楽器も弾けるなら…AIにヒットトラックを生成してもらって、コンサートやショーで演奏して、自分のものとして主張できるかもしれないね。

でも、特定のジャンルを聴くのが好きだったらどうする?例えばエレクトロスウィング(https://en.wikipedia.org/wiki/Electro_swing)。人間が作った良いエレクトロスウィングはあまりないし、新しいものもあまり出てこない。全部聴き尽くしちゃって、新しい曲が聴きたいって思うのは簡単だし、もしかしたらAIがそれを手助けしてくれるかもしれない。

人間のシンガーは、だいたい自分が好きなことについて歌うからね。自分の人生経験や想像力を使って曲を書いたり歌ったりする。他の人が好きかどうかは別として。AIは他の人が好きな曲だけを歌うから、AIシンガーは自然にリスナーを引きつけるんだ。

AIを使うのは、主流のポップが以前にやっていたことの論理的な続きだと思うよ。音楽を最低限の共通項にまで減らして、できるだけ多くのリスナーにアピールできるようにすること。AIはそのプロセスを加速させるだけなんだ。

昨年の終わりにSunoを使って、いくつかの古いデモを再構築してみたんだけど、正直その結果には驚いたよ。あのトラックは恥ずかしくてリリースできないけどね。でも、AIのリミックスを研究して、何が好きなのかを理解するのは実用的だと思うし、音楽制作の練習ツールとして使えるかもしれない。

この12年間、ハッカーニュースを読む以外での一番の趣味は、スマホやiPad、ピアノで音楽を作ることだよ。Sunoが登場したからって、音楽を作るのをやめるわけないし。音楽を作るのが好きだからね。AIが研究についての会話をうまくやったからって、私が話すのをやめるわけじゃないよ。最新の作品で十分なお金が入ったら、もっと音楽作る時間を増やすつもり。私の音楽はSoundCloudでも聴けるよ。ほとんどがiPhoneで作ったやつ。 https://on.soundcloud.com/lHJN26CwcwtnQzc2CB

オートプレイは新しい音楽を見つけるのに役立ってたんだけど、今は聴くたびに「これAI生成かも」って不安がついて回るから、使うのをやめた。今は、自分が好きなバンドの新しいアルバムを探してる。2023年以前のフィルターがあったらいいのに。

アーティストがライブをやってるなら、今のところはAIじゃないっていう良い指標だよね。

ごめん、でもこの態度には驚くよ。20年後にはすごくバカみたいに聞こえると思うし、みんなでその記憶を忘れちゃうんじゃないかな。もしSpotifyの推薦曲を聴くのが嫌になったら、それはAIかもしれないし、知らないかもしれないってことだよね。それって、自分の美的判断と価値観の間にどんなズレがあるのかを考えさせるよね。Spotifyのオートプレイを聴いてて、クソみたいな曲が流れたら、スキップすればいいんだよ。もしAIのクソ音楽がSpotifyに溢れてるなら、自然とアルゴリズム的に失敗するはずだし(Spotifyがアルゴリズムについて正直であると信じるならだけど、正直それは難しいよね)。もしSpotifyのオートプレイでキャッチーで素晴らしい曲が流れたら、それを聴いて楽しむべきだよ。「AIかも」っていう反射的な嫌悪感は、その瞬間には必要ない。デジタル波形を再生するプラスチックとレアアースのイヤフォンで音楽を聴いて、何を感じるかに集中すればいいんだ。人間が作ったかどうかなんて、気にするのが馬鹿らしいと思う。音楽を楽しむ限り、唯一の質問は「これ、いい曲?」であるべきだよ。アヒルが作ったかナメクジが作ったかなんて関係ない。経済的な公正さについてはまた別の話で、そこに関しては強い意見はないけど、AIを使って音楽を生成する人には、その使用を開示するようにインセンティブを与えるべきだと思う。そうすれば、人間のアーティストをサポートしたい人がそのグループをフィルタリングできるからね。特定のアーティストを真似るような人は、「インスパイアされた」と「恥知らずにパクる」の境界を越えたら、AIを使ってようが使ってなかろうが、厳しく制裁されるべきだと思う。

大好き!AI音楽には魂も感情もないって言う人がいるのが面白いよね。一方で、99%の音楽は性器や売春、尻を振ることについての曲だし(笑)

そんなに好きじゃないけど、レコード業界もAIと同じようなアイデンティティのないゴミみたいな音楽ばっかり出してるから、みんなが気にしないのも無理ないよね。今の「アンジン・ド・ポワトリーヌ」の現象の根本はそこにあると思う。ライブで、リアルで、違うんだよね。まるで25年の休眠から音楽が目覚めたみたい。

逆に、AI音楽は本当に良くて、遊び心があってテーマに沿って進むこともできるよ。ラインはいいし、声もクリアで、他のタイトルと同じように感情を呼び起こすこともできる。リスナーの状態にもよるけどね。それでも、ほとんどの時間は聴きたくないな。若い頃だったら、自分で楽器を学んで演奏するのを本当に妨げてたと思う。今はそれを飛ばして、AIを使って音楽を生成するかな。昨日は自分で音楽を演奏して、ネットで見つけた奇妙なテスト版のオーディオロジックを使ってたけど、今日ではそれが次の一般的なAIジェネレーターになってるだろうね。

自分は音楽オタクって言えるかも。ストリーミングサービスは全然ダメで、好きな曲のほんの一部しかないから(自分の好きなのはディスコードジャズのバリエーションが多い。他のジャンルでもね。音楽がノイズに分解されて、また再構築されるのが好きなんだ)。その興味から、AI音楽生成の深いところにハマってる。サービスじゃなくて、モデルを開発したり、公開されてるオープンウェイトモデルを探ったりしてる。これらのシステムからは質の高い本物のアート音楽が生まれるけど、単にプロンプトだけでは無理だよ。これは全く新しい楽器のレベルで、コントロールの深さがあって、思考を音楽やメロディー、そして意図された意味の交響曲に変えるためのものなんだ。伝統音楽とこの形式の音楽は別々に扱うべきかもしれない。AI音楽のプロンプトだけのものと、より深いコントロールから生まれるものの違いはすごく大きいけど、今はその区別がされてないし、表面的な評価しかされてないから、永遠にそのままかもしれない。

これ、マネーロンダリングの素晴らしい方法に見える。一般的なAI音楽を作って、盗まれたギフトカードで買った小さなアカウントを使ってその曲を流して、他の人が乗っかってくるのを見てチャートが上がるのを楽しむ。ほら、つながりなしで瞬時にレイヤリングができる。自分が嫌いな音楽がチャートに入るのは、まさにこういうことだと思う。 :P

これを止める方法があるよ。KEXPに行って、新しいバンドを見つけて、友達とシェアして、物理的なコピーを買って、Tシャツを買って、チケットを予約して、SNSで彼らのことをいいねしてあげて。レコード会社が本物のバンドに集まるのを見てみて。もう一度言うけど、まずは「アンジン・ド・ポワトリーヌ」から始めよう。ライブ音楽が解毒剤だよ。