SunoのWikiができてたんですね。今日知りました。Sunoを活用したい方には役立つと思うので情報を共有します。それから、Hedra AIという画像をリップシンクさせるWebサービスができてオーディオファイルから歌っているところの動画が作れるようになりました。Sunoと組み合わせると表現力がアップして面白いのでこちらもご紹介します。
この記事でわかること
- Suno Wiki
- Hedra AI
Suno Wikiはこちらです
Suno Wikiはこちらです。日本語バージョンもあります。
ぼくもまだ全部読んでいませんが、使ったことのないテクニックがいろいろのっているので試してみたいと思います。なお、日本語バージョンは訳されていますが、タグは英語でないと機能しないと思います。日本語は歌詞だけですね。
Hedra AIはこちらです
URLはこちらになります。Googleアカウントでリップシンク動画が作れます。
ぼくも試してみました。ネタは前回と同じRapバトル。まず自画像から両者につくってもらいました。
GPT自画像
Geminiの作ったプロンプトでGPT(DALL-E)が描いたGeminiの自画像
額どうした()。
調整してこんなかんじになりました。
GPT
Gemini
番外編
emo
中国のemoという技術があってめっちゃ期待してたのですが、使えるサービスとしてはHedraのほうが先でしたね。emoの方も歌に寄せた表現ができていると思うので今後が楽しみです。
https://humanaigc.github.io/emote-portrait-alive
Dream Machine
画像から動画化できる技術なんですが、Kaku Dropさんがインスタで以前も画像を動かしていていてすごいと思っていたら、Dream Machineによって、表現がめっちゃ進化していました。もはやほとんど実写です。
こちらもOpenAI に期待してたら、先に出てきました。来年にはぼくたちも普通に自分の曲でフォトリアリスティックなMVを作れているんじゃないかと思います。
いかがだったでしょうか
2027年にはAGIが誕生するそうで、AIの進歩は急速です。ぼくたちが音楽を学んでいるのもいいプロンプトが作れるようになるためかもしれません。それではまた次回のブログでお目にかかりましょう。