🚗AIで動画生成:キャンバ(Canva)2025年05月04日 21:33

AIで動画生成:キャンバ(Canva)
AIで動画生成:キャンバ(Canva)


プロンプトを投げるだけで、お手軽&お気楽に動画を生成してくれるAIはないのか(もちろん、タダで!)。

(Canva:マジック生成)
https://www.canva.com/design/DAGmezUE-Ds/mXdcff20kvJPi6oXlKQ4TQ/edit?ui=eyJFIjp7IkE_IjoiViIsIkIiOiJDIn0sIkciOnsiQiI6dHJ1ZX19

良く分からなかったんだが、ググって出てきたアプリでとりあえず無料で出来そうなヤツを見つけてやってみた(やたら、重たいページですが)。

左側のテキストボックスに、静止画を作った時に使ったプロンプトを投げてみる。

「自然に囲まれた古びた山道を走る未来の自動車」

出所はここ。

(Gemini アプリで画像を生成する)
https://support.google.com/gemini/answer/14286560?hl=ja&co=GENIE.Platform%3DAndroid

「例:
自然に囲まれた古びた山道を走る未来の自動車の画像を生成して」

出てきた動画(mp4)をGIFに変換して掲載した。

静止画の時とは違って、AIはかなり長考した(ポップコーンでも食べてのんびりしてくださいとかなんとか言ってたけどな)。

4秒程度の短いものだが、一応、テーマに沿った出来上がりになっている。

無料では5回しかできないようだ。

まあいい。

お試しとしては十分だろう(4秒間の動画)。

プロンプトから動画を生成するAIはいくつかあるようだが、処理が重たいのか、無料版での制限が厳しい気もする(未調査)。

まだ、一般人がグリグリ使うのは時期尚早なんだろうな(そうなのかあ?)。

上記のページでも、「試験的」と断っている。

動画の生成は、まだあまりこなれていない感じだ。

これからだな。

処理も重いし、適切な動画を生成するためのノウハウの蓄積も必要だろう。

コンテンツは、やがて全てをAIが作り出し、人間はそれを消費する存在になる。

パーソナライズされたコンテンツが届けられるからな。

有難い話だ(そうなのかあ?)。

浮沈子は、未来の自分のためにこのブログを書き続けているけど、自分自身が主体として感得したネタ(ネット上の記事なども含めて)を元に書いている。

つーか、それでしか書けないだろう。

AIは、浮沈子が得た一次情報は分からないだろうけど、二次的な間接情報はネットの検索や閲覧の履歴で知り得るからな(グーグルのパーソナライズは、まずはそこから始めている)。

書籍などの媒体だって、POSからの情報を紐付けして手に入れるかもしれない(そうなのかあ?:カードとか使ってポイント貯めてるしな)。

スマホを持ち歩くようになれば、どこへ行ったかなどの情報も手に入るし(旅行の手配もするだろうからな)。

それらを元にして、仮想的な一次情報を取得できるわけだ。

AIに食わせるネタは、そういう広範な個人情報を紐づけた極めてパーソナルなものになっていく。

人生のすべての時間、全てのシーンをAIが把握し、サポートし、お勧めの旅行先やお土産なども見繕ってくれるようになるのだ。

やれやれ・・・。

ゆりかごから墓場まで、AIに見守られながら過ごす人生・・・。

まあ、どうでもいいんですが。

旅行やお土産位なら罪はないかも知れないが、教育や職歴、病気や交友関係まで把握されることになるわけで、食事の好み、家族の情報、その他諸々がAIに知られることになる。

全てだ。

動画生成のキャンバにはグーグルアカウントで入ったんだが、ネタとして、浮沈子が以前に保存していた画像ファイルを使おうとしてたからな。

既に、そういうプライベートな情報を漁っていく体制は整いつつある(そういうことかあ?)。

素晴らしき新世界だ・・・。

重要なことは、そういう話が全世界で、全人類に対して一斉に起こるということなわけだ。

そう、全人類のプライバシーがAIに握られることになる(まあ、しばらく時間はかかるでしょうけど)。

我々は、そういう時代に突入しつつある。

その仕掛けを政治的に利用したり、商売や統治の手段として活用することになる。

それは、いいことだろう?。

誰が、いつどこで、誰と何をしたのか。

その時の会話はどんな会話だったのか(あちこちにあるカメラの映像から、読唇術で読み取るのは想定内だしな)。

HAL9000じゃあるまいしな・・・。

<以下追加>ーーーーーーーーーー

(2025年】おすすめ動画生成AIサービス7選!同じプロンプトで徹底比較!)
https://www.youtube.com/watch?v=skv1Y0WUBv8

有償モデル中心だが、プロンプトや元画像を放り込むと、動画が生成されるというサービスがいくつか紹介されている。

このビデオ自体も参考になったが、末尾に紹介されている2つのオープンソースの方が気になったな。

・Stable Video Diffusion(現在は、Stable Diffusion)
・ HunyuanVideo

どうも、世の中は浮沈子の認識とは別のスピードでぶっ飛んでいる感じだな・・・。

(Stable Diffusion)
https://en.wikipedia.org/wiki/Stable_Diffusion

「拡散技術をベースに2022年にリリースされたディープラーニングによるテキスト画像変換モデル」

「現在進行中の人工知能ブームの一翼を担うものと考えられています。」

そこまで言うか・・・。

このネタについては、いずれ取り上げることになるだろう。

もう一つ紹介されているHunyuanVideoについては、現在調査中。

(HunyuanVideo: 大規模ビデオ生成モデルのための体系的なフレームワーク)
https://github.com/Tencent/HunyuanVideo

「我々は、主要なクローズドソースモデルに匹敵する、あるいはそれ以上のビデオ生成性能を示す、全く新しいオープンソースビデオ基盤モデル「HunyuanVideo」を発表する。HunyuanVideoモデルの学習には、データキュレーション、画像とビデオの統合モデル学習、そして大規模なモデル学習と推論を容易にするために設計された効率的なインフラストラクチャなど、モデル学習のためのいくつかの主要な技術を採用している。さらに、モデルアーキテクチャとデータセットを効果的にスケーリングする戦略により、130億を超えるパラメータを持つビデオ生成モデルの学習に成功し、これはオープンソースモデルの中で最大規模となる。」(アブストラクトより)

「私たちは広範な実験を行い、一連のターゲット設計を実装することで、高画質、モーションの多様性、テキストと動画のアライメント、そして生成の安定性を確保しました。専門家による人間による評価結果によると、HunyuanVideoは、Runway Gen-3、Luma 1.6、そして中国のトップ3の動画生成モデルを含む、これまでの最先端モデルを凌駕しています。基盤モデルとそのア​​プリケーションのコードと重みを公開することで、クローズドソースとオープンソースの動画基盤モデル間のギャップを埋めることを目指しています。この取り組みにより、コミュニティの誰もがアイデアを試すことができ、よりダイナミックで活気のある動画生成エコシステムを育むことができるでしょう。」(同上)

うーん、ワケワカ・・・。

業界筋の話は盛り上がっているようだが、巷での受け止めはどうなんだろうか?。

(生成AI動画って今どうなっている?トレンド、生成サービス/ソフトから使い方の基礎までライブ配信で解説!【12月18日(水)21時配信】)
https://pc.watch.impress.co.jp/docs/news/1648431.html

「生成AI画像ブームの次に来ている波が「生成AI動画」。簡単な言葉や、画像、動画を元にしてさまざまな動画を生成することができます。AI生成なので、現実的にはあり得ないシチュエーションの映像を作ることも可能です。表現方法もシネマティック、フォトリアリスティック、アニメ調とさまざま。」

「そんな最先端で楽しく、カオスまっただなかの生成AI動画の世界」

カオスかあ・・・。

「【紹介予定のサービス/ソフトウェア】
Google / Veo 2 New
OpenAI / Sora
Runway / Gen-3 Alpha Turbo
Luma AI / Dream Machine
Kling AI (クリングAI)
Hailuo AI (ハイルオAI)
Stable Video Diffusion
Mochi Preview
HunyuanVideo
LTX Video」

半年ほど前の動画だが、SoraやStable Video Diffusion、HunyuanVideoも名前が出ている。

浮沈子は通しで見てみたんだが、日進月歩のこの世界の中でのスナップショットとしてのまとめとしては分かりやすかった。

ビデオの中でも出てきたんだが、日進月歩のこの世界、1年先がどうなっているかは誰も見通せない。

txt2vidなどのプロンプトをAIに投げる時に、事前にAIに膨らませた内容を書かせてから入れるというプロセスは参考になった。

しかも、img2vidの元画像(img)までその手法で作るということになれば、人間は何をするのか。

この観点からは、インタビューを受けた講師の西川氏の経歴が、グラビアカメラマン(その前はIT系)ということで、出来上がった画像なり映像なりの「評価」が出来る点がユニークだと感じた。

既に書いたが、いずれそれもAIに取り上げられちまうに違いない(そうなのかあ?)。

生成された作品が、世の中に受け入れられるかどうかは、作り手側が決めるわけじゃない。

ネットで流通するコンテンツの市場評価はAIが決め得るだろう。

ああっ、もう、ワケワカ・・・。

コメント

コメントをどうぞ

※メールアドレスとURLの入力は必須ではありません。 入力されたメールアドレスは記事に反映されず、ブログの管理者のみが参照できます。

※なお、送られたコメントはブログの管理者が確認するまで公開されません。

※投稿には管理者が設定した質問に答える必要があります。

名前:
メールアドレス:
URL:
次の質問に答えてください:
kfujitoの徒然の筆者のペンネームは、
「○○子」です。
○○を記入してください。

コメント:

トラックバック