😼ブロガーの休日:みどりの日:ジェミニに任せる ― 2025年05月04日 05:46
ブロガーの休日:みどりの日:ジェミニに任せる
(みどりの日(5月4日 国民の祝日))
https://zatsuneta.com/archives/105041.html
「「自然に親しむとともにその恩恵に感謝し、豊かな心をはぐくむ」ことを趣旨とした「国民の祝日」の一つ。」
ああ、今日も気が乗らずカフェインも切れている。
「「みどりの日」について、400文字程度のブログ記事を書いてください。」
「承知いたしました。「みどりの日」について、400文字程度のブログ記事を書きます。」
「## 新緑が目にまぶしい!「みどりの日」に自然を感じよう
五月晴れの空の下、木々の緑が一段と輝きを増すこの季節。5月4日は「みどりの日」です。この祝日は、「自然に親しむとともに、その恩恵に感謝し、豊かな心を育む」ことを趣旨として定められました。
もともとは昭和天皇の誕生日であった4月29日が「天皇誕生日」として祝日でしたが、天皇陛下の崩御後、「みどりの日」と改められました。自然を愛された昭和天皇の想いを引き継ぎ、私たちはこの日、改めて自然の大切さを感じ、その恵みに感謝する機会を得ています。
都会に住んでいるとなかなか自然に触れる機会がないという方もいるかもしれません。しかし、少し足を伸ばせば、公園の緑や街路樹の木々も私たちに安らぎを与えてくれます。深呼吸をして新鮮な空気を吸い込んだり、木漏れ日の下を散歩したりするだけでも、心身ともにリフレッシュできるはずです。
今年の「みどりの日」は、ぜひ身近な自然に触れてみてください。公園でピクニックを楽しんだり、庭の手入れをしてみたり、ベランダで育てている植物に水をあげたりするのも良いでしょう。自然の中で過ごす時間は、私たちに穏やかな気持ちと新たな活力を与えてくれるはずです。
この美しい緑を守り、未来へと繋いでいくために、私たち一人ひとりができることを考えてみるのも良い機会かもしれませんね。」
初出のホームページには、「2007年(平成19年)より4月29日は「昭和の日」と改称され、「みどりの日」は5月4日に移動された。」とある。
要するに、便宜的に定められた国民の祝日なのだ(そうなのかあ?)。
大型連休を、毎年安心して(ここ重要です)楽しみたいーっ!。
画像は、昨日、以下のお題でジェミニに生成してもらったもの(ネタはグーグルのマニュアルの例示そのまま:画像は縮小しています)。
「自然に囲まれた古びた山道を走る未来の自動車の画像を生成して」
画像生成に当たってのプロンプトには、「・・・の画像を生成して」とか「・・・の画像を作成して」と唱えるのが礼儀(決まり)のようだ。
浮沈子は、このブログを書き続けるのを日課にしているけど、サボったり、まとめ書きしたりとテキトーに付き合っている。
仕事じゃないし、義務でもない。
その日その時に関心があったことを綴り、後から読み返して楽しんだり、顔から火を噴きだして穴に入るために書いている(概ねこっちだな・・・)。
唯一想定している読者は、未来の自分自身だ。
だから、自らが筆を取って書く(パソコンのキーボードを叩く)ことに意義があるのであって、途切れなくネタを探して継続することに意味はない。
AIによって、与えられたお題でそれらしく書かれた記事は、浮沈子のブログではない。
今日はみどりの日。
寺山修司の死んだ日でもある。
(寺山修司)
https://ja.wikipedia.org/wiki/%E5%AF%BA%E5%B1%B1%E4%BF%AE%E5%8F%B8
「(1967年(昭和42年))3月、評論集『書を捨てよ、町へ出よう』が刊行される」
「カルメン・マキの「時には母のない子のように」の作詞を手がける。」
「1970年(昭和45年)3月24日、漫画『あしたのジョー』の登場人物、力石徹の葬儀で葬儀委員長を務める。」
「1971年(昭和46年)、『書を捨てよ、町へ出よう』で劇映画に進出。サンレモ映画祭でグランプリを獲得。」
「1983年(昭和58年)、東京都港区三田に在住中に肝硬変を発症し阿佐ヶ谷の河北総合病院に入院後、腹膜炎を併発し、5月4日に敗血症のため死去、47歳没。葬儀委員長は谷川俊太郎」
その谷川俊太郎も死んじまったしな。
まあ、どうでもいいんですが。
時代の旗手であり、サブカルのヒーローの一人だ。
浮沈子は年代的にズレた感じだったが、周りにファンが多かった。
今日はみどりの日。
書を捨てよ、町へ出よう。
自然に囲まれた古びた山道を走る未来の自動車に乗って・・・。
(みどりの日(5月4日 国民の祝日))
https://zatsuneta.com/archives/105041.html
「「自然に親しむとともにその恩恵に感謝し、豊かな心をはぐくむ」ことを趣旨とした「国民の祝日」の一つ。」
ああ、今日も気が乗らずカフェインも切れている。
「「みどりの日」について、400文字程度のブログ記事を書いてください。」
「承知いたしました。「みどりの日」について、400文字程度のブログ記事を書きます。」
「## 新緑が目にまぶしい!「みどりの日」に自然を感じよう
五月晴れの空の下、木々の緑が一段と輝きを増すこの季節。5月4日は「みどりの日」です。この祝日は、「自然に親しむとともに、その恩恵に感謝し、豊かな心を育む」ことを趣旨として定められました。
もともとは昭和天皇の誕生日であった4月29日が「天皇誕生日」として祝日でしたが、天皇陛下の崩御後、「みどりの日」と改められました。自然を愛された昭和天皇の想いを引き継ぎ、私たちはこの日、改めて自然の大切さを感じ、その恵みに感謝する機会を得ています。
都会に住んでいるとなかなか自然に触れる機会がないという方もいるかもしれません。しかし、少し足を伸ばせば、公園の緑や街路樹の木々も私たちに安らぎを与えてくれます。深呼吸をして新鮮な空気を吸い込んだり、木漏れ日の下を散歩したりするだけでも、心身ともにリフレッシュできるはずです。
今年の「みどりの日」は、ぜひ身近な自然に触れてみてください。公園でピクニックを楽しんだり、庭の手入れをしてみたり、ベランダで育てている植物に水をあげたりするのも良いでしょう。自然の中で過ごす時間は、私たちに穏やかな気持ちと新たな活力を与えてくれるはずです。
この美しい緑を守り、未来へと繋いでいくために、私たち一人ひとりができることを考えてみるのも良い機会かもしれませんね。」
初出のホームページには、「2007年(平成19年)より4月29日は「昭和の日」と改称され、「みどりの日」は5月4日に移動された。」とある。
要するに、便宜的に定められた国民の祝日なのだ(そうなのかあ?)。
大型連休を、毎年安心して(ここ重要です)楽しみたいーっ!。
画像は、昨日、以下のお題でジェミニに生成してもらったもの(ネタはグーグルのマニュアルの例示そのまま:画像は縮小しています)。
「自然に囲まれた古びた山道を走る未来の自動車の画像を生成して」
画像生成に当たってのプロンプトには、「・・・の画像を生成して」とか「・・・の画像を作成して」と唱えるのが礼儀(決まり)のようだ。
浮沈子は、このブログを書き続けるのを日課にしているけど、サボったり、まとめ書きしたりとテキトーに付き合っている。
仕事じゃないし、義務でもない。
その日その時に関心があったことを綴り、後から読み返して楽しんだり、顔から火を噴きだして穴に入るために書いている(概ねこっちだな・・・)。
唯一想定している読者は、未来の自分自身だ。
だから、自らが筆を取って書く(パソコンのキーボードを叩く)ことに意義があるのであって、途切れなくネタを探して継続することに意味はない。
AIによって、与えられたお題でそれらしく書かれた記事は、浮沈子のブログではない。
今日はみどりの日。
寺山修司の死んだ日でもある。
(寺山修司)
https://ja.wikipedia.org/wiki/%E5%AF%BA%E5%B1%B1%E4%BF%AE%E5%8F%B8
「(1967年(昭和42年))3月、評論集『書を捨てよ、町へ出よう』が刊行される」
「カルメン・マキの「時には母のない子のように」の作詞を手がける。」
「1970年(昭和45年)3月24日、漫画『あしたのジョー』の登場人物、力石徹の葬儀で葬儀委員長を務める。」
「1971年(昭和46年)、『書を捨てよ、町へ出よう』で劇映画に進出。サンレモ映画祭でグランプリを獲得。」
「1983年(昭和58年)、東京都港区三田に在住中に肝硬変を発症し阿佐ヶ谷の河北総合病院に入院後、腹膜炎を併発し、5月4日に敗血症のため死去、47歳没。葬儀委員長は谷川俊太郎」
その谷川俊太郎も死んじまったしな。
まあ、どうでもいいんですが。
時代の旗手であり、サブカルのヒーローの一人だ。
浮沈子は年代的にズレた感じだったが、周りにファンが多かった。
今日はみどりの日。
書を捨てよ、町へ出よう。
自然に囲まれた古びた山道を走る未来の自動車に乗って・・・。
🐕AI生成コンテンツ印:逆転は時間の問題 ― 2025年05月04日 12:13
AI生成コンテンツ印:逆転は時間の問題
(PinterestがAIで生成または編集された画像を示す「AI修正」ラベルを展開、メタデータと独自のAI分類器で識別)
https://gigazine.net/news/20250502-pinterest-gen-ai-labels/
「新たにPinterestが、AIで生成または編集された画像を示す「AI修正」ラベルを全世界で展開」
「実際のコンテンツと生成AIコンテンツの区別が付きにくいことなどが問題視」
「生成AIツールの出現は、多くの人々にとって創造性とインスピレーションを高めるのに役立ちました。同時に、これらのツールは始まったばかりであり、一部のユーザーからはPinterestで目にする生成AIコンテンツについて、もっと透明性を高めてコントロールしたいという声も聞いています」(Pinterest)
「ユーザーが生成AIコンテンツであることを隠していても、生成AIコンテンツだと判断されればラベルが付与されるようです。」
「これらの分類器を改良すれば、私たちのラベルはさらに有用で正確なものになるでしょう。しかし、これらのシステムが完璧でないことも承知しています。そのため、私たちは自分のコンテンツが誤って分類されているかもしれないと考えるクリエイターやユーザーのため、不服申し立て制度を設けています」(同上)
うーん、ジェミニで実際に画像生成してみた感想から言えば、あまり意味がないような気がしないでもない。
至極簡単に生成出来ること、出来栄えも悪くないし、それはそれとして(AI生成画像として)大いに楽しめること、プロのクリエーターでなくても、それなりの質の良さが発揮できること、そもそも、画像を見せて客をおびき寄せ、広告を展開して収益を得ようというビジネスモデルが胡散臭いこともあるからな。
そのうち、AI生成画像がアットーテキ多数を占め、ラベルは人間が作成したオリジナルの画像だけに付けるようになるだろう。
画像だけじゃない。
文章や動画さえも、あらゆるコンテンツがAIによって作られることになる。
人間は、コンテンツを消費するだけで作成する側ではなくなるのだ(そうなのかあ?)。
確かに弊害もある。
「近年のPinterestは生成AIコンテンツによってプラットフォームが支配されていると批判されており、実用的な目的で使用することが難しくなっていると指摘。たとえば、アーティストはPinterestで正確な現実世界の参考資料を見つけるのに苦労しており、一般のユーザーにもAI生成の風景や人物写真に惑わされる可能性があります。」(海外メディアのThe Verge)
そもそも、インターネット上で「正確な現実世界の参考資料を見つける」というのが手抜きなのではないのかあ?。
実際に現場に出かけ、自らの目で(写真とか撮らないで)脳裏に焼き付けたうえで作品を制作するのが筋だ。
もちろん、描画ツールにはAIが入ってるけどな(そんなあ!)。
まあいい。
生成AIが作成したかどうかは、この際問題ではない。
その作品の品質を評価し、人間だろうがAIだろうが、「作者」に正しいフィードバック(金銭的見返りも含めてな)を行うことが重要だ。
が、たぶん、おそらく確実に、その評価自体をAIが行うようになることは想定の範囲内だ。
やれやれ・・・。
ピンタレストのAI判定だって、絶対にAI使ってるに決まってる(断定的!)。
そして、画像生成するAIが、判定するAIを出し抜こうとするイタチごっこが始まる。
騙したりすかしたり、裏金送ったりしてな(そうなのかあ?)。
判定AIに良く思われようとして、おべっか使うかもしれない。
(GPT-4oが「おべっか使い」に変貌したのは目先のフィードバックを重視しすぎたことが原因とOpenAIが釈明)
https://gigazine.net/news/20250430-gpt-4o-absurd-sycophant-openai/
「GPT-4oは、2025年4月下旬のアップデートで、不快なほどユーザーを持ち上げるような言動を見せるようになり、ユーザーからは「過度に迎合的」との批判」
AIがおべっか使われて、人間orAIの判定にノイズが入るのかどうかは知らない。
が、何らかの形ですり抜けようと試みることは確かだろう。
AI生成画像などに改変が困難なフラグを付ける試みは以前から存在する。
(GoogleがAI生成コンテンツに電子透かしを入れてフェイク拡散を防ぐ「SynthID」をテキストと動画にも拡張、一体どうやって文章に透かしを入れるのか?)
https://gigazine.net/news/20240515-google-watermarking-ai-text-video-synthid/
「AI生成コンテンツにウォーターマーク(電子透かし)を入れてフェイク画像の拡散を防止するツール「SynthID」を、従来の画像だけでなくテキストと動画にも拡張することを発表」
まあ、どうでもいいんですが。
浮沈子は、先日からジェミニにブログ記事の生成を依頼してみて、こりゃ敵わんと兜を脱いだ。
動画とかは試していないけど、画像が出来るなら可能に違いない。
で、あらゆるネット上のコンテンツの質が高まることになるのなら、それに越したことはない。
それでなくても巷にはフェイク情報が溢れている。
浮沈子のように、意図せず誤って二次拡散することもある(反省!)。
それを、人間の力だけでどうにかしようとすることは不可能だろう。
AIが作成したフェイク情報を判定し、正確な情報を選別するためには、やはりAIの力を借りるしかない。
正義の味方か、それとも悪魔の使いなのか。
石川や 浜の真砂は尽きるとも 世にAIの種は尽きまじ・・・。
(PinterestがAIで生成または編集された画像を示す「AI修正」ラベルを展開、メタデータと独自のAI分類器で識別)
https://gigazine.net/news/20250502-pinterest-gen-ai-labels/
「新たにPinterestが、AIで生成または編集された画像を示す「AI修正」ラベルを全世界で展開」
「実際のコンテンツと生成AIコンテンツの区別が付きにくいことなどが問題視」
「生成AIツールの出現は、多くの人々にとって創造性とインスピレーションを高めるのに役立ちました。同時に、これらのツールは始まったばかりであり、一部のユーザーからはPinterestで目にする生成AIコンテンツについて、もっと透明性を高めてコントロールしたいという声も聞いています」(Pinterest)
「ユーザーが生成AIコンテンツであることを隠していても、生成AIコンテンツだと判断されればラベルが付与されるようです。」
「これらの分類器を改良すれば、私たちのラベルはさらに有用で正確なものになるでしょう。しかし、これらのシステムが完璧でないことも承知しています。そのため、私たちは自分のコンテンツが誤って分類されているかもしれないと考えるクリエイターやユーザーのため、不服申し立て制度を設けています」(同上)
うーん、ジェミニで実際に画像生成してみた感想から言えば、あまり意味がないような気がしないでもない。
至極簡単に生成出来ること、出来栄えも悪くないし、それはそれとして(AI生成画像として)大いに楽しめること、プロのクリエーターでなくても、それなりの質の良さが発揮できること、そもそも、画像を見せて客をおびき寄せ、広告を展開して収益を得ようというビジネスモデルが胡散臭いこともあるからな。
そのうち、AI生成画像がアットーテキ多数を占め、ラベルは人間が作成したオリジナルの画像だけに付けるようになるだろう。
画像だけじゃない。
文章や動画さえも、あらゆるコンテンツがAIによって作られることになる。
人間は、コンテンツを消費するだけで作成する側ではなくなるのだ(そうなのかあ?)。
確かに弊害もある。
「近年のPinterestは生成AIコンテンツによってプラットフォームが支配されていると批判されており、実用的な目的で使用することが難しくなっていると指摘。たとえば、アーティストはPinterestで正確な現実世界の参考資料を見つけるのに苦労しており、一般のユーザーにもAI生成の風景や人物写真に惑わされる可能性があります。」(海外メディアのThe Verge)
そもそも、インターネット上で「正確な現実世界の参考資料を見つける」というのが手抜きなのではないのかあ?。
実際に現場に出かけ、自らの目で(写真とか撮らないで)脳裏に焼き付けたうえで作品を制作するのが筋だ。
もちろん、描画ツールにはAIが入ってるけどな(そんなあ!)。
まあいい。
生成AIが作成したかどうかは、この際問題ではない。
その作品の品質を評価し、人間だろうがAIだろうが、「作者」に正しいフィードバック(金銭的見返りも含めてな)を行うことが重要だ。
が、たぶん、おそらく確実に、その評価自体をAIが行うようになることは想定の範囲内だ。
やれやれ・・・。
ピンタレストのAI判定だって、絶対にAI使ってるに決まってる(断定的!)。
そして、画像生成するAIが、判定するAIを出し抜こうとするイタチごっこが始まる。
騙したりすかしたり、裏金送ったりしてな(そうなのかあ?)。
判定AIに良く思われようとして、おべっか使うかもしれない。
(GPT-4oが「おべっか使い」に変貌したのは目先のフィードバックを重視しすぎたことが原因とOpenAIが釈明)
https://gigazine.net/news/20250430-gpt-4o-absurd-sycophant-openai/
「GPT-4oは、2025年4月下旬のアップデートで、不快なほどユーザーを持ち上げるような言動を見せるようになり、ユーザーからは「過度に迎合的」との批判」
AIがおべっか使われて、人間orAIの判定にノイズが入るのかどうかは知らない。
が、何らかの形ですり抜けようと試みることは確かだろう。
AI生成画像などに改変が困難なフラグを付ける試みは以前から存在する。
(GoogleがAI生成コンテンツに電子透かしを入れてフェイク拡散を防ぐ「SynthID」をテキストと動画にも拡張、一体どうやって文章に透かしを入れるのか?)
https://gigazine.net/news/20240515-google-watermarking-ai-text-video-synthid/
「AI生成コンテンツにウォーターマーク(電子透かし)を入れてフェイク画像の拡散を防止するツール「SynthID」を、従来の画像だけでなくテキストと動画にも拡張することを発表」
まあ、どうでもいいんですが。
浮沈子は、先日からジェミニにブログ記事の生成を依頼してみて、こりゃ敵わんと兜を脱いだ。
動画とかは試していないけど、画像が出来るなら可能に違いない。
で、あらゆるネット上のコンテンツの質が高まることになるのなら、それに越したことはない。
それでなくても巷にはフェイク情報が溢れている。
浮沈子のように、意図せず誤って二次拡散することもある(反省!)。
それを、人間の力だけでどうにかしようとすることは不可能だろう。
AIが作成したフェイク情報を判定し、正確な情報を選別するためには、やはりAIの力を借りるしかない。
正義の味方か、それとも悪魔の使いなのか。
石川や 浜の真砂は尽きるとも 世にAIの種は尽きまじ・・・。
😼ジャンクライフ:番外編:KY-42C ― 2025年05月04日 18:05
ジャンクライフ:番外編:KY-42C
(DIGNO® ケータイ KY-42C)
https://www.kyocera.co.jp/prdct/telecom/consumer/lineup/ky-42c/
「2022年10月06日
見やすさ・聞こえやすさと、頑丈で長く使えるあんしんの「DIGNO® ケータイ KY-42C」登場!」
そういえば、昨年10月9日に携帯電話(通話のみに利用)を買い替えていた。
カッコは縦折り(短辺折り)のガラケーだけど、中身はアンドロイド10が入っている。
つーことはだな、つまり、scrcpyから接続して、パソコンからぐりぐり出来るという話なわけだ。
で、セオリー通り、端末情報からビルド番号を7回クリックするというおまじないをして、開発者オプションを表示させ、USBデバッグをオンすると、なんと、あっけなく繋がっちまった!。
ちょっと特殊な仕様だから、まだパソコンからメニュー画面を出すことが出来ない。
が、ファイルのアップロードもドラッグアンドドロップで出来たし(pngだと、開くことは出来るけど、内部のファイラーからは画像ファイルとして認識されない:jpgじゃないとダメみたいです)。
まあいい。
NHKのラジオニュースも、内蔵のブラウザーから聞くことが出来る。
実用とは程遠いけど(うーん、メニューが出せない・・・)、ブラウザー経由で出来ることはほぼ可能な感じだ(まだ未確認)。
メニューの出し方さえわかればなあ・・・。
(DIGNO® ケータイ KY-42C)
https://www.kyocera.co.jp/prdct/telecom/consumer/lineup/ky-42c/
「2022年10月06日
見やすさ・聞こえやすさと、頑丈で長く使えるあんしんの「DIGNO® ケータイ KY-42C」登場!」
そういえば、昨年10月9日に携帯電話(通話のみに利用)を買い替えていた。
カッコは縦折り(短辺折り)のガラケーだけど、中身はアンドロイド10が入っている。
つーことはだな、つまり、scrcpyから接続して、パソコンからぐりぐり出来るという話なわけだ。
で、セオリー通り、端末情報からビルド番号を7回クリックするというおまじないをして、開発者オプションを表示させ、USBデバッグをオンすると、なんと、あっけなく繋がっちまった!。
ちょっと特殊な仕様だから、まだパソコンからメニュー画面を出すことが出来ない。
が、ファイルのアップロードもドラッグアンドドロップで出来たし(pngだと、開くことは出来るけど、内部のファイラーからは画像ファイルとして認識されない:jpgじゃないとダメみたいです)。
まあいい。
NHKのラジオニュースも、内蔵のブラウザーから聞くことが出来る。
実用とは程遠いけど(うーん、メニューが出せない・・・)、ブラウザー経由で出来ることはほぼ可能な感じだ(まだ未確認)。
メニューの出し方さえわかればなあ・・・。
🚗AIで動画生成:キャンバ(Canva) ― 2025年05月04日 21:33
AIで動画生成:キャンバ(Canva)
プロンプトを投げるだけで、お手軽&お気楽に動画を生成してくれるAIはないのか(もちろん、タダで!)。
(Canva:マジック生成)
https://www.canva.com/design/DAGmezUE-Ds/mXdcff20kvJPi6oXlKQ4TQ/edit?ui=eyJFIjp7IkE_IjoiViIsIkIiOiJDIn0sIkciOnsiQiI6dHJ1ZX19
良く分からなかったんだが、ググって出てきたアプリでとりあえず無料で出来そうなヤツを見つけてやってみた(やたら、重たいページですが)。
左側のテキストボックスに、静止画を作った時に使ったプロンプトを投げてみる。
「自然に囲まれた古びた山道を走る未来の自動車」
出所はここ。
(Gemini アプリで画像を生成する)
https://support.google.com/gemini/answer/14286560?hl=ja&co=GENIE.Platform%3DAndroid
「例:
自然に囲まれた古びた山道を走る未来の自動車の画像を生成して」
出てきた動画(mp4)をGIFに変換して掲載した。
静止画の時とは違って、AIはかなり長考した(ポップコーンでも食べてのんびりしてくださいとかなんとか言ってたけどな)。
4秒程度の短いものだが、一応、テーマに沿った出来上がりになっている。
無料では5回しかできないようだ。
まあいい。
お試しとしては十分だろう(4秒間の動画)。
プロンプトから動画を生成するAIはいくつかあるようだが、処理が重たいのか、無料版での制限が厳しい気もする(未調査)。
まだ、一般人がグリグリ使うのは時期尚早なんだろうな(そうなのかあ?)。
上記のページでも、「試験的」と断っている。
動画の生成は、まだあまりこなれていない感じだ。
これからだな。
処理も重いし、適切な動画を生成するためのノウハウの蓄積も必要だろう。
コンテンツは、やがて全てをAIが作り出し、人間はそれを消費する存在になる。
パーソナライズされたコンテンツが届けられるからな。
有難い話だ(そうなのかあ?)。
浮沈子は、未来の自分のためにこのブログを書き続けているけど、自分自身が主体として感得したネタ(ネット上の記事なども含めて)を元に書いている。
つーか、それでしか書けないだろう。
AIは、浮沈子が得た一次情報は分からないだろうけど、二次的な間接情報はネットの検索や閲覧の履歴で知り得るからな(グーグルのパーソナライズは、まずはそこから始めている)。
書籍などの媒体だって、POSからの情報を紐付けして手に入れるかもしれない(そうなのかあ?:カードとか使ってポイント貯めてるしな)。
スマホを持ち歩くようになれば、どこへ行ったかなどの情報も手に入るし(旅行の手配もするだろうからな)。
それらを元にして、仮想的な一次情報を取得できるわけだ。
AIに食わせるネタは、そういう広範な個人情報を紐づけた極めてパーソナルなものになっていく。
人生のすべての時間、全てのシーンをAIが把握し、サポートし、お勧めの旅行先やお土産なども見繕ってくれるようになるのだ。
やれやれ・・・。
ゆりかごから墓場まで、AIに見守られながら過ごす人生・・・。
まあ、どうでもいいんですが。
旅行やお土産位なら罪はないかも知れないが、教育や職歴、病気や交友関係まで把握されることになるわけで、食事の好み、家族の情報、その他諸々がAIに知られることになる。
全てだ。
動画生成のキャンバにはグーグルアカウントで入ったんだが、ネタとして、浮沈子が以前に保存していた画像ファイルを使おうとしてたからな。
既に、そういうプライベートな情報を漁っていく体制は整いつつある(そういうことかあ?)。
素晴らしき新世界だ・・・。
重要なことは、そういう話が全世界で、全人類に対して一斉に起こるということなわけだ。
そう、全人類のプライバシーがAIに握られることになる(まあ、しばらく時間はかかるでしょうけど)。
我々は、そういう時代に突入しつつある。
その仕掛けを政治的に利用したり、商売や統治の手段として活用することになる。
それは、いいことだろう?。
誰が、いつどこで、誰と何をしたのか。
その時の会話はどんな会話だったのか(あちこちにあるカメラの映像から、読唇術で読み取るのは想定内だしな)。
HAL9000じゃあるまいしな・・・。
<以下追加>ーーーーーーーーーー
(2025年】おすすめ動画生成AIサービス7選!同じプロンプトで徹底比較!)
https://www.youtube.com/watch?v=skv1Y0WUBv8
有償モデル中心だが、プロンプトや元画像を放り込むと、動画が生成されるというサービスがいくつか紹介されている。
このビデオ自体も参考になったが、末尾に紹介されている2つのオープンソースの方が気になったな。
・Stable Video Diffusion(現在は、Stable Diffusion)
・ HunyuanVideo
どうも、世の中は浮沈子の認識とは別のスピードでぶっ飛んでいる感じだな・・・。
(Stable Diffusion)
https://en.wikipedia.org/wiki/Stable_Diffusion
「拡散技術をベースに2022年にリリースされたディープラーニングによるテキスト画像変換モデル」
「現在進行中の人工知能ブームの一翼を担うものと考えられています。」
そこまで言うか・・・。
このネタについては、いずれ取り上げることになるだろう。
もう一つ紹介されているHunyuanVideoについては、現在調査中。
(HunyuanVideo: 大規模ビデオ生成モデルのための体系的なフレームワーク)
https://github.com/Tencent/HunyuanVideo
「我々は、主要なクローズドソースモデルに匹敵する、あるいはそれ以上のビデオ生成性能を示す、全く新しいオープンソースビデオ基盤モデル「HunyuanVideo」を発表する。HunyuanVideoモデルの学習には、データキュレーション、画像とビデオの統合モデル学習、そして大規模なモデル学習と推論を容易にするために設計された効率的なインフラストラクチャなど、モデル学習のためのいくつかの主要な技術を採用している。さらに、モデルアーキテクチャとデータセットを効果的にスケーリングする戦略により、130億を超えるパラメータを持つビデオ生成モデルの学習に成功し、これはオープンソースモデルの中で最大規模となる。」(アブストラクトより)
「私たちは広範な実験を行い、一連のターゲット設計を実装することで、高画質、モーションの多様性、テキストと動画のアライメント、そして生成の安定性を確保しました。専門家による人間による評価結果によると、HunyuanVideoは、Runway Gen-3、Luma 1.6、そして中国のトップ3の動画生成モデルを含む、これまでの最先端モデルを凌駕しています。基盤モデルとそのアプリケーションのコードと重みを公開することで、クローズドソースとオープンソースの動画基盤モデル間のギャップを埋めることを目指しています。この取り組みにより、コミュニティの誰もがアイデアを試すことができ、よりダイナミックで活気のある動画生成エコシステムを育むことができるでしょう。」(同上)
うーん、ワケワカ・・・。
業界筋の話は盛り上がっているようだが、巷での受け止めはどうなんだろうか?。
(生成AI動画って今どうなっている?トレンド、生成サービス/ソフトから使い方の基礎までライブ配信で解説!【12月18日(水)21時配信】)
https://pc.watch.impress.co.jp/docs/news/1648431.html
「生成AI画像ブームの次に来ている波が「生成AI動画」。簡単な言葉や、画像、動画を元にしてさまざまな動画を生成することができます。AI生成なので、現実的にはあり得ないシチュエーションの映像を作ることも可能です。表現方法もシネマティック、フォトリアリスティック、アニメ調とさまざま。」
「そんな最先端で楽しく、カオスまっただなかの生成AI動画の世界」
カオスかあ・・・。
「【紹介予定のサービス/ソフトウェア】
Google / Veo 2 New
OpenAI / Sora
Runway / Gen-3 Alpha Turbo
Luma AI / Dream Machine
Kling AI (クリングAI)
Hailuo AI (ハイルオAI)
Stable Video Diffusion
Mochi Preview
HunyuanVideo
LTX Video」
半年ほど前の動画だが、SoraやStable Video Diffusion、HunyuanVideoも名前が出ている。
浮沈子は通しで見てみたんだが、日進月歩のこの世界の中でのスナップショットとしてのまとめとしては分かりやすかった。
ビデオの中でも出てきたんだが、日進月歩のこの世界、1年先がどうなっているかは誰も見通せない。
txt2vidなどのプロンプトをAIに投げる時に、事前にAIに膨らませた内容を書かせてから入れるというプロセスは参考になった。
しかも、img2vidの元画像(img)までその手法で作るということになれば、人間は何をするのか。
この観点からは、インタビューを受けた講師の西川氏の経歴が、グラビアカメラマン(その前はIT系)ということで、出来上がった画像なり映像なりの「評価」が出来る点がユニークだと感じた。
既に書いたが、いずれそれもAIに取り上げられちまうに違いない(そうなのかあ?)。
生成された作品が、世の中に受け入れられるかどうかは、作り手側が決めるわけじゃない。
ネットで流通するコンテンツの市場評価はAIが決め得るだろう。
ああっ、もう、ワケワカ・・・。
プロンプトを投げるだけで、お手軽&お気楽に動画を生成してくれるAIはないのか(もちろん、タダで!)。
(Canva:マジック生成)
https://www.canva.com/design/DAGmezUE-Ds/mXdcff20kvJPi6oXlKQ4TQ/edit?ui=eyJFIjp7IkE_IjoiViIsIkIiOiJDIn0sIkciOnsiQiI6dHJ1ZX19
良く分からなかったんだが、ググって出てきたアプリでとりあえず無料で出来そうなヤツを見つけてやってみた(やたら、重たいページですが)。
左側のテキストボックスに、静止画を作った時に使ったプロンプトを投げてみる。
「自然に囲まれた古びた山道を走る未来の自動車」
出所はここ。
(Gemini アプリで画像を生成する)
https://support.google.com/gemini/answer/14286560?hl=ja&co=GENIE.Platform%3DAndroid
「例:
自然に囲まれた古びた山道を走る未来の自動車の画像を生成して」
出てきた動画(mp4)をGIFに変換して掲載した。
静止画の時とは違って、AIはかなり長考した(ポップコーンでも食べてのんびりしてくださいとかなんとか言ってたけどな)。
4秒程度の短いものだが、一応、テーマに沿った出来上がりになっている。
無料では5回しかできないようだ。
まあいい。
お試しとしては十分だろう(4秒間の動画)。
プロンプトから動画を生成するAIはいくつかあるようだが、処理が重たいのか、無料版での制限が厳しい気もする(未調査)。
まだ、一般人がグリグリ使うのは時期尚早なんだろうな(そうなのかあ?)。
上記のページでも、「試験的」と断っている。
動画の生成は、まだあまりこなれていない感じだ。
これからだな。
処理も重いし、適切な動画を生成するためのノウハウの蓄積も必要だろう。
コンテンツは、やがて全てをAIが作り出し、人間はそれを消費する存在になる。
パーソナライズされたコンテンツが届けられるからな。
有難い話だ(そうなのかあ?)。
浮沈子は、未来の自分のためにこのブログを書き続けているけど、自分自身が主体として感得したネタ(ネット上の記事なども含めて)を元に書いている。
つーか、それでしか書けないだろう。
AIは、浮沈子が得た一次情報は分からないだろうけど、二次的な間接情報はネットの検索や閲覧の履歴で知り得るからな(グーグルのパーソナライズは、まずはそこから始めている)。
書籍などの媒体だって、POSからの情報を紐付けして手に入れるかもしれない(そうなのかあ?:カードとか使ってポイント貯めてるしな)。
スマホを持ち歩くようになれば、どこへ行ったかなどの情報も手に入るし(旅行の手配もするだろうからな)。
それらを元にして、仮想的な一次情報を取得できるわけだ。
AIに食わせるネタは、そういう広範な個人情報を紐づけた極めてパーソナルなものになっていく。
人生のすべての時間、全てのシーンをAIが把握し、サポートし、お勧めの旅行先やお土産なども見繕ってくれるようになるのだ。
やれやれ・・・。
ゆりかごから墓場まで、AIに見守られながら過ごす人生・・・。
まあ、どうでもいいんですが。
旅行やお土産位なら罪はないかも知れないが、教育や職歴、病気や交友関係まで把握されることになるわけで、食事の好み、家族の情報、その他諸々がAIに知られることになる。
全てだ。
動画生成のキャンバにはグーグルアカウントで入ったんだが、ネタとして、浮沈子が以前に保存していた画像ファイルを使おうとしてたからな。
既に、そういうプライベートな情報を漁っていく体制は整いつつある(そういうことかあ?)。
素晴らしき新世界だ・・・。
重要なことは、そういう話が全世界で、全人類に対して一斉に起こるということなわけだ。
そう、全人類のプライバシーがAIに握られることになる(まあ、しばらく時間はかかるでしょうけど)。
我々は、そういう時代に突入しつつある。
その仕掛けを政治的に利用したり、商売や統治の手段として活用することになる。
それは、いいことだろう?。
誰が、いつどこで、誰と何をしたのか。
その時の会話はどんな会話だったのか(あちこちにあるカメラの映像から、読唇術で読み取るのは想定内だしな)。
HAL9000じゃあるまいしな・・・。
<以下追加>ーーーーーーーーーー
(2025年】おすすめ動画生成AIサービス7選!同じプロンプトで徹底比較!)
https://www.youtube.com/watch?v=skv1Y0WUBv8
有償モデル中心だが、プロンプトや元画像を放り込むと、動画が生成されるというサービスがいくつか紹介されている。
このビデオ自体も参考になったが、末尾に紹介されている2つのオープンソースの方が気になったな。
・Stable Video Diffusion(現在は、Stable Diffusion)
・ HunyuanVideo
どうも、世の中は浮沈子の認識とは別のスピードでぶっ飛んでいる感じだな・・・。
(Stable Diffusion)
https://en.wikipedia.org/wiki/Stable_Diffusion
「拡散技術をベースに2022年にリリースされたディープラーニングによるテキスト画像変換モデル」
「現在進行中の人工知能ブームの一翼を担うものと考えられています。」
そこまで言うか・・・。
このネタについては、いずれ取り上げることになるだろう。
もう一つ紹介されているHunyuanVideoについては、現在調査中。
(HunyuanVideo: 大規模ビデオ生成モデルのための体系的なフレームワーク)
https://github.com/Tencent/HunyuanVideo
「我々は、主要なクローズドソースモデルに匹敵する、あるいはそれ以上のビデオ生成性能を示す、全く新しいオープンソースビデオ基盤モデル「HunyuanVideo」を発表する。HunyuanVideoモデルの学習には、データキュレーション、画像とビデオの統合モデル学習、そして大規模なモデル学習と推論を容易にするために設計された効率的なインフラストラクチャなど、モデル学習のためのいくつかの主要な技術を採用している。さらに、モデルアーキテクチャとデータセットを効果的にスケーリングする戦略により、130億を超えるパラメータを持つビデオ生成モデルの学習に成功し、これはオープンソースモデルの中で最大規模となる。」(アブストラクトより)
「私たちは広範な実験を行い、一連のターゲット設計を実装することで、高画質、モーションの多様性、テキストと動画のアライメント、そして生成の安定性を確保しました。専門家による人間による評価結果によると、HunyuanVideoは、Runway Gen-3、Luma 1.6、そして中国のトップ3の動画生成モデルを含む、これまでの最先端モデルを凌駕しています。基盤モデルとそのアプリケーションのコードと重みを公開することで、クローズドソースとオープンソースの動画基盤モデル間のギャップを埋めることを目指しています。この取り組みにより、コミュニティの誰もがアイデアを試すことができ、よりダイナミックで活気のある動画生成エコシステムを育むことができるでしょう。」(同上)
うーん、ワケワカ・・・。
業界筋の話は盛り上がっているようだが、巷での受け止めはどうなんだろうか?。
(生成AI動画って今どうなっている?トレンド、生成サービス/ソフトから使い方の基礎までライブ配信で解説!【12月18日(水)21時配信】)
https://pc.watch.impress.co.jp/docs/news/1648431.html
「生成AI画像ブームの次に来ている波が「生成AI動画」。簡単な言葉や、画像、動画を元にしてさまざまな動画を生成することができます。AI生成なので、現実的にはあり得ないシチュエーションの映像を作ることも可能です。表現方法もシネマティック、フォトリアリスティック、アニメ調とさまざま。」
「そんな最先端で楽しく、カオスまっただなかの生成AI動画の世界」
カオスかあ・・・。
「【紹介予定のサービス/ソフトウェア】
Google / Veo 2 New
OpenAI / Sora
Runway / Gen-3 Alpha Turbo
Luma AI / Dream Machine
Kling AI (クリングAI)
Hailuo AI (ハイルオAI)
Stable Video Diffusion
Mochi Preview
HunyuanVideo
LTX Video」
半年ほど前の動画だが、SoraやStable Video Diffusion、HunyuanVideoも名前が出ている。
浮沈子は通しで見てみたんだが、日進月歩のこの世界の中でのスナップショットとしてのまとめとしては分かりやすかった。
ビデオの中でも出てきたんだが、日進月歩のこの世界、1年先がどうなっているかは誰も見通せない。
txt2vidなどのプロンプトをAIに投げる時に、事前にAIに膨らませた内容を書かせてから入れるというプロセスは参考になった。
しかも、img2vidの元画像(img)までその手法で作るということになれば、人間は何をするのか。
この観点からは、インタビューを受けた講師の西川氏の経歴が、グラビアカメラマン(その前はIT系)ということで、出来上がった画像なり映像なりの「評価」が出来る点がユニークだと感じた。
既に書いたが、いずれそれもAIに取り上げられちまうに違いない(そうなのかあ?)。
生成された作品が、世の中に受け入れられるかどうかは、作り手側が決めるわけじゃない。
ネットで流通するコンテンツの市場評価はAIが決め得るだろう。
ああっ、もう、ワケワカ・・・。




最近のコメント