🐱GIMP:両目を描く2024年04月12日 07:02

GIMP:両目を描く
GIMP:両目を描く


(両目を描く)
https://gimp.jp.net/simpleillust_eyes.html

「ウィルバー君の土台が出来あがりました。 次は、ウィルバー君にパッチリした両目を描いてあげましょう。」

いささかマンネリ化してきたGIMPのマニュアルとの格闘。

左目(向かって右側の目)を描いて、そのレイヤーをコピーして縮小し、位置を合わせてレイヤーを統合するという描画ソフトならではな所作に、ちょっぴり感動!。

何度も失敗して手戻りし、いささか疲れたので今日はここまで。

相変わらず先は長い・・・。

昨日は、大事を取って、左目の静養に努める。

目薬(ステロイド剤入りの炎症防止剤)をきちんと差し、あまり疲れないように寝転がって、タブレット化したCM3(最近は、ほぼこの状態だな)をリーダービューでダークモードにして読む。

(ウェブページをリーダービューでまとめて読む)
https://support.mozilla.org/ja/kb/firefox-reader-view-clutter-free-web-pages

「リーダービューアイコンをクリックしてください。青色のアイコンは、現在、機能が有効化されていることを示します。」

「ページでリーダービューを利用できる場合、メニューバーを有効化していると、メニューバーから「表示」メニューの「リーダービューで開く」をクリックしてもリーダービューで開けます。」

クロームブックでファイアフォックスを入れたメインの理由だ(それ以外には、あまりメリットはない?:まあ、ライバルのブラウザー入れるという快感はありますが・・・)。

GIMPとの関係で言えば、パソコン(ウインドウズ10の入ったX220)が置いてあるパソコンラックのモニターの手前に、マニュアル参照用として立てかけてある。

その用途なら、タブレットモードで十分だし。

バッテリーの減りが少ないから、あっという間に充電完了。

それでも、使い慣れたキーボードを繋いでみたり、昔買ったブルートゥースキーボードを繋いでみたりして、TPOに合った使い勝手を模索している。

FEPの動作がMSIMEと異なりいささか煩わしいので、メインの入力はウインドウズマシンになる。

が、FEPの挙動に慣れれば、入力自体を司っているのがキーボードとモニターであることが分かる。

モニターだってえ?。

そう、モニターは重要だな。

手元は見なくてもいいけど、モニター見ながら打ってるしな。

スリープモードの解除の仕方も確認した(設定→電源から、充電中とバッテリー駆動中の動作を選択可能)。

任意の時間でスリープさせることは出来ていない。

参考になる記事もあった。

(【Chromebook】画面オフまでの時間/スリープまでの時間/ロックまでの時間が変更できない?と関連設定について)
https://did2memo.net/2020/11/01/chromebook-screen-off-time/

「画面オフまでの「時間」をはじめ、ロックまでの時間やスリープまでの時間を調整するための設定は用意されていない」

本日時点で、どうなったかは知らない。

まあいい。

ついでに、クロームブラウザーのスクロールバーを通常、非表示にする設定も見つけた。

(PC版Chromeのスクロールバーを自動非表示する方法!)
https://nanas-ch.net/2021/06/16/auto-hide-scrollbar/

「STEP.1
Chrome://flags にアクセスします、アドレスバーにそっくりそのまま入力すればOK」

「STEP.2
検索ボックスに Overlay と入力して、 Overlay Scrollbars の項目を見つける」

「STEP.3(たぶん:書いてないけど)
Overlay Scrollbars の項目を Enabled に変更します」

「STEP.4(たぶん:書いてないけど)
右下に Relaunch(再起動) ボタンがあるのでそれをクリックしてChromeを再起動します」

「使わないときは非表示、マウスを近づけたら大きく、話したら(離したら?)小さく。といった感じでいい感じになってくれます」

ただし、スクロールバーの上下をマウスでポイントしても、自動的に上下してくれる機能は消える。

スクロールバーを摘まんで動かす(ドラッグする)か、ホイールを回すしかない。

腱板炎の後遺症で悩んでいる浮沈子としては、ホイール回すのは骨だからな。

リハビリと思って取り組むしかない。

やれやれ・・・。

頭のリハビリの一環で始めたGIMPも、前に覚えたはずの手順を忘れ始めている。

手戻りが多くなってくると、更に進捗がおぼつかなくなりそうだ。

3歩進んで2歩戻るならいいけど、3歩戻るとか4歩戻るようになるといけない。

永遠にゴールにたどり着けなくなる。

それでも、マニュアルと首っ引きになりながらでも、使い続けようという意気込みが必要だな。

千里の道は、この1歩からだからな・・・。

🐱AI:AIチップの味2024年04月12日 18:22

AI:AIチップの味


(Metaが自社開発のAIチップ「MTIA」第2世代を発表、前世代の3倍の性能を実現しデータセンターにも導入済み)
https://gigazine.net/news/20240411-meta-next-generation-mtia-ai-chips/

「2024年末までに35万台のH100を含む大規模な計算インフラストラクチャーの構築を目指している」

「H100」というのは、エヌビディアの売れ筋チップらしい(ベラボーな値段は、<以下追加>参照)。

自社開発のチップも投入して、出遅れを取り戻そうと必死なんだろう。

(MetaがAIチップ「MTIA」第2世代を発表、処理性能は3倍に)
https://active.nikkeibp.co.jp/atcl/act/19/00012/041201207/

「2024年4月10日(米国時間)、AI(人工知能)処理専用チップ(ASIC)である「MTIA」の第2世代を発表」

「処理性能を3倍に改善し、メタのデータセンターで既に稼働」

このチップの開発は、せいぜい1年足らずで行われたことになる。

べらぼーめ・・・。

(Meta、AI半導体を独自開発 第1世代チップ「MTIA」)
https://www.watch.impress.co.jp/docs/news/1501861.html

「2023年5月19日」の記事だ。

「Meta Training and Inference Accelerator (MTIA)」及び、映像処理用ASIC「Meta Scalable Video Processor (MSVP)」

「MTIAは、Metaが開発した第一世代のAI推論アクセラレータ」

まだ1年も経たないのに、処理能力は既に3倍を超えている。

ちなみに、浮沈子は昨年のこの記事に何が書いてあるのかは、99パーセント理解できず、分かったつもりになっている1パーセントはおそらく間違っている(そんなあ!)。

確実なのは、記事がリリースされた日付だけ。

やれやれ・・・。

(IntelがAIアクセラレータ「Gaudi 3」を発表、NVIDIAのH100より高速かつ低消費電力で一部テストではH200にも勝利)
https://gigazine.net/news/20240410-intel-ai-accelerator-gaudi-3/

「IntelがAIアクセラレータ「Gaudi 3」を2024年4月9日に発表しました。」

「NVIDIAのAI特化GPU「H100」よりも高い性能」

いろいろ記事を読んでいくと、エヌビディアの独走態勢で、その他大勢が追いかけている構図らしい(そうなのかあ?)。

「NVIDIAが2024年中の発売を予定しているH200に対しても、「Llama 7B」「Llama 70B」「Falcon 180B」において30%高速な推論が可能なことが確認されています。」

ライバルっ気、剥き出しだな。

まあいい。

(AMDが前モデルからAI処理性能を最大10倍まで高めたSoC「Versal AI Edge Series Gen 2」と「Versal Prime Series Gen 2」を発表)
https://gigazine.net/news/20240410-amd-versal-gen-2/

「AMDが2024年4月9日、組み込み機器向けSoC「Versal」の第2世代として、「Versal AI Edge Series Gen 2」と「Versal Prime Series Gen 2」を2025年後半に発売すると発表」

こっちは、まだ来年に向けての決意表明(そうなのかあ?)だけだが、2種類の組み込み用SoCを同時開発するところが面白い。

「AMD Versalの第2世代は、AI推論エンジンを統合したVersal AI Edge Gen 2と、一般的な組み込みシステム向けのVersal Prime Series Gen 2からなります。両SoCの設計はAIエンジンの有無以外は共通です。」

名称に、「Edge」が付いているかどうかの違いだ。

先日、AIカメラについて調べたんだが、カメラ側でAI処理してからデータセンターに送るというモデルがあるらしく、今後、そういう流れと共に、「データセンター用」のAIチップと、「エッジ用」のAIチップという感じで発展していくと思われる(後述)。

浮沈子は、この業界の事情からは、何十年も遠ざかっているので、浦島太郎状態で皆目見当がつかず、五里霧中暗中模索な頭で記事を読んでいるのでそのつもりで。

「AI処理における「センサー処理やデータコンディショニングに関わる『前処理』」「深層学習アルゴリズムを実行する『AI推論』」「意志決定とその結果の行動に関わる『後処理』」という3つのフェーズを1つのSoCで全てサポート」

と言われても、何のことやら・・・。

これを見ると、既にAI専用チップとやらは、第2世代に突入している真っ最中で、ここ数日の間に何件も記事が上がっている。

(日本とアメリカによる共同AI研究パートナーシップ発表、NVIDIA・Arm・Amazon・Microsoftなどが170億円相当の資金を提供)
https://gigazine.net/news/20240411-ai-research-funded-amazon-nvidia-arm-microsoft/

「NVIDIA製GPUを日本に向けて優先的に供給していくために最善を尽くす」(NVIDIAのジェンスン・フアンCEO:昨年12月の発言)

「さくらインターネットやソフトバンクといった日本のIT企業にNVIDIA製GPUを提供し、日本のAI基盤モデル開発企業にGoogleやMicrosoftなどがコンピューティングリソースを提供するなど、生成AIの基盤モデル開発に向けた日米企業の協力も進められる」

この記事自体は、政府主導のスキーム作りだけど、米国企業にとっては営業活動に他ならない。

それを、産業研究や学術研究のオブラートに包んで、政治的な手柄にしようとしているわけだ(米国は、選挙の季節真っ最中だしな)。

まあ、どうでもいいんですが。

(AppleはAIに最適化した「M4チップ」を2024年中にリリースすることを目指している)
https://gigazine.net/news/20240412-apple-m4-chip/

「AppleはMac向けに「Apple Silicon」と呼ばれる独自のSoC開発を行っており、2020年11月に第1弾である「M1」を発表。」

「その後、2022年6月に「M2」を発表。」

「2023年10月には3nmプロセスルールで製造された「M3」を発表」

「Appleは次の「M4」を、生産開始に近いところまで持ってきているとのこと。「M3」発表と同じような時期の2024年10月ごろにイベントを開催して発表する可能性」

ちょっとワケワカだが、こんな感じか。

M1→(1年7か月)→
M2→(1年4か月)→
M3→(1年0か月)→
M4

確かに開発期間が短くなっていることは分かる。

「2024年後半から2025年にかけて、「M4」を搭載したiMacやハイエンドの14インチMacBook Proと16インチMacBook Pro、ローエンドの14インチMacBook Pro、Mac miniを展開する計画」

つまり、こっちの方の用途は、データセンターでぐりぐり回すんじゃなくって、コンシューマー製品に突っ込む「エッジ用」ということなわけだ。

「2023年10月発表の「M3」は「M3 Max」「M3 Pro」「M3」の3モデル展開」

「「M4」の開発コードネームとして、ハイエンド向けが「Hidra」、ミドルレンジ向けが「Brava」、ローエンド向けが「Donan」と3種類」

アップルの展開は、同じ「エッジ用」でも、組み込みじゃなくて、消費者向けの製品だからな。

この辺りの話を整理しておきたくなって、それらしい記事を読んだ。

(AIチップとは?仕組みや注目される理由から市場動向まで解説)
https://aismiley.co.jp/ai_news/ai-chip/

「目次:

1.AIチップとは
2.AIチップの注目度を高めたGoogle
3.AIチップが注目される理由
3-1.クラウドAIの3つの壁とは
3-2.AIチップが3つの壁を打ち破れるか期待される
3-3.AIチップとAIアクセラレータ
4.AIチップの半導体の種類
5-1.GPU
5-2.ASIC
5-3.FPGA
5-4.SoC
6.AIチップの市場動向
6-1.AIチップ市場の成長率
6-2.AIチップの需要予測
6-3.AIチップの主要メーカー
7.日本でもAIチップの開発が進んでいる
8.AIチップの市場は拡大が予想される」

例によって、記事の詳細は省略する。

この記事の中で浮沈子が注目したのが、「クラウドAIの3つの壁」というやつだ。

「データ量の壁」
「エネルギーの壁」
「リアルタイム性の壁」

将来的な活躍における課題というが、目の前に立ちはだかっている。

クライアントサーバーシステムみたいなもんか(未確認)。

サーバーの代わりに「クラウドAI」がいて、そこに問いかけする「エッジ」がある構図だ。

どんだけ、エッジ側でこなせるかが、リアルタイム対応、トラフィックの抑制、エネルギーの効率的使用の一方の決めてにもなる(総体では、必ずしも減るとは限らんけどな)。

スマホが多少熱くなっても、データセンターの冷却が追い付かなくなって、火災になるよりマシかもしれない(そういうことかあ?)。

まあいい。

「AIチップによって、エッジ側でのAIテクノロジー運用が効率化でき、今後数十年の間には現実的な運用へ大きく近づく」

・GPU(Graphics Process Unit)
・ASIC(Application Specific Integrated Circuit/エーシック)
・FPGA(Field-Programmable Gate Array)
・SoC(System on a Chip)

これらが代表的なAIチップの括りとして挙げられているけど、機能的に切り分けた方が分かりやすいのかもしれない(どっちにしても、浮沈子の理解を超えてるけどな)。

「AIチップの主要メーカーには、既出のNVIDIAやIBMの他、ArmやSamsung、AMD、Xilinx、Huaweiなど」

これからは、ここにアップルやメタ、グーグルも入ってくるんだろう。

ちなみに、浮沈子のクロームブックに搭載されているメディアテックの安物SoCも、一応、AI対応チップということになっている(Armのコア、入ってます:8個も!!!!!!!!←8個)。

これからは、誰もがAIを使って生活することが当たり前になる。

まあ、たぶん、並列処理のパイプラインをしこたま仕込んでおけば、AIチップと呼んでいるのかもしれない(未確認:ちょっと違うような・・・)。

エヌビディアがトップブランドに躍り出たのは、グラボのチップ開発を通じて、超並列処理のノウハウを手にしたからと見られているようだ。

AIチップには、どうやら何種類かありそうなこと、その中には「エッジ用」と「クラウドAI用」(データセンター用?)の大きく2種類があるようだ。

リアルタイム処理はエッジ側で、そうでないものは前処理や後処理をエッジが行い、クラウド側は知識の蓄積や推論、或いは構成に資源を集中する。

最近は、画像や映像、作曲などのマルチメディアにも活用されているようだし。

最後になったが、お馴染みの「r+」先生に訊いてみよう。

(CohereForAI/c4ai-command-r-plus)
https://huggingface.co/spaces/CohereForAI/c4ai-command-r-plus

「Q:AIチップは美味しいですか?」

「A:AIチップは食べ物ではないため、味や美味しさについて言及することはできません。 AIチップは高度な人工知能機能を実現するために設計された特殊なコンピューター プロセッサーです。それらは通常、効率的なデータ処理、機械学習、リアルタイムの意思決定を可能にするために使用されます。

AIチップは、高性能コンピューティング タスクを実行するように設計されており、人間が消費できるものではありません。それらは通常、複雑な回路、半導体材料、および高度な製造プロセスから作られています。

AIチップの味や美味しさについて話す代わりに、それらが革新的なテクノロジーと人工知能の分野にもたらす可能性や利点について話すことができます。これらのチップは、機械学習アルゴリズムの高速化、エネルギー効率の向上、さまざまなアプリケーションでのインテリジェントな意思決定の促進に役立ちます。」

質問者の空腹に気付かない、KYなAIだな・・・。

<以下追加>ーーーーーーーーーー

(NVIDIA® H100 80GB)
https://www.gdep.co.jp/products/list/v/6268a7ed8f7b9

「NVIDIA H100 Tensor Core GPU は、2022年3月のNVIDIA社のイベントGTC2022 Spring で発表された新しいアーキテクチャのGPGPU製品です。TMSCの4nm プロセスルールを採用し814平方mmのダイサイズに、従来のA100の約1.5倍にあたる800億個のトランジスタを搭載したまさに史上最大にして最速のGPU」

すごいのは分かったんだが、下に出ていた価格を見ておったまげた!。

「本体価格:5,190,000円」

桁を2つくらい間違えたかと思ったぜ・・・。

あーおったまげた!。

で、上には上があるわけだな(エンハンスド版が出てます)。

(NVIDIA® H100 94GB NVL)
https://www.gdep.co.jp/products/list/v/65dfdaa8ce3d2

「さらに、2枚の「H100 NVL」をNVLink(TM)で接続することにより188GBの広大なメモリ空間を実現し、各GPU間は600GB/sの広帯域で疎通可能で生成AIのような大規模AIモデルの学習に最適なハイエンドスペックとなっています。」

「本体価格:5,190,000円」

2枚でも割引にはならない(接続コネクタはオマケでついてきます)。

こっち買う人は、基本的に2枚差しするんだろうな。

(NVIDIA NVLink)
https://www.nvidia.com/ja-jp/design-visualization/nvlink-bridges/

「世界初の高速 GPU インターコネクト」

昔から、自作PCでグラボを2枚差ししてる人はいたけどな。

まあ、どうでもいいんですが。

NVLinkの繋ぎ方にも何種類かあるようだ。

まあいい。

もう、ため息しか出ない。

AIって、素人が手を出すもんじゃないってことは良く分かった。

エッジだけ弄ってよう・・・。

<以下追加>ーーーーーーーーーー

(Googleが生成AI向け独自CPU「Google Axion」プロセッサを発表/Intel N100を採用した超小型コンピューティングモジュール「LattePanda Mu」)
https://www.itmedia.co.jp/pcuser/articles/2404/14/news028.html

「Axionは、データセンター向けに設計された初のカスタムArmベースCPU」

「Googleは以前から独自のカスタムチップを開発しており、PixelスマートフォンにもSoCとしてGoogle Tensorを搭載している。現在は第3世代」

テンソルはエッジ用、アクシオンはデータセンター向け。

「Armベースインスタンスよりも性能が最大30%向上している。同等の現行世代x86ベースのインスタンスよりも性能で最大50%、エネルギー効率で最大60%向上」

エネルギー効率が問題になるわけか・・・。

やっぱ、エッジ側も性能上げていかないと、データセンターが火を噴くかもな・・・。