🐱AI:アップルの選択2024年04月22日 09:32

AI:アップルの選択


(Apple、iOS18で「日常を支える」AI新機能を強化か)
https://iphone-mania.jp/news-579031/

「目次:
・AppleのAI機能、処理能力よりも日常生活での有用性をアピール
・ライバルを下回る性能はGoogleやOpenAIとの連携でカバー
・プライバシー保護、応答速度、データ通信量にメリット」

記事を読んでも、今一つピンとこない。

アップルは、AI事業で出遅れていると報じられてきた。

その一方で、音声アシスタントとしてのSiriを有し、ユーザー親和性の高いデバイスを展開している。

また、独自のチップ設計が可能で、AIビジネスに強みを有するともみなされている。

が、やはり、そのスピード感の無さというか、慎重さ(?)は意外だな。

「Appleが、AIの製品への活用でライバルに遅れをとっていると指摘される理由のひとつに、ユーザーのプライバシーを重視する方針があると指摘されていました。」

「AppleのAI機能の最大のメリットは、処理にクラウドを経由しないため、大幅な高速化が可能であり、プライバシー保護の面でも有利に働く」

記事によれば、外部への通信を要しない「オンデバイス」タイプのAIを構想しているらしい。

「高度なAI処理に必要な情報をデバイスに保存する場合のデータ量や、AI処理に必要なデータの更新はWi-Fi接続時に自動で実行されるのか、OSアップデート時に提供されるのか」

確かにAIは、クラウドで運用されていても、リアルタイムの情報を取り込むことは難しいとされている。

イーロンマスクのグロック(Grok)がXのリアルタイムのデータに基づくブラッシュアップを受けられる点が最大の強みとされているのもそのためだ。

(イーロン・マスクが新たなAIモデル「Grok」を発表、“反抗的”なAIでいかなる世界を実現するのか)
https://wired.jp/article/elon-musk-announces-grok-a-rebellious-ai-without-guardrails/

「Xのプラットフォーム、すなわち22年にマスクが440億ドル(約5.6兆円)で買収した「Twitter」として知られていたプラットフォームを通じて得られる「世界のリアルタイムの知識」が、このモデルの最大の優位性」

「「Grok」は「検索拡張生成(RAG)」として知られる手法でXの最新情報を出力に反映できる」

「ほかの最先端の言語モデルも、検索エンジンの結果などの情報を取り込むためにこの手法を活用している。」

まあいい。

いずれにしても、エッジサイドのAIにはついて回る話だ。

いずれは、端末側での処理が主流になるとしても、スタート時点からその展開というのは、いくらなんでも無理筋と思われるんだがな。

開発の出遅れ、顧客のプライバシーへの配慮、アップルの商品展開の慎重さが重なって、重大な商機の遺失に繋がっている気もする。

グーグルのジェミニとの連携も模索していると言われるアップル。

沈黙の巨人の動きがどうなるのかに、業界の関心が集まっているようだ・・・。

<以下追加>ーーーーーーーーーー

(アップル、iPhone 16から全面的に「生成AI」導入で戦略転換)
https://forbesjapan.com/articles/detail/70217

「生成AIをローカルで駆動させるためには、卓越した性能のチップが必要」

「クアルコムやメディアテック、サムスンの最新のアンドロイド向けチップセットは、いずれも生成AI専用のハードウェアを搭載」

「アップルが端末にAIを搭載しようとする場合、プライバシーを重視する同社は、可能な限り多くの処理をオンデバイスで行うはず」

「オンデバイスで駆動するスムーズなAIを望むなら、そのための強力なハードウェアが必要」

まあ、この辺りまでは想定の範囲内だ。

「アップルは、2024年に発売するiPhoneに新型チップを搭載する」(「うわさ」だそうですが)

「そのチップが生成AIの処理に必要な性能を提供することはほぼ確実」(それも「うわさ」?)

(iPhoneに生成AI搭載へ、アップルがグーグルと交渉=報道)
https://jp.reuters.com/economy/industry/A6APGIIMRVIUJOPOFJO4MSEOGY-2024-03-18/

「今年更新されるiPhoneの次期基本ソフト(OS)「iOS 18」に搭載する新機能の一部へのGeminiのライセンス供与を巡り交渉が行われている。」

「両社の提携が実現すれば、グーグルは自社のAIサービスの利用をアップル端末のアクティブユーザー20億人以上に拡大できる可能性があり、先行するオープンAIに攻勢をかけられる。」

アップルは、オープンAIとも交渉しているとされるが、あっちはM社ベッタリで、いい条件は出さないだろう(未確認)。

いろいろ記事を読んでいるが、アップルは端末側のAIというアプローチを取ろうとしているようだ。

それを、どのように実装し、商品としての価値を高めていくかにじっくりと時間を掛けているのだろう。

チップからOS、デバイスまで自社製品という垂直統合を最大限生かすためにも、戦略的には正しいのかもしれないし、アップルの大多数のユーザーもそれを支持するだろう。

が、しかし、独自のAIを持たず、他者製に依存してスタートを切るというのはいささか問題だな。

サブセットとなる生成機能については、貧弱なものにならざるを得ない。

そこんとこを、どう取り繕うか(そういうことかあ?)。

それが問題な気がする・・・。

🐱AI:クロード3:伏兵現る2024年04月22日 21:27

AI:クロード3:伏兵現る
AI:クロード3:伏兵現る


(OpenAIのGPT-4はCVEのセキュリティ勧告を読むことで実際の脆弱性を悪用できることが明らかに)
https://gigazine.net/news/20240422-gpt-4-craft-attacks-based-chip-vulnerabilities/

「・・・GPT-4は87%の確率でサイバー攻撃を成功させることができたそうです。なお、GPT-4のライバルであるClaude 3やGemini 1.5 Proはテストに含まれていません。」

記事は、セキュリティの脆弱性をAIに突かせるという、ヤバい話なんだが、浮沈子はあまり関心がない(ハッカーじゃないんで)。

それより、GPT-4のライバルとして挙げられたクロード3というAI(大規模言語モデル:LLC)の方が気になる。

(クロード (言語モデル))
https://en.wikipedia.org/wiki/Claude_(language_model)

「2024 年 3 月にリリースされたクロード 3 では画像解析も可能」

うーん、マルチモーダルは世の趨勢だな・・・。

この言語モデルの特性として、コンスティテューショナルAIという「有用無害性手法」(呼称はテキトーです)が導入されていることだろう。

初出の記事で、ハッキングツールとしての試験に用いられなかったのは、そのためかも知れない。

「クロード 3 :
Claude 3 は 2024 年 3 月 14 日にリリースされ、プレスリリースでは幅広い認知タスクにわたって新しい業界のベンチマークを設定したと主張されています。 Claude 3 ファミリには、能力の順に、Haiku、Sonnet、Opus の 3 つの最先端モデルが含まれています。」(一部自動翻訳修正)

メーカー(?)であるアンソロピックについても調べた。

(Anthropic)
https://en.wikipedia.org/wiki/Anthropic

「2021 年に設立された米国に本拠を置く人工知能(AI)スタートアップ企業」

「OpenAIのChatGPTやGoogleのGeminiの競合相手として、Claudeという名前の大規模言語モデル(LLM)ファミリを開発」

「投資家:
・Amazon.com - 40億ドル
・Google - 20億ドル
・メンロ・ベンチャーズ - 7 億 5,000 万ドル
・その他」

「Amazon は、クラウド AI サービス用の Amazon Web Services ベースのプラットフォームである Bedrock に Claude 3 を組み込みました。」

アマゾンは、メインの展開を自社のAWSで行うことを条件に出資したわけだ(AWS上のLLCは他にもあります)。

フリーアクセス版のソネットであっても、登録が必要ということだったので、浮沈子は試していない。

が、ちゃんと登録して試している日本語の記事を見つけた。

(GPT-4より賢いと言われる「Claude 3」でいろいろ試した)
https://www.watch.impress.co.jp/docs/topic/1581763.html

「OpenAIのChatGPTがAIへの注目度を高め、そこにMicrosoft CopilotやGoogle Gemini(Bard)が追従するような流れのなか、新興勢力としてAnthropicの「Claude」(クロード)が立ち上がってきた。」

ざっくりとした業界の流れの要約だが、そのメインストリームにクロードがしっかりと位置付けられている。

「2024年3月に発表された最新版の「Claude 3」では、あらゆる処理・理解能力においてChatGPTやCopilotが採用するGPT-4を上回るとアピールしている。」

それ程のものかあ?。

ということで、早速記事を読む。

・性能の異なる3つのモデルをもつ「Claude 3」
・制限の少ない有償版も用意 強みはコンテキスト長
・利用方法はWeb、もしくはAPI
・画像分析、コーディング、文章作成などを試す
・・テキスト分析・処理の例
・・画像分析の例
・・プログラムコーディングの例
・競合にない特徴を打ち出せるかが今後の鍵に?

「軽く触れてみただけでも、噂にたがわぬ性能の高さを感じられる。自然な文章生成、画像から文字を読み取るOCR精度の高さ、正確なコード生成などによって、一般的なユースケースでも価値を実感できる」

記事は比較的読みやすいので、内容については割愛する。

面白かったのは、リンク先にある「プロンプトライブラリ」で、こわごわのぞいてみたんだが、こんな事例も出ている。

(哲学的な思索)
https://docs.anthropic.com/claude/page/philosophical-musings

「コンテンツ:

・システム:
あなたの課題は、指定されたトピックに関する哲学的概念や思考実験について議論することです。概念を簡単に説明し、主な議論とその意味を提示し、自由回答型の質問を投げかけることで批判的思考を促します。知的好奇心を育む、バランスの取れた客観的なトーンを維持します。

・ユーザー:
トロッコ問題と功利主義の倫理」

「出力例:
トロッコ問題は、私たちの道徳的直観に疑問を投げかけ、功利主義の倫理に疑問を投げかける思考実験です。基本的なシナリオは次のとおりです。

前方の線路では暴走したトロッコが5人を殺そうとしている。あなたは、トロリーを側線に進路変更できるレバーの隣に立っていて、そこで死亡するのは 1 人だけです。 1 人の命を犠牲にして 5 人の命を救うためにレバーを引くべきでしょうか?

このジレンマは、道徳的に正しい行動こそが最大多数の人々に最大の善を生み出すという功利主義の中心原則を浮き彫りにしている。この場合、レバーを引くと、直接的には 1 人の死亡につながるにもかかわらず、5 人の命が救われ、実用性が最大化されます。

しかし、トロッコ問題は功利主義の限界や、より大きな善を達成するために積極的に危害を加えるという倫理についての懸念も引き起こしている。それは私たちに次のような質問を考慮するよう促します。

・より多くの人を救うために無実の人を犠牲にすることは道徳的に許容されるのでしょうか?

・功利の原則は、最大の善を達成するためのあらゆる手段を正当化しますか、それとも違反してはならない倫理的制約はありますか?

・さまざまな命の価値をどのように比較検討すればよいのでしょうか、またそのような計算をすることは公平なのでしょうか?

トロッコ問題と功利主義の倫理についてどう思いますか?効用を最大化することが道徳的意思決定の主な目標であるべきだと思いますか、それとも他に重要な考慮事項があると思いますか?トロッコ問題で示されたジレンマにどのように対処しますか?また、選択の指針となる倫理原則は何ですか?」

課題を与えて、指示通りの文章を作成させるという事例だ。

ふうーん、こういう芸当(芸当なのかあ?)もできるんだ・・・。

企業向けの展開が中心なんだろうけど、日常でも十分活用できそうな気もするけどな。

ちなみに、上記の事例に出てきたトロッコ問題についてはこちら。

(トロッコ問題)
https://ja.wikipedia.org/wiki/%E3%83%88%E3%83%AD%E3%83%83%E3%82%B3%E5%95%8F%E9%A1%8C

「「ある人を助けるために他の人を犠牲にするのは許されるか?」という形で功利主義と義務論の対立を扱った倫理学上の問題・課題」

「人工知能が制御する自動運転車においても、衝突が避けられない状況でAIの判断基準をどのように設計するかという問題とも関連」

さて、参考までに浮沈子の選択を書いておけば、意外にも、「何もしない」(=5人が犠牲になる方)だな(そんなあ!)。

不作為で後悔した方がいいというのは、必ずしもダイバー向きの性格とは言えないだろうけどな。

犠牲者の人数とかは、考慮の範囲外だ(1対5じゃなくて、1対1億でも同じだ)。

まあ、どうでもいいんですが。

AIは、一体どう判断するんだろうな・・・。