🐱AI:クロード3:伏兵現る ― 2024年04月22日 21:27
AI:クロード3:伏兵現る
(OpenAIのGPT-4はCVEのセキュリティ勧告を読むことで実際の脆弱性を悪用できることが明らかに)
https://gigazine.net/news/20240422-gpt-4-craft-attacks-based-chip-vulnerabilities/
「・・・GPT-4は87%の確率でサイバー攻撃を成功させることができたそうです。なお、GPT-4のライバルであるClaude 3やGemini 1.5 Proはテストに含まれていません。」
記事は、セキュリティの脆弱性をAIに突かせるという、ヤバい話なんだが、浮沈子はあまり関心がない(ハッカーじゃないんで)。
それより、GPT-4のライバルとして挙げられたクロード3というAI(大規模言語モデル:LLC)の方が気になる。
(クロード (言語モデル))
https://en.wikipedia.org/wiki/Claude_(language_model)
「2024 年 3 月にリリースされたクロード 3 では画像解析も可能」
うーん、マルチモーダルは世の趨勢だな・・・。
この言語モデルの特性として、コンスティテューショナルAIという「有用無害性手法」(呼称はテキトーです)が導入されていることだろう。
初出の記事で、ハッキングツールとしての試験に用いられなかったのは、そのためかも知れない。
「クロード 3 :
Claude 3 は 2024 年 3 月 14 日にリリースされ、プレスリリースでは幅広い認知タスクにわたって新しい業界のベンチマークを設定したと主張されています。 Claude 3 ファミリには、能力の順に、Haiku、Sonnet、Opus の 3 つの最先端モデルが含まれています。」(一部自動翻訳修正)
メーカー(?)であるアンソロピックについても調べた。
(Anthropic)
https://en.wikipedia.org/wiki/Anthropic
「2021 年に設立された米国に本拠を置く人工知能(AI)スタートアップ企業」
「OpenAIのChatGPTやGoogleのGeminiの競合相手として、Claudeという名前の大規模言語モデル(LLM)ファミリを開発」
「投資家:
・Amazon.com - 40億ドル
・Google - 20億ドル
・メンロ・ベンチャーズ - 7 億 5,000 万ドル
・その他」
「Amazon は、クラウド AI サービス用の Amazon Web Services ベースのプラットフォームである Bedrock に Claude 3 を組み込みました。」
アマゾンは、メインの展開を自社のAWSで行うことを条件に出資したわけだ(AWS上のLLCは他にもあります)。
フリーアクセス版のソネットであっても、登録が必要ということだったので、浮沈子は試していない。
が、ちゃんと登録して試している日本語の記事を見つけた。
(GPT-4より賢いと言われる「Claude 3」でいろいろ試した)
https://www.watch.impress.co.jp/docs/topic/1581763.html
「OpenAIのChatGPTがAIへの注目度を高め、そこにMicrosoft CopilotやGoogle Gemini(Bard)が追従するような流れのなか、新興勢力としてAnthropicの「Claude」(クロード)が立ち上がってきた。」
ざっくりとした業界の流れの要約だが、そのメインストリームにクロードがしっかりと位置付けられている。
「2024年3月に発表された最新版の「Claude 3」では、あらゆる処理・理解能力においてChatGPTやCopilotが採用するGPT-4を上回るとアピールしている。」
それ程のものかあ?。
ということで、早速記事を読む。
・性能の異なる3つのモデルをもつ「Claude 3」
・制限の少ない有償版も用意 強みはコンテキスト長
・利用方法はWeb、もしくはAPI
・画像分析、コーディング、文章作成などを試す
・・テキスト分析・処理の例
・・画像分析の例
・・プログラムコーディングの例
・競合にない特徴を打ち出せるかが今後の鍵に?
「軽く触れてみただけでも、噂にたがわぬ性能の高さを感じられる。自然な文章生成、画像から文字を読み取るOCR精度の高さ、正確なコード生成などによって、一般的なユースケースでも価値を実感できる」
記事は比較的読みやすいので、内容については割愛する。
面白かったのは、リンク先にある「プロンプトライブラリ」で、こわごわのぞいてみたんだが、こんな事例も出ている。
(哲学的な思索)
https://docs.anthropic.com/claude/page/philosophical-musings
「コンテンツ:
・システム:
あなたの課題は、指定されたトピックに関する哲学的概念や思考実験について議論することです。概念を簡単に説明し、主な議論とその意味を提示し、自由回答型の質問を投げかけることで批判的思考を促します。知的好奇心を育む、バランスの取れた客観的なトーンを維持します。
・ユーザー:
トロッコ問題と功利主義の倫理」
「出力例:
トロッコ問題は、私たちの道徳的直観に疑問を投げかけ、功利主義の倫理に疑問を投げかける思考実験です。基本的なシナリオは次のとおりです。
前方の線路では暴走したトロッコが5人を殺そうとしている。あなたは、トロリーを側線に進路変更できるレバーの隣に立っていて、そこで死亡するのは 1 人だけです。 1 人の命を犠牲にして 5 人の命を救うためにレバーを引くべきでしょうか?
このジレンマは、道徳的に正しい行動こそが最大多数の人々に最大の善を生み出すという功利主義の中心原則を浮き彫りにしている。この場合、レバーを引くと、直接的には 1 人の死亡につながるにもかかわらず、5 人の命が救われ、実用性が最大化されます。
しかし、トロッコ問題は功利主義の限界や、より大きな善を達成するために積極的に危害を加えるという倫理についての懸念も引き起こしている。それは私たちに次のような質問を考慮するよう促します。
・より多くの人を救うために無実の人を犠牲にすることは道徳的に許容されるのでしょうか?
・功利の原則は、最大の善を達成するためのあらゆる手段を正当化しますか、それとも違反してはならない倫理的制約はありますか?
・さまざまな命の価値をどのように比較検討すればよいのでしょうか、またそのような計算をすることは公平なのでしょうか?
トロッコ問題と功利主義の倫理についてどう思いますか?効用を最大化することが道徳的意思決定の主な目標であるべきだと思いますか、それとも他に重要な考慮事項があると思いますか?トロッコ問題で示されたジレンマにどのように対処しますか?また、選択の指針となる倫理原則は何ですか?」
課題を与えて、指示通りの文章を作成させるという事例だ。
ふうーん、こういう芸当(芸当なのかあ?)もできるんだ・・・。
企業向けの展開が中心なんだろうけど、日常でも十分活用できそうな気もするけどな。
ちなみに、上記の事例に出てきたトロッコ問題についてはこちら。
(トロッコ問題)
https://ja.wikipedia.org/wiki/%E3%83%88%E3%83%AD%E3%83%83%E3%82%B3%E5%95%8F%E9%A1%8C
「「ある人を助けるために他の人を犠牲にするのは許されるか?」という形で功利主義と義務論の対立を扱った倫理学上の問題・課題」
「人工知能が制御する自動運転車においても、衝突が避けられない状況でAIの判断基準をどのように設計するかという問題とも関連」
さて、参考までに浮沈子の選択を書いておけば、意外にも、「何もしない」(=5人が犠牲になる方)だな(そんなあ!)。
不作為で後悔した方がいいというのは、必ずしもダイバー向きの性格とは言えないだろうけどな。
犠牲者の人数とかは、考慮の範囲外だ(1対5じゃなくて、1対1億でも同じだ)。
まあ、どうでもいいんですが。
AIは、一体どう判断するんだろうな・・・。
(OpenAIのGPT-4はCVEのセキュリティ勧告を読むことで実際の脆弱性を悪用できることが明らかに)
https://gigazine.net/news/20240422-gpt-4-craft-attacks-based-chip-vulnerabilities/
「・・・GPT-4は87%の確率でサイバー攻撃を成功させることができたそうです。なお、GPT-4のライバルであるClaude 3やGemini 1.5 Proはテストに含まれていません。」
記事は、セキュリティの脆弱性をAIに突かせるという、ヤバい話なんだが、浮沈子はあまり関心がない(ハッカーじゃないんで)。
それより、GPT-4のライバルとして挙げられたクロード3というAI(大規模言語モデル:LLC)の方が気になる。
(クロード (言語モデル))
https://en.wikipedia.org/wiki/Claude_(language_model)
「2024 年 3 月にリリースされたクロード 3 では画像解析も可能」
うーん、マルチモーダルは世の趨勢だな・・・。
この言語モデルの特性として、コンスティテューショナルAIという「有用無害性手法」(呼称はテキトーです)が導入されていることだろう。
初出の記事で、ハッキングツールとしての試験に用いられなかったのは、そのためかも知れない。
「クロード 3 :
Claude 3 は 2024 年 3 月 14 日にリリースされ、プレスリリースでは幅広い認知タスクにわたって新しい業界のベンチマークを設定したと主張されています。 Claude 3 ファミリには、能力の順に、Haiku、Sonnet、Opus の 3 つの最先端モデルが含まれています。」(一部自動翻訳修正)
メーカー(?)であるアンソロピックについても調べた。
(Anthropic)
https://en.wikipedia.org/wiki/Anthropic
「2021 年に設立された米国に本拠を置く人工知能(AI)スタートアップ企業」
「OpenAIのChatGPTやGoogleのGeminiの競合相手として、Claudeという名前の大規模言語モデル(LLM)ファミリを開発」
「投資家:
・Amazon.com - 40億ドル
・Google - 20億ドル
・メンロ・ベンチャーズ - 7 億 5,000 万ドル
・その他」
「Amazon は、クラウド AI サービス用の Amazon Web Services ベースのプラットフォームである Bedrock に Claude 3 を組み込みました。」
アマゾンは、メインの展開を自社のAWSで行うことを条件に出資したわけだ(AWS上のLLCは他にもあります)。
フリーアクセス版のソネットであっても、登録が必要ということだったので、浮沈子は試していない。
が、ちゃんと登録して試している日本語の記事を見つけた。
(GPT-4より賢いと言われる「Claude 3」でいろいろ試した)
https://www.watch.impress.co.jp/docs/topic/1581763.html
「OpenAIのChatGPTがAIへの注目度を高め、そこにMicrosoft CopilotやGoogle Gemini(Bard)が追従するような流れのなか、新興勢力としてAnthropicの「Claude」(クロード)が立ち上がってきた。」
ざっくりとした業界の流れの要約だが、そのメインストリームにクロードがしっかりと位置付けられている。
「2024年3月に発表された最新版の「Claude 3」では、あらゆる処理・理解能力においてChatGPTやCopilotが採用するGPT-4を上回るとアピールしている。」
それ程のものかあ?。
ということで、早速記事を読む。
・性能の異なる3つのモデルをもつ「Claude 3」
・制限の少ない有償版も用意 強みはコンテキスト長
・利用方法はWeb、もしくはAPI
・画像分析、コーディング、文章作成などを試す
・・テキスト分析・処理の例
・・画像分析の例
・・プログラムコーディングの例
・競合にない特徴を打ち出せるかが今後の鍵に?
「軽く触れてみただけでも、噂にたがわぬ性能の高さを感じられる。自然な文章生成、画像から文字を読み取るOCR精度の高さ、正確なコード生成などによって、一般的なユースケースでも価値を実感できる」
記事は比較的読みやすいので、内容については割愛する。
面白かったのは、リンク先にある「プロンプトライブラリ」で、こわごわのぞいてみたんだが、こんな事例も出ている。
(哲学的な思索)
https://docs.anthropic.com/claude/page/philosophical-musings
「コンテンツ:
・システム:
あなたの課題は、指定されたトピックに関する哲学的概念や思考実験について議論することです。概念を簡単に説明し、主な議論とその意味を提示し、自由回答型の質問を投げかけることで批判的思考を促します。知的好奇心を育む、バランスの取れた客観的なトーンを維持します。
・ユーザー:
トロッコ問題と功利主義の倫理」
「出力例:
トロッコ問題は、私たちの道徳的直観に疑問を投げかけ、功利主義の倫理に疑問を投げかける思考実験です。基本的なシナリオは次のとおりです。
前方の線路では暴走したトロッコが5人を殺そうとしている。あなたは、トロリーを側線に進路変更できるレバーの隣に立っていて、そこで死亡するのは 1 人だけです。 1 人の命を犠牲にして 5 人の命を救うためにレバーを引くべきでしょうか?
このジレンマは、道徳的に正しい行動こそが最大多数の人々に最大の善を生み出すという功利主義の中心原則を浮き彫りにしている。この場合、レバーを引くと、直接的には 1 人の死亡につながるにもかかわらず、5 人の命が救われ、実用性が最大化されます。
しかし、トロッコ問題は功利主義の限界や、より大きな善を達成するために積極的に危害を加えるという倫理についての懸念も引き起こしている。それは私たちに次のような質問を考慮するよう促します。
・より多くの人を救うために無実の人を犠牲にすることは道徳的に許容されるのでしょうか?
・功利の原則は、最大の善を達成するためのあらゆる手段を正当化しますか、それとも違反してはならない倫理的制約はありますか?
・さまざまな命の価値をどのように比較検討すればよいのでしょうか、またそのような計算をすることは公平なのでしょうか?
トロッコ問題と功利主義の倫理についてどう思いますか?効用を最大化することが道徳的意思決定の主な目標であるべきだと思いますか、それとも他に重要な考慮事項があると思いますか?トロッコ問題で示されたジレンマにどのように対処しますか?また、選択の指針となる倫理原則は何ですか?」
課題を与えて、指示通りの文章を作成させるという事例だ。
ふうーん、こういう芸当(芸当なのかあ?)もできるんだ・・・。
企業向けの展開が中心なんだろうけど、日常でも十分活用できそうな気もするけどな。
ちなみに、上記の事例に出てきたトロッコ問題についてはこちら。
(トロッコ問題)
https://ja.wikipedia.org/wiki/%E3%83%88%E3%83%AD%E3%83%83%E3%82%B3%E5%95%8F%E9%A1%8C
「「ある人を助けるために他の人を犠牲にするのは許されるか?」という形で功利主義と義務論の対立を扱った倫理学上の問題・課題」
「人工知能が制御する自動運転車においても、衝突が避けられない状況でAIの判断基準をどのように設計するかという問題とも関連」
さて、参考までに浮沈子の選択を書いておけば、意外にも、「何もしない」(=5人が犠牲になる方)だな(そんなあ!)。
不作為で後悔した方がいいというのは、必ずしもダイバー向きの性格とは言えないだろうけどな。
犠牲者の人数とかは、考慮の範囲外だ(1対5じゃなくて、1対1億でも同じだ)。
まあ、どうでもいいんですが。
AIは、一体どう判断するんだろうな・・・。
コメントをどうぞ
※メールアドレスとURLの入力は必須ではありません。 入力されたメールアドレスは記事に反映されず、ブログの管理者のみが参照できます。
※なお、送られたコメントはブログの管理者が確認するまで公開されません。
※投稿には管理者が設定した質問に答える必要があります。