「オープン AI モデルが Amazon Bedrock に導入される:オープン AI と AWS の社長の対談」

2026/04/29 4:24

「オープン AI モデルが Amazon Bedrock に導入される:オープン AI と AWS の社長の対談」

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

マイクロソフトはオープンAIとの合意を改定し、新機能の主要なハブであるアズールに加え、アマゾンウェブサービス(AWS)上の製品も許可しました。2032年までの非独占ライセンスの下で、オープンは AI は収益シェアのうちアズールからの分を当面見送ることで、AWS の機会を優先します。この戦略的な動きの中心には「Bedrock Managed Agents」という統合型オファリングがあり、最先端モデルを AWS ネイティブなランタイムにパッケージ化することで、顧客の仮想プライベートクラウド(VPC)内にデータを保持し、直接的な API コールやカスタムビルドよりも効率的にエンタープライズレベルのセキュリティおよび設定課題に対応します。OpenAI モデルを AgentCore のプリミティブとネイティブに統合し、Trainium と GPU インフラストラクチャの両方を使用することで(Trainium への依存度が増加する)、デプロイメント、ガバナンス、ログ記録を簡素化しながらも AWS をサポートの最前線として維持します。ローカルなエージェント設定は現在依然として実用的ですが、このパートナーシップは組織内でのクラウドベースのステイトフルエージェントへの中期的なシフトを示唆しています。最終的には、トークン使用に関する価格モデルにおけるイノベーションが、従来の請求構造を超えた更なる採用を推進することが期待されます。

本文

おはようございます。

昨日ご案内した通り、本日掲載する「ストラテジャーイ・インタビュー」の配信タイミングとしては早め(水曜日出刊ではなく)、但し配信時刻としては遅め(米東部時間午後 1 時ではなく午前 6 時)となっています。これは、本件の話題が情報公開制限(エンバゴ)の対象であったためです。このエンバゴにより、数日間にわたり私にとっていくつか奇妙な状況を招くことになりました:

  • 先週金曜日に、OpenAI 総裁のサム・アルトマン氏と AWS 総裁のマット・ガルマン氏は、「Bedrock Managed Agents」(OpenAI を活用した Bedrock の管理型エージェント)についてインタビューを行いました。当然ながら、私の質問の一つは「OpenAI と Microsoft の契約(Azure が OpenAI モデルへの独占アクセスを保持している件)」との整合性についても含まれていました。
  • 日曜日の深夜、噂の道で Microsoft が月曜日の朝に何らかを発表することを耳にしました。私は「おそらく予防的な訴訟発表ではないか?」と懸念していました。
  • しかし月曜日、Microsoft と OpenAI は合意内容の見直しを行い、OpenAI が AWS を含む他のクラウドプロバイダーでも製品を提供できるようになったことを発表しました。

さて、現在はこうなっています。

Microsoft と OpenAI の合意は、両当事者にとって理にかなっていると思います。Microsoft による公式投稿から、この新たな枠組みの要点をまとめます:

  • Microsoft は引き続き OpenAI の主要クラウドパートナーであり、OpenAI の製品は原則としてまず Azure で提供されます(ただし、Microsoft が対応可能な場合を除く)。OpenAI は、あらゆるクラウドプロバイダー上の顧客にもすべての製品を提供できるようになりました。
  • Microsoft は 2032 年まで、モデルおよび製品に関する OpenAI IP のライセンスを有し続けますが、このライセンスは非独占的となりました。
  • Microsoft から OpenAI への収益シェア支払いは終了します。
  • OpenAI から Microsoft への収益シェア支払いは、2030 年まで継続されます(OpenAI の技術進歩の度合いに依存せず)、同じ割合で維持されますが、総額には上限があります。
  • Microsoft は主要株主として引き続き OpenAI の成長に直接参加し続けます。

私が最も重要だと思うのは最後の点です。Azure は、OpenAI モデルを提供できるハイパースケイラー(大手クラウドプロバイダー)として唯一であったため、実質的な競争優位を持っていましたが、これは同時に OpenAI 自身にとっても制約となりました、特に多くのエンタープライズ顧客が「モデルを利用したい」という要望に先に立ち、その利用先を既存の選定クラウドプラットフォームに限定しようとする傾向が明確になった際には顕著でした。私は長らく、これが Anthropic にとっての実質的な競争優位であることを指摘してきました。言い換えれば、Azure の独占体制は Microsoft が OpenAI に投資してきた成果を損なうものであり、Anthropic の昨今の急速な成長状況を踏まえると、Microsoft は Azure の差別化特性が多少毀損されようと、自らの投資ポートフォリオを見直す必要があったと言えるでしょう。

一方、OpenAI の側からは AWS を非常に大きな機会として捉えており、そのほどに、今後数年間、Azure 関連の収益を差し込める状況に陥っています(前述の点により、これは Azure の経営陣が独占権喪失への不満を和らげる働きをするでしょう。収益シェア支払いの削減により、Profit & Loss は著しく改善するはずです)。また、OpenAI は Microsoft との間で AI 全体主義化(AGI)に関する条項からも解放され、両社の合意期間はもはや条件にかかわらず 2032 年まで延長されます。

明確に言えるのは、OpenAI の注力軸が AWS にシフトしていることです。それを裏付ける最大の証拠が、今回のインタビューの主題である「Bedrock Managed Agents」(OpenAI を活用した Bedrock)です。このソリューションを最も平易に捉えるならば、「AWS 版 Codex」と考えることができます。Codex が機能する上で重要な要素の一つはローカル実行であることで、それはセキュリティを含め、複雑性の面で大きな利点(かつコストなし)をもたらします。組織全体でエージェントを実行させるためには別の課題であり、このソリューションの目的は、すでに大半のデータを AWS に保有している企業にとって、これらのワークフローをよりアクセスしやすくすることにあります。

その趣旨に即して、今回のインタビューでは、AWS がクラウド分野そのものを創出した経緯やスタートアップへの影響、そして AI が過去のパラダイムシフトとどのような点で似ていて、どのように異なるのかについて議論しました。さらに、Bedrock Managed Agents とは何か、Amazon 現行の AgentCore とどう違うか、Trainium チップについてなぜ多くの AI ユーザーにとって重要ではなく、なぜパートナーシップが Google のフルインテグレーション戦略と比べて理にかなっているかについても触れます。

念のため、Stra techery のコンテンツ(インタビューを含む)はすべてポッドキャストとして配信されています。このメールの上部にあるリンクをクリックし、あなたのポッドキャストプレイヤーにストラテジャーイを追加してください。

では、インタビュー本体へと移ります:

OpenAI 総裁サム・アルトマン氏と AWS 総裁マット・ガルマン氏による「Bedrock Managed Agents」に関するインタビュ

(※注釈:本インタビューは明瞭性の向上を目的として一部軽微に編集されています。)

AWS とスタートアップ分野における考察

マット・ガルマン氏とサム・アルトマン氏——ではマット、ストラテジャーイへようこそ。サムも再会できて光栄です。(私とは 2025 年 10 月、2025 年 3 月、そして 2023 年 2 月に以前にもインタビューを実施済みです。)

サム・アルトマン:ありがとうございます。 マット・ガルマン:ありがとうございます、ご招待いただき感謝します。

ではマット、あなたがストラテジャーイへの出演が初めてのようです。残念ながら、サムさんの存在ゆえに通常の「相互紹介」のようなセクションは省かれそうですね。それに、サムさんはケロッグ・ビジネススクール時代の思い出を振り返る話をしたくないようですが、同門のポッドキャストゲストがいるのは良いことです。

MG:はい、喜んで出ます。また機会があればもっと深く掘り下げられることを楽しみにしています。 ベン:素晴らしいですね。あなたはインターン時代から AWS で働き、今やこの AI 波の中で組織全体を統括されています。AI ビジネスの構築で、元来のコモディティ・コンピューティング(ここではより適切な表現が見つかりませんが)と同等であり、また何が大きく異なる点でしょうか?

MG:同等な点は、「同じ熱意」と「これまでできなかったことが今こそ可能となった」そんな建築者(ビルダー=開発者や創業者)の存在を感じることです。AWS が始めた当初は驚きましたが、一転して、クレジットカードで数ドルあればアプリケーションを立ち上げられ、インターネット上の可能性が大きく爆発しました。私たちは、「ユーザーは何を作りたいか」に任せることで、彼らの創造性によって素晴らしいものが作られると信じていました。

私はこの変化が、建築者にとっての影響力も同様、あるいはそれ以上に大きく、驚異的だと思っています。プログラミングを 10 年間学ぶ必要はなく、数百人の大規模チームや数ヶ月の長期開発も不要です。小規模チームで速やかに構築し、迅速なイテレーションが可能です。AI は世界のあらゆる側面で新しい革新を解き放っています。多くの点でこれは以前と同じであり、顧客基盤からの成果を見るのは非常に興奮的です。

ただし、AWS が参入した初期には、あなたが唯一のプレイヤーであり、すべてのメリットとデメリット——そしてそれらのすべてが無料——を抱えなければなりませんでした。AWS の時代になると、コモディティ・コンピューティングは汎用化され、弾力的かつ低価となりました。一方、AI(特にモデル学習)においては、勝利のための抽象化が「超巨大な統合型スーパークラスター」「高度なネットワーク」「ハードウェアとソフトウェアの緊密な連携」を中心としたものであったように感じます。これに対して驚いたことはなかったでしょうか?かつては「唯一のプレイヤー」という立場から、「巨大規模コンピューティングに関する独自の視点」を持っていましたが、少なくとも AI の最初の数年間は、必ずしも一致しませんでした。

MG:私たちにとっては差異はないでしょう。しかし、決定的に変化したのは「採用の速さ」であり、それがおそらく誰にとっても驚くほどでした。サムさん、もし異議があるならご発言いただけますが、この採用のスピードと人々がキャッチした能力の広がりには誰も驚いていました。

クラウドコンピューティングが始まった当時、「なぜ本屋さんがあなたの計算力を提供するのか」と説明するのに長時間かかりました。その苦労は多くの人々の忘れ去られた事実です。2006 年頃はまだ、世界全体のコンピューティングがそのような方向に進むことが当然だとは考えられていませんでした。

ベン:それでも今では説明が必要でしょうか?多くの人が「学習時代(Training Era)」に焦点を当てており、「われわれは今や推論時代(Inference Era)を考えている」と答えるが、それでも再度説明力が必要になるのでは?と。

MG:はい、説明が必要ですが、人々が理解するスピードは全く異なります。「面白い、インテリジェントなチャットボットと話せる」という段階から、「実際に企業内で作業を行える」段階へと移る際に、教育が必要でしたが、技術の進化速度を考慮すると比較的迅速です。

今日話題になる製品へすぐ進むことを約束しますが、サム——スタートアップエコシステム観点から振り返れば、AWS は完全にバリアを変え、誰もが始められるようになりました。シード資金やエンジェル投資家を通じてスタートアップが始動できます。サーバーを手配する必要がある以前のバリアが後退し、パワーポイントで サーバーを取得する必要なく、アプリケーションを構築し、シリーズ A fundraising などに行えるようになりました。今日の世界と比較して、何が異なり、何が同じか——あなたの見解では?

サム・アルトマン:スタートアップ大規模プラットフォーム化において、歴史的に偉大な転換点は四つありました。インターネット、クラウド、モバイル、そして AI です。私が大人になってから目撃した最初の大きな変化は「クラウド」であり、YC(コンビンエーター)の初期においては、その変化の意味を誇張しすぎると言えます。以前はスタートアップがコロケーションスペースを賃貸し、サーバーを組み立て、そこに機能を追加するという巨大に複雑なプロセスを経る必要があり、巨額の資金調達が必要でした。

ベン:ちょうどその点を問いたかったのです。結局のところ、彼らはあなたが当時認識していたよりもっと手をつないでいるのでしょうか?

サム・アルトマン:当時は極めて緊密だと感じられ、YC はクラウドの波から最初から乗っていたように思えました(早期非 AWS 事例もあります)。

ベン:AWS があれば、スタートアップを立ち上げるためには以前より少ない資金が必要です。

サム・アルトマン:これは巨大なプラットフォームシフトによる変化であり、当時 YC が「非現実的」に聞こえた理由の一部です。「数十万ドル程度ではスタートアップの資金調達は不可能だ」と言われました(サーバー費用それだけで高額)。小資本で何が可能かという完全な変化でした。

一般的に、プラットフォームシフトが起き、サイクルタイムを短縮し、以前より少ない資本で作業できれば、それはスタートアップが大手企業を打倒する古典的な方法です。私がキャリア初期にはクラウドを通じてその現象を目撃しました。今や AI 分野で企業の動きを見る限り方向性は似ていますが、マットの指摘通り進化速度は驚異的です。

ベン:インサイダー(既存大企業)の採用スピードも、クラウド時代よりも速くなっていますか?

サム・アルトマン:確かに加速していますが、スタートアップにおける収益拡大率も劇的に向上しています。先日 YC で講演した際、「YC 終了時点での好公司的な収益期待値」を尋ねると、「月に変わってきています」「バッチ開始時と終了時で答えが変わるかもしれません」と回答されました。以前はそんなことは起こらなかったはずです。人々がこの新しいプラットフォーム上でスケーラブルビジネスを構築するスピードは、これまで見たことのないものです。

ベン:スタートアップ時代、Matt が強調したように AWS は巨大な優位性でした。今日あなたが「選択クラウド(Cloud of Choice)」である理由は何か?OpenAI API を活用する多くの人々を念頭に置きますが、「実際に市場を全く異なる視点からアプローチしており、すでに多くの顧客基盤があり AI 製品を開発してくれているが、サム氏がお話しされているこの層については可視性が限られている」という感覚でしょうか?

マット・ガルマン:いくつかの理由があります。第一にパートナーシップへの強い興奮で、スタートアップには多大な意味を持つでしょう。しかし現在でも、スタートアップと対話すると、その大半は AWS 上でスケールを続けています。その理由は多岐にわたります:規模、利用可能性、セキュリティ、信頼性などがあり、さらに ISV(独立ソフトウェアベンダー)や顧客が AWS に集約していることも挙げられます。「AWS パネル」——誰もが好むか嫌うかに関わらず利用してきましたので、慣れています。

私たちはスタートアップを支援します。クレジット提供だけでなく、システム構築のアドバイス、市場展開戦略など、多くのことがスタートアップに感謝されています。スタートアップは AWS の生命血であり、彼らの成長は当初から現在に至るまで重要であると考えています。私も四半期ごとにシリコンバレーや他地域に出向き、スタートアップと直接会って何をしているか聞き、われわれが構築するものが彼らに受け入れられているかを確認しています。20 年前よりもスタートアップへの競争は激化していますが、その重要性も以前以上に高く、スタートアップのニーズを満たすために多大な時間を費やしています。

ベン:OpenAI API に直接開発を行う企業と、Azure の OpenAI 版を採用する企業を比較すれば、前者は通常の計算には AWS スタックを使い、AI は OpenAI で構成されやすい傾向がありますか?

マット・ガルマン:これは非常に一般的なパターンで、現在のスタートアップでは確かに多いです。

Bedrock Managed Agents

さて今日のアナウンスまで来ました:「OpenAI を活用した Bedrock Managed Agents」(私の説明は正確でしょうか)。私が理解するところ、単に AWS に OpenAI モデルが利用可能という意味ではなく——そんなことは認められていないでしょう——OpenAI の先端的モデルを、AWS 固有のエージェントランタイム、アイデンティティ、認証ステート、ログ、ガバナンス、デプロイメントの枠組みへとパッケージ化している点です。サムさん、この表現で正しいでしょうか?

サム・アルトマン:はい、非常に正確でした。 ベン:ありがとうございます。これは何ですか?英語で説明してください。 サム・アルトマン:AI の次のフェーズは、「テキストをエージェントに入力し、さらにテキストを得る」あるいは「コードを入力してコードを取得する」ようなものから、企業が内部で多様な作業を実行するエージェントが動く時代へ移行することです。

「バーチャル同僚」という表現は最も悪くない言い換えですが、これほど適切な言語はまだ誰も見つけていません。われわれは今一緒に開発している新しい製品を提供し、このようなステートフル(状態を持つ)エージェントを構築し、利用したい企業を支援します。世界の今後の活用方法や用語については確定的にわかりませんが、「Codex」の例を見ると、そのすべてがどのように展開されるかがよくわかります。

ベン:モデルを取り巻くランタイム、ツール、状態——あなたの指摘通り「記憶」「許可権限」「評価(evals)」——エージェントを実際に動作させるためにどれほど重要ですか?

サム・アルトマン:重要性を誇張しすぎることはできません。私にとって現在、「ランタイム」と「モデル」は完全に分離されたものとは考えていません。Codex を使用する体験から、何かを発火して素晴らしい結果を得る瞬間については、自分がいつ行ったかを必ずしも認識していないこともあります(信用残高について)

ベン:モデルがすごかったのか、ランタイムがすごかったのか? サム・アルトマン:まさにそうです。

ベン:どの程度までランタイムはモデルと並行開発されましたか?その統合はどこで行われますか?ポストトレーニングですか?プロンプトですか?この統合を成功させる要素は何ですか?

サム・アルトマン:両方の側面です。事前学習プロセスの一部ではありませんが、より面白いのは過去に多くの事例で、「分離可能だ」と思っていたものが、次第に一体化されてきたという事実です。当初「ツール呼び出し(tool-calling)」について深く統合することを考えていませんでしたが、これがモデル使用の重要な要素となり、次第にトレーニングプロセスへの統合を深めてきました。

将来的にはモデルとランタイムはさらに緊密になるでしょうし、同様に事前学習とポストトレーニングもいずれ統合されていくと考えられます。これは陳腐な言い回しですが、それでも真実であると思います。私たちはこのパラダイム全体において非常に初期段階にあり、業界としての成熟度はまだ「Homebrew Computer Club」のような時期です。

なぜかこれほど面白いと思うかといえば、どのバリューチェーンにおいても最終的に統合点が現れ、そこで真正に価値が生まれます。この二要素は互いに連携して機能する必要があります。結果として多くの価値が集積する場所であり、私の仮説は「モデルとランタイムの統合」こそが鍵であるとします。これはあなたの関心にも一致し、同意している様子です。

サム・アルトマン:確かに私の関心事項でもあり、同意しますが、より広義に言えば、重要なのは Codex に入力して意図したことが実行されることです。 ベン:実装詳細にはこだわらない。 サム・アルトマン:そうです、そうだと思います。これらを解明する過程で、システムプロンプトレベルでの対応が必要だった例が多くありましたが、後にはそれをしなくてもよいようになったのです。一般的な観察としては、モデルが賢くなるほど、希望通りに振る舞わせるための柔軟性が増します。これは明らかなようですが、事実です——

ベン:10 歳児に指示することは 5 歳児より容易ですね。 サム・アルトマン:GPT-3 の時代には、ごく僅かでも utility を引き出すために多大な工夫が必要でしたが、現在はモデルがそのまま理解し、的確に実行してくれます。この傾向はさらに拡大していくでしょう。

マット・ガルマン:付け加えますが、完全に同意します。顧客と話す際、彼らがこれらのシステムから具体的に何を期待しているかが明確である場合、以前の共同コラボレーションのように、顧客自身でそれらを構築せざるを得なかった時代がありました。彼らはモデルやエージェントが協調動作すること、既存システムとの統合(サードパーティツールだけでなく自社のツールも含む)を望みました。また、自社のデータやアプリケーション、運用環境などを学習させる必要もありましたが、現在の統合作業は顧客一人ひとりが独自に行う必要がありますでした。

今回の共同コラボレーションの一部では、これらの要素をさらに近づけ、顧客が希望する作業を容易に達成できるように設計した新しいタイプの製品を構築しました。アイデンティティはその製品に組み込まれており、データベース認証も AWS VPC(仮想プライベートクラウド)内で完結します。OpenAI API とAWS を隔てて行うことも可能ですが、これらを一緒に構築することで、顧客は企業環境内で速やかに価値を取り出し、目的を達成するのを容易にできます。

ベン:汎用的なランタイム上でも機能するエージェントが構築できると考えますか?それとも困難ですか?あなた方はそれを容易化しようとしているのでしょうか?あるいは、連携していない状態ではそもそも動作しない部分さえあるかもしれません?

サム・アルトマン:以前の AWS 以前の話に戻します。サーバーを籠に入れ、自分で接続やネットワークエンジニアを雇うなどして工夫すれば、多くのことができました。一方、AWS コントロールパネルにログインし「S3 インスタンスを追加」をクリックするだけで多くの作業が可能になりました。基本的な活性化エネルギー(必要な労力)が劇的に減少したためです。今日ではモデルを活用できるのは容易です。

しかし、毎回私が見る人々が OpenAI モデルを使用したり、マットが述べたような設定を試みる姿を見ると、感銘を受けて素晴らしい技術だと感じるのと同時に、機能させるための苦痛と犠牲に頭を抱えるというジレンマに直面します。これは開発者だけでなく、ChatGPT を使ったり、ここからこことのコピー&ペーストや複雑なプロンプトライを試す人々にも当てはまります。それはすぐに改善されるでしょうし、私も大歓迎です。まだ初期段階であり、未だ不便でもあります。

ベン:BBEdit との統合を取り除いてしまうなんて、それだけは避けたいですね。ChatGPT アプリの一番の特徴なので。 サム・アルトマン:了解しました。

(笑)ありがとうございます。

サム・アルトマン:A) この技術は非常に難しいと感じており、もし容易にできれば開発者や企業に大きな価値をもたらせると思います。B) しかし、完全に信頼できる形で機能させることができないものはたくさんあります。今回の共同コラボレーションを通じて、「使いやすさ」だけでなく、自前のコロケーションなどを構築する必要がない点ばかりでなく、多くの新しいものを一緒に見出していくでしょう。痛みや犠牲を伴うことのできない製品やサービスの構築が可能になることを期待しています。

ローカル実行 versus クラウド実行

私が以前に戻りたい点は「構築すべきもの」に関する議論です。Codex について簡単に言及しましょう——Codex はランタイムとモデルであり、ローカルで動作します。現在、エージェントをローカルで動作させやすくするのがなぜなのか?

サム・アルトマン:実際には当初はクラウド上で実行していましたが、最終的にはクラウド上で動作させることを目指しています。 ベン:もちろんです。このソリューションへの移行プロセスの中であります。しかし、なぜ再びローカルへ戻ったのでしょうか? サム・アルトマン:すべての環境がそこにあり、コンピューターも設定済みで、データもあるため、考える必要がありません。作業を開始するのは簡単ですが、これは最終的な状態ではありません。将来はエージェントがクラウド上で動作し、 intense なタスクや閉じ込めが必要な場合でも、クラウドへオフロードできる世界が実現すれば素晴らしいでしょう。しかし、短期的には使いやすさにおいてローカル環境を使用する方が勝りました。

一つの考え方は、従来の「城と堀」セキュリティモデルから、「ゼロトラスト」と適切な権限構造、認証などを含む新しいモデルへの移行です。ローカル実行は「自らの城と堀」、すべてのデータが内部にあり、すべて安全で簡単だと仮定できるという点があります。マットさん、この考え方に共感してください。生産環境でこれら全ての要素を機能させるには、ローカルだけでは不十分であり、最初からその環境を運用する必要があります。これは正しい考え方でしょうか?

マット・ガルマン:どのコンピューティング環境においてもクライアントなしでの運用は実現できていません。ローカル実行には利点があります。iPhone アプリの多くがローカルコンポーネントを持つのも同様です(接続性、レイテンシー、ローカル計算、ファイルやアプリへのアクセス)。ただし、ローカルクライアントには限界もあります。サムが指摘した通り、簡単でうまく機能しますが、制約があります。

ローカルラップトップをスケールアウトすることはできません。エンタープライズ契約に入り始めると、二人間での共有も難しくなります。権限やセキュリティ境界に関する考慮が必要になります。いくつかの要素では、ローカル環境を持つことが悪いことではなく、異なるアプローチであり、最終的には両方のブリッジが必要です。

ベン:質問です。クラウド時代にはコンテナーがローカルと生産環境を統合しましたが、今回のようにエージェント(バーチャル同僚など)を持たせ、アイデンティティや権限を持てば、構築する際にもデプロイ対象の環境でなければならないと感じます。 サム・アルトマン:多くの検討が必要です。一例を挙げれば、企業従業員はサービス利用時に一つのアカウントを使いますが、エージェントはそのアカウントを共用すべきか、別のアカウントを持つべきか(サーバーが区別できるため)、あるいは多数のエージェントが必要な場合どうするか——私たちはまだ明確な答えを持っていませんが、ベンのエージェントが Ben 名義でログインしながらも「エージェントであり本物の Ben ではない」と識別できるようにする仕組みが必要かもしれません。そうしたプリミティブさえ未発明ですが、急いで解決する必要があります。エージェントが労働力に参加し、自律性やタスクの複雑さが増すにつれて、ソフトウェアやアクセス制御・権限機構についてのメンタルモデルも進化していくでしょう。

ベン:マットさん、セキュリティやアクセスポリシーなどについてどう考えますか? マット・ガルマン:これらのワークロードをクラウドに集中させると、中央組織としてセキュリティ面での統制が強化されます。顧客との対話では、「強力なモデルやエージェントの可能性」に対して「会社に致命的な事故を起こさないように保証したい」という懸念を抱えています。これらは解決可能な問題であり、「この VPC の内部で動作させるので境界を制御でき、アクセス権限も設定できます」などの安心感を与えられます。20 年にわたり構築した豊富なセキュリティ構造的に支えられ、世界的な金融機関やヘルスケア機関、政府機関などあらゆるユーザーが AWS を活用し、技術を効率的に取り入れつつ安全装置を高速化できると考えます。リスク回避志向の企業であっても、「サンドボックス内での動作であれば迅速に進めます」という安全ガイドラインがあると、より広範な用途で技術を活用できるようになります。

AgentCore versus 管理型エージェント(Managed Agents)

過去 20 年間に開発されたこれらの機能は、現在 AgentCore を通じて提供されています。では、OpenAI を活用した Bedrock Managed Agents と Bedrock AgentCore の関係性は?

マット・ガルマン:われわれが共同で構築してきた多くの要素は、AgentCore のビルディングブロックを活用し、それらを統合することで形成されています。 ベン:つまり上位レイヤーのようなスーパーセットがありますか? マット・ガルマン:AWS チームと OpenAI チームは AgentCore コンポーネント、OpenAI モデル、その他部品を共同で利用してこの製品を開発しました。

AgentCore は AWS 上で独自のエージェントワークフローを構築するためのプリミティブのセットです。記憶コンポーネント、安全な実行環境、権限設定能力などを有し、カスタマイズが可能です。現在すでに生産環境で稼働し、素晴らしい成果を上げている顧客がいます。

ベン:OpenAI を使わないんですよね。 マット・ガルマン:はい、OpenAI を使用しない場合も真実ですが、実際には OpenAI を活用する事例も存在します。 ベン:他のクラウドに接続しているのですか? マット・ガルマン:彼らは OpenAI モデルに直接呼び出しを行います。現在でも AgentCore を通じた OpenAI 利用事例があります。ただし、Bedrock 内ではネイティブではなく、オープンエコシステムとして各機能を組み合わせて何を作りたいか構築可能です。Sam の例えにならぶように、自宅パソコンを自分で作ることを好む建築者がいるように、今後も多くの人が自らのエージェントを構築したいと考えていますが、大半は設定作業を手際よく行いたいと考えます。これが今回の共同コラボレーションの一環です。

ここでの重要な点は、「Bedrock Managed Agents」という管理型体験を提供しつつも、AgentCore を使用して AWS 内または他の場所のモデルからデータを抽出することも可能です。明確にしておくと、Azure における OpenAI の利用は API への直接アクセスであり、Amazon 上でのこの管理サービスとは異なります。サムさん、ご確認願います。

サム・アルトマン:その通りです。 ベン:その範囲設定については非常に満足ですか?今後問題になることはないでしょう? サム・アルトマン:時間が経つにつれて発展していくとは思いますが、開始段階としては自信を持っています。

ベン:これは AWS 限定の専用提供でしょうか?他のクラウドにも同様の管理型エージェントサービスを用意する予定はありますか? サム・アルトマン:Amazon との共同でのみを進めたいと思っています。 ベン:「AWS の API を全部使っている以上、当然 AWS 限定」という側面が強いですか、それとも「管理型体験そのもの」の理念ですか? サム・アルトマン:精神的には両社間の共同プロジェクトとして取り組む意向です。

ベン:PR に記載されている通りです。Matt さん、先に触れた点に戻りますが、この場合顧客データは AWS 内に留まるため、OpenAI が何を認識し、それが意味するのは? マット・ガルマン:すべてが VPC の内部で完結し、Bedrock 環境内でデータを保護します。 ベン:理解しました。Bedrock 上の OpenAI モデルを動作させ、Trainium で実行されますか? マット・ガルマン:一部は Trainium、一部は GPU を使用します。 ベン:これはタイミングによるのでしょうか?数か月前のアナウンスでも触れましたが…… マット・ガルマン:タイミングと能力の両面です。システム構築に必要な適切なインフラを各部分に最適化しながら進めます。将来的には Trainium での割合が増えると予測しています。 サム・アルトマン:Trainium 上でのモデル稼働に非常に興奮しています。

Trainium

想像できますね。

ベン:Trainium に関する一般質問です。Trainium は、推論用途への転換が主であることを勘案すると不運な命名ですが、そのように考えることは公平でしょうか?主要な実装は「Bedrock」といった管理サービスを通じてとなり、顧客がどの計算リソースを使用しているかを知る必要がない——それは適切な認識ですか?

マット・ガルマン:まず AWS サービス全体でネーミングに関する責任を負います。 ベン:Stratechery という口伝サイトの名前も不評だったので同情します。 サム・アルトマン:Trainium は魅力的な言葉です。 マット・ガルマン:そうです。

ベン:「推論チップ」という印象を与えますが、そう感じますか? マット・ガルマン:そうです。ただし命名は aside として、トレーニングにも推論にも有用です。このチップに非常に興奮しており、現世代だけでなく今後も大きなビジネスとなり、われわれの共同事業の重要な要素になると思います。

GPU に加えて、多くのアクセラレータチップは抽象化を通じて利用されます。大半の顧客は GPU に直接触れることはなく(ノートパソコンでのグラフィックス例外)、OpenAI と対話する際でも、Claude と会話する場合でも、GPU や Trainium、TPU といったチップ自体とは対話しません。インターフェースを通じて接しています。推論の大半は少数のモデルで行われます。

したがって、5、10、20、100 のモデルであっても、直接プログラミングする人数は数百万人ではなく、今後もそのような複雑なシステムを扱うには専門家が必要です。OpenAI チームは巨大なクラスターから価値を引き出す能力が際立っていますが、同様のチームを持つ企業はまだ少数です。チップの種類に関わらず、これはすべてのアクセラレータチップに当てはまると考えます。

サム・アルトマン:私たちが企業として取り組むべきことは「トークン工場」と見なされますが、顧客が重視するのは「最低価格で最大の知的単位(intelligence unit)を供給すること」です。必要な量の能力を提供します。

ベン:長期的にみて、トークンを単位のpricing が妥当でしょうか? サム・アルトマン:いいえ。実際には、最近登場したモデル 5.5 の場合、トークン単価は 5.4 より高いのに、同じ答えを得るために必要なトークン数が劇的に少ないため、答えのトークン数を気にせず「作業が完了すれば良い」のです。また、価格と容量についても同様です。

つまり、「トークン工場」という表現は誤りかもしれません。「知能工場」と捉えるべきでしょう。大きなモデルで少数トークンを使うか、小さなモデルで多数トークンを使うか、GPU か Trainium か、あるいは他の手段であっても、顧客は違いに関係なく「最も多くの知的単位を最低価格で」を望みます。

実際には、顧客はその仕組みと接しません。Codex に入力をしたり、SRE(Stateful Runtime Environment)で新しいエージェントを構築したりする際、その構造を意識する必要はありません。得られる価値の大きさに驚くべきです。

ベン:トークン使用量の削減はモデルによるものですか?それともランタイムによるものですか? サム・アルトマン:主にモデルですが、少しランタイムの影響もあります。

ベン:Matt さん、OpenAI 限定ではなく、他のモデルについても同様の管理サービスを提供する予定はありますか? マット・ガルマン:現在は OpenAI との協業に注力しています。一緒に進めることに非常に興奮しており、長期的な視点を持っています。

顧客からの需要について

サムさん、生産環境における具体的な質問です。OpenAI の責任範囲と AWS の責任範囲の境界線はどうなるのでしょうか?すべてのデータが AWS 上にあり、同様にそこで動作すれば、最終的には AWS が責任を持つという認識で正しいでしょうか?消費者視点から考え直していますか?

マット・ガルマン:その通りです。サポートは AWS サポートを通じて行われ、AWS エンビロンメントの一部として構築されます。AWS アカウント担当者も支援します。構築時には OpenAI の同僚も協力し、最適な活用方法などを提案します。必要であれば OpenAI へエスカレーションしますが、最初に対応するのは AWS です。

ベン:Sam さん、このビジネスの規模はコア API ビジネスと比較してどのくらい期待されますか? サム・アルトマン:極めて大きく期待しています。多大なリソースを投入し、多くの計算リソースを購入することにコミットしており、収益も十分確保できると信じています。価格が十分に低い場合、知能への需要は本質的に無制限です。

ベン:つまり、非常に弾力的な関係でしょうか?価格を下げるほど需要が増しますか? サム・アルトマン:確かにそうです。水を安くしても少しだけ消費が増えたり、一日二回シャワーを浴びるかもしれません(ある程度の弾力性はある)が、「十分な水がある」という限界も存在します。

Matt:計算リソースについても同様で、30 年前と比べてコストは桁違いに安くなっています。現在販売されている計算リソースは過去最多です。

ベン:実際にはコスト意識は限定的で、極めて高いレベルに至るまで無視されます。戦略的には「必ず計算リソースを保有している」と前提されます。AI の分野でも、「支出額」よりも優先的な思考が定着するまでの余地(runway)はどの程度ですか? サム・アルトマン:私がその主要な思考プロセスだとは思いません。現在、価格に関係なく「もっと欲しく」「容量をもっと欲しい」という顧客の割合が、価格交渉を行う顧客より圧倒的に多いです。

将来も価格をさらに劇的に引き下げることができると確信しています。富の流動量もそれに比例して増大するでしょう。特に驚いたのは、市場需要の大半が「絶対的なフロンティア(最先端モデル)」に集中していることです。

ベン:フロンティアモデルを提供するのは非常に高額で、以前のパッケージでも十分機能しますが、「とにかくフロンティアを使い続けたい」という顧客が多いのでしょうか? サム・アルトマン:現時点ではそうです。 マット:これは需要がまだ未達であることを示す良い指標です。30 年前の計算リソースのように「高価なコンピュータ」から現在は「携帯電話に搭載された性能」へと変化しました。AI の世界でも、現状は「フロンティアモデルが必要」という状況であり、その能力に多くの人が興奮しています。

将来には、最新 OpenAI モデルすら実現できない小さなモデルが出現し、より小さく安価で高速になるでしょう。一方、超大規模なモデルはがん治療などの課題に取り組む可能性があります。現在はまだ初期段階であり、この程度の需要と成長率を見れば、未来の可能性にワクワクします。

ベン:一部では「OpenAI モデルを使いたいですが、すべて AWS 内です。移行しません」という顧客に対して、「AWS にあるデータを OpenAI モデルで扱えないか」のように、最も簡単な答えを提供しているだけでしょうか?それとも、本当に独自性の高いソリューションを提供し、新たな顧客を獲得できるでしょう?

サム・アルトマン:AWS 顧客へのアクセスができて大変嬉しく、多くの人が AWS を愛しています。事実です。 マット:確かにその通りです。

(笑)

Matt: お互いに非常に歓迎され、OpenAI 技術へのアクセスに興奮しています。

Sam: 私は両社で共同開発することに大きな意味があると確信しており、1 年後の振り返りにおいて、「AWS 経由でモデルを利用できるようになった」以上に「この新製品の重要性に気づかなかった」という議論になることを期待しています。モデルとランタイム、そして機能レベルでの完全な新しい計算の形が近づいており、従来の「API を通じて」という考え方とは大きく異なります。

Matt: その通りです。最初の部分は良いですが、2 つ目の部分が私たち全員が非常に興奮する部分だと思います。

AI スタックの構築について

その点に関連して、私は以前述べた理論を再び検討したいと考えています(正否は不明)。「構築すべきもの」に関し、さまざまなデータベースや SaaS アプリ、組織内のデータを横断的に扱う middleware やミドル層が存在する可能性があります。その上にはエージェントレイヤー/ランタイムがあり、OpenAI のフロンティアモデルがそれに触れつつある部分があります。これは一部でしょうか?それとも別途構築すべきものですか?あるいは全く不要で方向違いでしょうか?

サム・アルトマン:まさにそれを必要としています。最近の大企業顧客と話すと、「エージェントランタイム環境」や「データとエージェントを結びつける管理層」「トークン支出の可視化と管理」といった働きが必要だと言います。さらに、従業員向けのワークスペース(Codex のようなもの)も求められています。これらの要望は非常に一貫しており、製品開発が急務です。

まるで二重のエージェント層のように感じられます。エージェント層は常時データソースを調査し、実際のユーザーインターフェース層では人々が直接対話します。この構造は現在の世界像を反映していますか?

サム・アルトマン:双方とも同意しますが、モデルがさらに賢くなるにつれ、将来のアーキテクチャについては未だ確定的ではありません。

ベン:現在では、ユーザーエージェントレイヤーで複数のエージェントを統合し、相互に連携させたいという要望があります。企業の管理層レベルでは、AI がデータを検索・ファイルシステムを検索する制御も必要です。いずれ「過去の構造物」を手放すべきと気づくでしょう。 サム・アルトマン:その通りです。能力が進化すれば、全体を再構築する必要性が生じるかもしれません。 マット:同意します。ある種の新しい要素が生まれつつあり、まだ完全に理解していませんが、それは美点でもあります。顧客の活用と構築を通じて学び、より簡単で迅速に提供できる方法を発見できます。

サム・アルトマン:今回二人目の製品ローンチインタビューです。前回はケビン・スコット氏と New Bing で、Google への脅威については当時どのように考えましたか? サム・アルトマン:予想を上回る成果を収めています。ChatGPT はおそらく Facebook 以来の大規模な新しい消費者製品として初めての実験でしょう。 ベン:その答えは「予想外に成功したが、主に ChatGPT によるもので、他の領域では限定的」という意味でしょうか? サム・アルトマン:いいえ、API、特に Codex でも成果を上げています。当時私は「言語インターフェースの変化」や「Google の評価低さ」についても考えていましたが、ChatGPT のパフォーマンスには満足しています。

ベン:Matt さんにも似た質問があります。Google は先週 Thomas Kurian 氏がフルインテグレーションスタック(モデルからチップまで)について述べていました。Amazon は完全なインテグレーションではありませんが、フロンティアエッジモデルがないことへの批判がありました。現在推論時代に入ったことで、多数の企業に対応してきた状況において、中立であることが結果的に有利に働いたのでしょうか?意図的だったのでしょうか?

マット・ガルマン:一部は意図的です。AWS を始めた当初からパートナーを重視する戦略を持っており、パートナーの成功こそがわれわれの成功であると考えています。それは「パイを大きくすること」と同じで、他者と異なる視点です。「すべて自分で所有しなければならない」という考えもありますが、選択肢として重要であり、最高の製品が勝つようにしています。ファーストパーティ製品もサードパーティ製品もあります。われわれは顧客自身が最適なものを選択できるようにしたいと考えており、もしベストなものを作るなら素晴らしいことです。パートナーが構築したものがベストであれば、それこそが勝利です。これは長期にわたる戦略であり、Bedrock プラットフォームの設計にも反映されています。多様なモデルと能力を支援し、データベースから計算プラットフォームまで一貫しています。

ベン:ソフトウェア、プラットフォーム、インフラストラクチャのバランスで、AWS は元来 I(インフラ)から始め、最大の柔軟性を有しており、Sam の S(ソフトウェア)や貴社の P(プラットフォーム)とのミッドポイントを提案しました。 マット:その通りです。「S3 が一つだけ」という主張は真実ですが、コアコンポーネントはインフラレイヤーで自らの構築に依存しています。しかし、スタックの上昇につれて能力の幅が広がり、完全な独占はありえません。モデルやサービス層では選択肢が減り、インフラレベルではさらに限定されますが、パートナー全体を擁抱することがエンドカスタマーにとって有益であると考えています。

サム・アルトマン:最後の言葉は? サム・アルトマン:とても適切にまとめられました。開発者が構築できる製品の新たな世代に大きな可能性があり、次の 1 年でモデル能力の進展は急激であると予想しています。一緒にプラットフォームを構築し、それを可能にする取り組みは良い時期に始まりました。人々はこれを愛してくれるでしょう。

ベン:素晴らしいです。マット、サム、ストラテジャーイへのご登場ありがとうございます。 マット:光栄です、ご招待感謝します。 サム:ありがとうございます。

本日のアップデイ Interview はポッドキャストとしてもご利用可能です。ポッドキャストプレイヤーに追加するには Stratechery をご覧ください。

当「Daily Update」は単一受信箱向けですが、適宜転送も問題ありません。チーム用複数購読(5 名様以上)をご希望の場合は直接ご連絡ください。

応援ありがとうございます。一日をお過ごしください!

同じ日のほかのニュース

一覧に戻る →

2026/04/29 4:44

Ghostty は GitHub から撤退します。

## Japanese Translation: GitHub ユーザー 1299 が 18 年にわたり作成・維持してきたターミナルエミュレータ Ghostty が、プラットフォーム上の重要なインフラ障害の発生により、創始者が現在それを重大な業務に不適切と見なし始めたことを受け、公式に GitHub を離れる予定である。最近の GitHub Actions の停電は数時間ほど PR レビューをブロックし、これは Git そのものの問題ではなく GitHub サービス自体の構造的な問題を浮き彫りにしている。同月中盤の主要な GitHub 障害(同日に Elasticsearch の障害も発生したが別の事件)と時期を同じくしてこの週に終了した議論が、プロジェクトの移行計画を見事に実現させながら、現在の URL で即時のコードアクセスのために読み取り専用ミラーを維持するという方針で進められた。創始者は、新たなホスティングソリューションを探す過程で、商業的およびフリーソフトウェアの複数のプロバイダーから依存関係を段階的に削除していくことを意図している。この動きは、不揃いなサービスレベルを持つ主要プラットフォームに依存するオープンソースプロジェクトの長期的な持続可能性に対する業界全体の懸念の高まりを示しており、維持者は利便性よりも安定性を最優先することを促している。

2026/04/29 8:54

ChatGPT も広告を表示しています。以下がその全体的な帰属循環のプロセスです。

## Japanese Translation: OpenAI は、ChatGPT に独自の広告システムを直接統合し、SSE ストリームに `single_advertiser_ad_unit` オブジェクトを注入し、クリエイティブ資産を独自ドメインである `bzrcdn.openai.com` 上にホストしています。ブラウザには OAIQ v0.1.3 という追跡用 SDK が実行されており、製品の閲覧情報を OpenAI のサーバーへ報告しています。このシステムは Fernet 暗号化されたトークン(例:`ads_spam_integrity_payload`, `oppref`, `olref`, `ad_data_token`)を使用しており、これらは公衆向けのヘッダーバイトを 9 文字含み、トークンの発行時刻の復元を可能にしています(例:2026 年 4 月 26 日)。クリックされたリンクは外部ではなく ChatGPT の内部ウェブビュー内(`open_externally: false`)で開かれるため、OpenAI はクリック後のナビゲーションを観察できます。アトリビューションチェーンには、720 時間の有効期限を持つファーストパーティcookieに格納されるフォワードトークン(`__oppref`)と、impression ログを記録する `olref` が使用されます。コンテキストターゲティングは、北京旅行、フライト、NBA など 6 つの異なる会話トピックで確認されています。広告出稿元には Grubhub や GetYourGuide があります。追跡を軽減するには、ドメイン `bzrcdn.openai.com` と `bzr.openai.com` をフィルタリングし、cookie(例:`__oppref`, `__oaiq_domain_probe`)を確認する必要があります。

2026/04/29 6:17

GitHub に至るまで

## 日本語訳: 中心的な論点是、GitHub が有用なツールから、オープンソースのアイデンティティに依存する脆弱で中央集権的なインフラへと進化しすぎているという点にある。この依存関係は危険であり、企業の管理不備と不安定性が、過去の記録と長年にわたって構築されたコミュニティへの信頼の双方を脅かしている。GitHub はコード共有を円滑化させ、事実上のプロジェクト放棄フォーク、イシュー、議論などのアーカイブとなったが、その台頭は npm エコシステムなどにおけるマイクロ依存関係の爆発的増加と同時期に起きたものである。 GitHub を以前に、オープンソースは評判、メーリングリスト、信頼できるメンテナ、そしてより多くの管理努力を要するが制御とコミュニティの文脈を保持できる自己ホスト化インフラ(例:Trac、Subversion)などに基づいていた。Git の分散型の性質が広く普及したにもかかわらず、GitHub はホスティングを単一の商用エンティティに集約し、これはソフトウェアコモンズの皮肉な中央集権化である。今日では、いくつかのプロジェクト(Ghostty、Strudel、Tenacity など)は、不安定なベンダーへの依存を回避するために、Codeberg などの独立したホスティングへ移行している。 今すぐ必要なのは、商業的モデルから完全に切り離された、公衆向けの資金を十分に得たアーカイブを作り、重要コード、リリースアソートメント、およびセキュリティ勧告や設計論争などを含む歴史的議論を保存することである。現在のようにプラットフォームの変更や急激な移行によって消えてしまう場合である。そのようなレジリエントなバックアップがない場合、業界は社会的歴史の不可逆的な損失に直面し、コミュニティが孤立しデータが脆弱になるリスクを抱えることになる。著者は GitHub の回復を望みつつも、オープンソースの歴史に対して単一のプラットフォームへの依存は無責任であると論じており、将来には pre-GitHub 時代の教訓と GitHub エポックの実態とのバランスが必要であるべきである。

「オープン AI モデルが Amazon Bedrock に導入される:オープン AI と AWS の社長の対談」 | そっか~ニュース