**OpenCode – オープンソースAI コーディング エージェント**

2026/03/21 6:03

**OpenCode – オープンソースAI コーディング エージェント**

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

改善された要約

OpenCodeは、プライバシーを最優先にしつつオープンソースで開発されたAIコーディングエージェントです。ターミナル、IDE、またはデスクトップアプリとしてスムーズに動作します。使用されるLLMに応じて自動的に適切なLanguage Server Protocol(LSP)をロードし、同一プロジェクト上で複数のエージェントを同時に起動できるようにします。セッションは簡単なリンクで共有でき、参照やデバッグに利用できます。OpenCodeはGitHub Copilot、ChatGPT Plus/Pro、およびModels.devを通じて75社以上の大規模言語モデルプロバイダー(ローカルモデルも含む)と統合しており、さらにZenというコーディングエージェント向けに特別にテスト・ベンチマークされたAIモデルのキュレートセットを提供します。プロジェクトは120,000件以上のGitHubスター、800人の貢献者、10,000件以上のコミット数を誇り、毎月5百万社以上の開発者に利用されています。またコードやコンテキストデータを保存しないため、プライバシーセンシティブな環境にも適しています。新リリースや機能拡張について情報を受け取りたいユーザーはウェイトリストに登録できます。

本文

無料モデルが含まれるか、Claude・GPT・Gemini など任意のプロバイダーからモデルを接続できます。

ご利用のブラウザは video タグに対応していません。

OpenCodeとは何ですか?
OpenCode はターミナル、IDE、デスクトップでコードを書く際に支援するオープンソースエージェントです。

  • LSP 対応 – LLM に合わせて適切な LSP を自動的にロードします。
  • マルチセッション – 同一プロジェクト内で複数のエージェントを並行して起動できます。
  • リンク共有 – 参照やデバッグ用に任意のセッションへのリンクを共有できます。
  • GitHub Copilot – GitHub にログインすれば Copilot アカウントを利用可能です。
  • ChatGPT Plus/Pro – OpenAI にログインすれば ChatGPT Plus または Pro アカウントが使えます。
  • 任意のモデル – Models.dev 経由で 75+ の LLM プロバイダー(ローカルモデルも含む)に接続できます。
  • 任意のエディタ – ターミナルインターフェース、デスクトップアプリ、IDE 拡張機能として利用可能です。

ドキュメントを読む:オープンソース AI コーディングエージェント

120,000 以上の GitHub スター、800 名以上のコントリビューター、10,000 件を超えるコミットにより、OpenCode は毎月 500 万人以上の開発者に使用・信頼されています。

プライバシー重視で設計 – OpenCode はコードやコンテキストデータを保存しないため、プライバシーが重要な環境でも安心して動作します。詳細はプライバシーについてご覧ください。

FAQ
コーディングエージェント向けに最適化された信頼性の高いモデルへアクセスできます。Zen は OpenCode がテスト・ベンチマークした、コーディングエージェント専用に厳選された AI モデルを提供します。プロバイダー間で性能や品質が不安定になる心配はありません。検証済みのモデルを使ってください。

Zen について学ぶ

新製品リリース時に最初に知るため – 早期アクセスワイトリストに登録してください。

同じ日のほかのニュース

一覧に戻る →

2026/03/21 4:16

**Windows 品質への我々の約束**

## Japanese Translation: Microsoft は、ユーザーから報告されたタスクバーの混乱したオプション、Copilot エントリポイントのごちゃごちゃ、侵入的なアップデート、遅いファイルエクスプローラー、騒がしいウィジェット、分断された Insider Program などの課題に対処するため、Windows 11 のユーザビリティ・パフォーマンス・信頼性の一連の更新を展開しています。 主な変更点は次のとおりです: - **タスクバー**: 新しい再配置オプション(上部、左側、右側)とより小さなタスクバーで、パーソナライズ性が向上します。 - **Copilot**: スニッピングツール、フォト、ウィジェット、メモ帳のエントリポイントを削減し、有用な体験に焦点を当てることでアクセスを簡素化しました。 - **Windows Update**: コントロールが拡張されました—設定中にアップデートをスキップでき、長時間停止、再起動またはシャットダウン時にインストールせずに済み、自動再起動/通知の数が減ります。 - **ファイルエクスプローラー**: 起動速度向上、ちらつき軽減、ナビゲーション滑らか化、ファイルタスクパフォーマンスの信頼性向上です。 - **ウィジェット**: デフォルトが静かになり、外観コントロールが改善され、Discover フィードのパーソナライズが向上しました。 - **Insider Program**: チャネル定義を明確化し、機能アクセスを容易にし、ビルド品質を高め、フィードバック可視性とエンゲージメント機会を増やすことで簡素化されました。 - **Feedback Hub**: 提出速度の向上とコミュニティインタラクションのために大幅な再設計が行われました。 - **システムパフォーマンス目標**: Windows のリソース使用量を低減し、メモリフットプリントを削減、アプリケーション、ファイルエクスプローラー、WSL 全体で応答性を改善します。 - **信頼性イニシアチブ**: OSクラッシュ、ドライバー品質、Bluetooth/USB の安定性、カメラ/オーディオ接続、デバイス再起動の一貫性、および月1 回の単一再起動と一時停止オプションを対象にします。 - **Windows Hello**: 顔認証の信頼性向上、指紋サインイン速度の高速化、ROG Xbox Ally X のようなゲーム用ハンドヘルドデバイスでの PIN 設定のセキュリティ強化です。 - **Craft 改善**: スタート/タスクバーの信頼性向上、パーソナライズ拡張、デバイス設定を静かに、ウィジェットの賢さ向上、通知削減、タスクバー・スタート・ファイルエクスプローラー・設定間で一貫した検索機能。 Microsoft は実際のハードウェア上で検証/テストを深化させ、デフォルトのセキュリティ設定を引き上げ、Insider のフィードバックに依存して将来の Windows 11 リリースを導く予定です。その結果として、ユーザーと開発者双方に対し、より柔軟なインターフェイス、スムーズな更新、静かな通知、そして高い信頼性が実現します。

2026/03/21 6:42

**タイトル:** GLP‑1薬を中止すると心筋梗塞と脳卒中のリスクが急増 **主なポイント:** - GLP‑1受容体作動薬(GLP‑1 RA)をやめると、心筋梗塞・脳卒中のリスクが高まります。 - これらの薬を中止した患者は、継続している患者に比べて心血管イベントの発生率が増加する可能性があります。 - 本研究は、GLP‑1 RAを服用している患者の心血管安全性には、投与継続(薬剤遵守)が重要であることを示唆しています。

## Japanese Translation: (以下の文は、元の意味を正確に保持し、構造や専門用語もそのまま維持した日本語訳です。) **改訂された要約:** 研究によると、短期間であってもグルカゴン様ペプチド‑1(GLP‑1)薬を中断すると、米国退役軍人の2型糖尿病患者において心臓発作や脳卒中のリスクが増加し、継続使用ではそれらのリスクが低減することが示されました。研究者は33万3000人以上の退役軍人を3年間追跡調査しました:GLP‑1治療を2年間停止したグループは心血管リスクが22%増加し、決して中断しなかった患者は18%リスク減少、再開のみで12%の利益にとどまることが明らかになりました。治療が途切れた際には体重・炎症マーカー・血圧・コレステロールが悪化し、「代謝的ウィップラッシュ」と呼ばれる効果が観察されました。GLP‑1薬はもともと糖尿病のために開発されましたが、現在では腎臓・肝臓・心血管系・関節炎・認知症・依存症などのアウトカムにも有益です。ただし、新規使用者のおよそ半数が早期に中断しています。著者らは、服薬遵守と効果を別々に追跡すべきだと主張し、医療システムには長期的な継続利用を支援するプログラムの構築を求めています。この研究は *BMJ Medicine* にZiyad Al‑Aly(ワシントン大学)によって発表され、心血管保護のためにGLP‑1療法を持続させる重要性を強調しています。

2026/03/21 6:48

Rust‑WASM パーサーを TypeScript に書き直した結果、処理速度が 3 倍に向上しました。

## 日本語訳: (欠落した詳細を補完し、推測による提案を除外したもの) --- ### 要約 本研究では、openui‑lang パーサーの Rust でコンパイルされた WebAssembly (WASM) 実装と純粋な TypeScript バージョンをベンチマーク比較しています。 * **パイプライン** – WASM パーサーは次の六段階を経て実行されます: autocloser → lexer → splitter → parser → resolver → mapper → ParseResult。 * **相互運用オーバーヘッド** – 各 WASM 呼び出しでは、入力文字列を WASM メモリにコピーし、`serde_json::to_string()` で Rust の結果を JSON にシリアライズし、その JSON を JavaScript に戻して V8 でパースする必要があります。 * **JsValue と JSON ラウンドトリップ** – `serde-wasm-bindgen` を使用して JsValue を直接返す方法は、単一の大きな JSON 転送よりも 30 % 遅く、多数の細かい境界横断が必要でした。1,000 回の実行でベンチマークした結果、JSON ラウンドトリップはすべてのフィクスチャ(simple‑table +9 %、contact‑form +29 %、dashboard +28 %)で直接 JsValue を上回りました。 * **純粋 TypeScript のパフォーマンス** – WASM 境界を除去した一度きりの TS パースは、すべてのフィクスチャで WASM バージョンより 2–3 倍速でした。 * **ストリーミングの複雑さ** – 単純なストリーミング手法では、各 LLM チャンクごとに累積文字列全体を再パースし、O(N²) 時間が発生しました。すでにパース済みのステートメントをスキップする増分キャッシュを導入すると、これを O(N) に削減できました。20 文字チャンクの完全ストリームベンチマークでは、増分 TS パーサーは単純 TS パーサーより 2.6–3.3 倍速で、WASM と JSON ラウンドトリップを呼び出す場合と比べて 2.2–4.6 倍速でした。 * **結論** – WASM は構造化テキストを JavaScript オブジェクトにパースする際に大きな境界オーバーヘッドが発生します。計算負荷が高く、相互運用が少ないワークロード(例: 画像/動画処理、暗号化)は、WASM に適したままであると結論付けられます。 --- このバージョンは主要なポイントをすべて保持し、推測による提案を除外し、ベンチマークの詳細を明確にしています。

**OpenCode – オープンソースAI コーディング エージェント** | そっか~ニュース