「洞窟人:数個のトークンで十分なのに、いくつも使う理由は何でしょうか?」

2026/04/05 17:56

「洞窟人:数個のトークンで十分なのに、いくつも使う理由は何でしょうか?」

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

概要:
「Caveman」Claude スキルは、出力トークン使用量を約 75% 削減しつつ、完全な技術的正確性を保つ軽量プラグインです。通常の Claude 応答から語尾の付け言葉、冠詞、挨拶、曖昧さや不要な冗長表現を除去しますが、技術用語、正確なエラーメッセージ、コードブロック、および Git コミットテキストはそのまま保持されます。トークン節約率は 22 %〜87 %で、平均して約 65 %です。2026 年 3 月の研究(「Brevity Constraints Reverse Performance Hierarchies in Language Models」)では、より簡潔な回答がベンチマーク精度を約 26 パーセントポイント向上させることが示されています。Caveman は内部推論や思考トークンは変更せず、最終的な出力トークン数のみを削減します。このツールは MIT ライセンスでオープンソース化されており、Julius Brussee のエコシステム(「Blueprint」や「Revu」と並ぶ)に含まれます。インストールは簡単です:

npx skills add JuliusBrussee/caveman
を実行するか Claude マーケットプレイスを使用し、次に
/caveman
$caveman
、または音声コマンドで有効化します。「stop caveman」で停止できます。ユーザーは約 3 倍速い応答、71 %のトークンコスト削減、および読みやすくクリーンな説明を期待でき、詳細を犠牲にすることなく実現できます。この効率向上は、Claude を技術サポート、ドキュメント作成、迅速プロトタイピングに利用している開発者や企業にとって価値があります。

本文

なぜ少数のトークンで十分なのに、多く使うの?


インストール • ベンチマーク • 以前/以後 • 理由

Claude Code のスキル/プラグインと Codex プラグインで、エージェントを「洞窟人語」で話させる—トークン数を約 75 % 削減しつつ、完全に技術的正確性を保持。
洞窟人語は LLM のトークン使用量を劇的に減らすことが広く観測されており、私たちはこれをワンライナーのインストールへ落とし込みました。


以前 / 以後

通常 Claude (69 トークン)洞窟人 Claude (19 トークン)
React 再描画説明「あなたの React コンポーネントが再描画される理由は、各レンダリングサイクルで新しいオブジェクト参照を作成しているためです。インラインオブジェクトをプロップに渡すと、React の浅い比較が毎回別物として検知し、再描画をトリガーします。
useMemo
でオブジェクトをメモ化することを推奨します。」
「新しいオブジェクト参照毎レンダリング。インラインオブジェクトプロップ = 新参照 = 再描画。useMemo で包む。」
Auth ミドルウェア修正「もちろんです!お手伝いできることを嬉しく思います。現在直面している問題は、認証ミドルウェアがトークンの有効期限を適切に検証していないためだと思われます。確認して解決策をご提案します。」「Auth ミドルウェアバグ。
<
ではなく
<=
を使うべき。修正:…」

同じ修正、75 % 短縮。脳は大きいまま。


ベンチマーク

Claude API の実際のトークン数(自分で再現可):

タスク通常 (トークン)洞窟人 (トークン)削減
React 再描画バグ説明118015987 %
Auth ミドルウェア期限修正70412183 %
PostgreSQL 接続プール設定234738084 %
git rebase vs merge 解説70229258 %
コールバックを async/await にリファクタリング38730122 %
マイクロサービス vs モノリス アーキテクチャ44631030 %
PR のセキュリティレビュー67839841 %
Docker マルチステージビルド104229072 %
PostgreSQL ランクコンディションデバッグ120023281 %
React エラーバウンダリ実装345445687 %

平均: 1214 → 294 トークン(65 % 削減)。
レンジ: 22 %–87 %。

洞窟人は出力トークンのみを短縮。推論トークンは変わらず、脳は同じままです。ただ口だけが小さくなるので速度とコストに効果があります。


科学的根拠

2026年3月の論文 “Brevity Constraints Reverse Performance Hierarchies in Language Models” では、モデルを短い回答に制限すると特定ベンチマークで精度が 26 ポイント向上し、性能階層を逆転させることが示されました。冗長は必ずしも良いわけではなく、少ない語数=より正確になるケースがあります。


インストール

npx skills add JuliusBrussee/caveman

または Claude Code プラグインシステム経由:

claude plugin marketplace add JuliusBrussee/caveman
claude plugin install caveman@caveman

Codex 用: リポジトリをクローンし、Codex で開き

/plugins
を実行。 “Caveman” を検索してインストール。

一度だけの設定で以降すべてのセッションに適用可能です。岩一本で完了。


使用方法

以下で起動:

  • /caveman
    または
    Codex $caveman
  • "talk like caveman"
  • "caveman mode"
  • "less tokens please"

停止時:

"stop caveman"
または
"normal mode"


洞窟人がすること

事項洞窟人の対応
英語説明フィラーを削除
コードブロック通常通り (不適切なものはなし)
技術用語正確に保持(例: polymorphism はそのまま)
エラーメッセージ文字通り引用
Git コミット & PR通常通り記述
冠詞 (“a, an, the”)削除
挨拶削除(例: “Sure I’d be happy to” は消える)
保留表現削除(例: “It might be worth considering” は extinct)

理由

┌─────────────────────────────────────┐
│  TOKENS SAVED          ████████ 75% │
│  TECHNICAL ACCURACY    ████████ 100%│
│  SPEED INCREASE        ████████ ~3x │
│  VIBES                 ████████ OOG │
└─────────────────────────────────────┘
  • 高速応答: 生成トークンが少ないため、処理速度向上。
  • 読みやすさ: テキストの壁ではなく、答えだけを提示。
  • 同等の精度: 技術情報は保持し、余分な語は削除(科学的根拠あり)。
  • コスト節約: 約 71 % の出力トークン削減で費用低減。
  • 楽しさ: コードレビューがコミカルに変わります。

仕組み

洞窟人は「愚か」ではなく「効率的」です。通常の LLM は次のようなフレーズでトークンを浪費します:

  • “I’d be happy to help you with that” (8 トークン)
  • “The reason this is happening is because” (7 トークン)
  • “I would recommend that you consider” (7 トークン)
  • “Sure, let me take a look at that for you” (10 トークン)

洞窟人は必要なことだけを語り、そこで止まります。


リポジトリに星付け

洞窟人で大量のトークンとお金が節約できるなら、星をつけてください。⭐


他プロジェクト

  • Blueprint — Claude Code 用仕様駆動開発:自然言語 → ブループリント → 並列ビルド → 実働ソフトウェア。
  • Revu — macOS 専用のローカル第一学習アプリ、FSRS spaced repetition、デッキ・試験・スタディガイド (revu.cards)。

ライセンス

MIT – 大草原で自由に走る大猛獣のように。

同じ日のほかのニュース

一覧に戻る →

2026/04/06 3:45

Gemma 4(iPhone向け)

## Japanese Translation: AI Edge GalleryはiPhone専用アプリで、デバイスのハードウェア上で大規模言語モデルを完全にオフラインで実行し、インターネット接続なしで高性能な生成型AIをユーザーに提供します。最新リリースではGemma 4をサポートし、以下の新機能が追加されました: - **Agent Skills** ユーザーはWikipedia事実照合、インタラクティブマップ、視覚要約カードなどのモジュールツールでLLMを拡張でき、URLまたはGitHub Discussionsからスキルをロードできます。 - **AI Chat with Thinking Mode** 対応モデルに対してステップバイステップの推論ビューを提供し、多段会話の透明性を高めます。 - **Ask Image** デバイスカメラまたはフォトギャラリーを使用したマルチモーダルオブジェクト認識と視覚パズル解決が可能です。 - **Audio Scribe** 音声録音をリアルタイムで文字起こし・翻訳し、オンデバイス言語モデルを利用します。 - **Prompt Lab** 温度やtop‑kなどのパラメータ調整が可能なプロンプトテスト用ワークスペースです。 - **Mobile Actions** ファインチューニングされたFunctionGemma 270mモデルにより、オフラインデバイス制御と自動タスクを実現します。 - **Tiny Garden** 自然言語で仮想庭園を植えたり収穫したりできる実験的ミニゲームで、同じくFunctionGemma 270mベースです。 アプリにはカスタムオープンソースモデルのダウンロード・ロードと特定ハードウェア上での性能評価が可能な柔軟なサンドボックスがあります。全ての推論はデバイス内で行われるため、インターネットは不要であり、プロンプト、画像、および機密データの100 %オンデバイスプライバシーを確保します。プロジェクトはオープンソース(GitHub: https://github.com/google-ai-edge/gallery)で、スキルや機能のコミュニティ貢献を歓迎しています。 この要約はすべての主要ポイントを網羅し、推測的表現を避けつつ主旨を明確かつ簡潔に提示しています。

2026/04/04 18:20

**LÖVE:Lua用 2D ゲームフレームワーク**

## Japanese Translation: > **概要:** > LÖVEは、Windows、macOS、Linux、Android、およびiOS上でLuaを使用して2Dゲームを構築するための無料かつオープンソースのフレームワークです。プロジェクトはGitHubに安定リリースを公開し、CI経由でnightly/unstableビルド(Ubuntu PPA `ppa:bartbes/love-unstable` および Arch AUR パッケージ `love-git` を含む)も提供しています。すべてのバイナリは、LÖVE APIを網羅する完全なテストスイート(`testing/`)とともに配布されます。各プラットフォーム用の詳細なビルド手順が用意されており、LinuxではCMake、macOS/iOSではXcode、Androidには専用リポジトリがあります。また `love‑experiments` リポジトリは実験的変更を保持しています。ドキュメントはプロジェクトのWikiにあり、コミュニティサポートはフォーラム、Discord、subreddit、およびWikiから提供されます。貢献はプルリクエストで受け付けられますが、LLMや生成AIによって生成されたコードは品質維持のため拒否されます。主な依存関係にはSDL3、OpenGL 3.3+ / OpenGL ES 3.0+、Vulkan/Metal、OpenAL、Lua/LuaJIT/LLVM‑lua、FreeType、harfbuzz、ModPlug、Vorbisfile、およびTheoraが含まれます。

2026/04/06 7:31

日本では、ロボットはあなたの仕事を奪うものではなく、誰も取りたがらない職務を担ってくれます。

## Japanese Translation: --- ## 要約 日本経済産業省は、総理大臣高市早苗氏の支援を受けて、2040年までに世界市場の **30 %** を占める国内物理‑AIセクター構築計画を発表し、約 **63億ドル** の資金を投入します。このイニシアチブは深刻な労働力不足が主因であり、日本の就業年齢人口は **59.6 %** に減少しており、今後20年間で約 **1500万人** へと縮小すると予測され、将来の労働供給に脅威を与えています。 日本の製造業者はすでに **70 %(2022年)** の産業用ロボット市場を支配しており、強固な基盤があります。政府の戦略は実験的試作から、**稼働時間、人間介入率、生産性への影響** で測定される有料顧客導入へとシフトします。 このハイブリッドエコシステムを示す主要プレーヤーは次の通りです: - **Mujin**:既存の産業用ロボットを自律的なピッキング・物流プラットフォームに変えるロボティクス制御ソフトウェア。 - **WHILL**:東京とサンフランシスコで創業されたスタートアップ。電動車両、搭載センサー、ナビゲーションシステム、クラウドベースのフリート管理を組み合わせた短距離自律輸送。 - **SoftBank**:視覚と言語モデルとリアルタイム制御を結合し、環境を認識して複雑なタスクを自律的に実行できるロボットを産業現場で可能にする。 - **Terra Drone**:運用データ+AI を活用し、自律防衛システムの信頼性向上を図る。 日本の優位性は、高精度部品(アクチュエーター、センサー、モーションコントロール)にあり、物理システムと AI の統合に対して戦略的な堀を形成しています。投資は純粋なハードウェアではなく、オーケストレーションソフトウェア、デジタルツイン、シミュレーションツール、統合プラットフォームへと徐々に向けられています。 結果として生まれるハイブリッドモデルは、大手企業がスケールと信頼性を提供し、スタートアップがソフトウェア革新を推進する構造であり、製造業・物流・自律輸送・防衛部門を再形成する可能性があります。これにより、ハードウェアの卓越性と高度な AI オーケストレーションを融合したバランスの取れたエコシステムが実現します。