
2025/12/14 4:22
llamafile: Distribute and Run LLMs with a Single File
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
概要:
Mozilla.ai は llamafile をリリースしました。これは、開発者が何もインストールせずにオープンソースの大規模言語モデルをローカルで実行できる単一ファイルの実行可能ファイルです。 llama.cpp とクロスプラットフォームの Cosmopolitan Libc を組み合わせて、 llamafile は簡単に実行できるバイナリを生成し、自動的にブラウザを起動します。また、
curl | chmod +x のようなシンプルなコマンドで起動できます。クイックスタート例では、LLaVA 1.5 7B モデルのダウンロード方法、実行可能ファイルへの変換、および(Windows では) .exe にリネームする手順を示しています。プロジェクトのドキュメントは docs/ フォルダーまたは mozilla‑ai.github.io/llamafile で入手でき、クイックスタート、サポート対象システム、例となる llamafiles、 llamafile の作成方法、ソースインストール、技術的詳細、セキュリティ、およびトラブルシューティングを網羅しています。 llamafile は Apache 2.0 ライセンスで提供され、 llama.cpp への変更は上流との互換性維持のため MIT ライセンスのままです。プロジェクトのロゴは DALL·E 3 によって生成されています。今後のリリースではさらに多くのモデル例が追加されるとともに、プラットフォームサポートが拡大し、単一ファイル・ノーインストールという哲学を維持する予定です。このシンプルなデプロイメントは開発者とエンドユーザーのハードルを下げ、エッジや制約付きデバイスでの高速実験と軽量推論を可能にし、企業が本番環境で LLM を展開する方法に影響を与える可能性があります。本文
llamafile
あなたの声を聞かせてください!
Mozilla.ai は最近 llamafile プロジェクト を採用し、コードベースのモダナイズ戦略を検討しています。 llamafile のどこが最も価値あると感じるか、また作業に役立つようにするには何が必要か、ご意見をお聞かせください。ブログで詳細をご覧になり、ここからご意見を共有してください。
llamafile とは?
llamafile は、LLM(大規模言語モデル)を単一ファイルで配布・実行できるようにします。
目的は llama.cpp と Cosmopolitan Libc を統合し、LLM の複雑さをすべて1つの実行可能ファイル(「llamafile」)に凝縮することで、開発者とエンドユーザーの両方が手軽にオープン LLM を利用できるようにすることです。ほとんどのコンピュータでローカルに動作し、インストールは不要です。
クイックスタート
-
例モデル(LLaVA 1.5 7B)をダウンロード
curl -LO https://huggingface.co/Mozilla/llava-v1.5-7b-llamafile/resolve/main/llava-v1.5-7b-q4.llamafile -
実行権限を付与(macOS/Linux/BSD)
chmod +x llava-v1.5-7b-q4.llamafile -
起動(ブラウザが自動で開きます)
./llava-v1.5-7b-q4.llamafileWindows ユーザーは、実行前にファイル名を
拡張子付きに変更してください。.exe
ドキュメント
docs/ フォルダまたはオンライン(mozilla‑ai.github.io/llamafile)で完全なドキュメントをご確認ください。以下のサブセクションへ直接ジャンプできます:
- Quickstart
- Supported Systems
- Example llamafiles
- Creating llamafiles
- Source installation
- Technical details
- Security
- Troubleshooting
ライセンス
llamafile プロジェクトは Apache 2.0 でライセンスされています。私たちが llama.cpp に加えた変更は、元の llama.cpp と同様に MIT でライセンスされており、将来的に互換性とアップストリーム化を維持できるようになっています。
(このページの llamafile ロゴは DALL·E 3 の協力で生成しました。)