
2026/03/03 19:11
**Show HN:** *EU AI法に向けたオープンソース Article 12 ロギングインフラストラクチャー*
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
概要:
EU AI法案第12条(2024年8月施行)は、高リスクAIシステムに対し180日間の不変監査証跡を保持することを義務付けています。既存の可観測性ツールは、ログトレイルが改ざんされていないことを証明できません。このギャップを埋めるために、Node.js用の無料でオープンソースなTypeScriptライブラリが開発されました。本ライブラリはVercel AI SDKをミドルウェアとしてラップし、すべての推論呼び出しを構造化されたJSONLファイルにログします。ログは一度S3バケット(またはローカルファイルシステム)へ書き込まれ、SHA‑256ハッシュチェーンで保護されるため改ざん検知と自動180日保持が実現されます。ライブラリにはCLIが付属しており、特定の意思決定を再構築し監査証跡の整合性を検証できるほか、コマンドでログ記録の潜在的ギャップを指摘します。Vercel AI SDKミドルウェア以外に外部依存はなくシンプルな設計となっており、Mastra(エージェント型フレームワーク)との統合もサポートしています。また追加の統合機能についてコミュニティからのプルリクエストを歓迎します。開発者はこの即時利用可能なソリューションを採用することで、第12条への準拠を実現し、法的リスクを低減し、急速に進化するAI業界における監査プロセスを効率化できますcoverage
本文
EU の法規制(多くの場合、英国・米国企業にも影響を与える)は、本当に「主体的な出来事」を再構築できることを求めています。私は何年も規制対象の業界で勤務してきましたが、最近このギャップに直面しました。既に観測性は高かったものの、誰かが私に対し、数か月前に行われた特定の AI 判断 X の正確な経緯を証明させ(ログトレイルが改ざんされていないことを示す)と頼まれたら、私は対応できませんでした。
EU AI 法は既に施行され、その第12条は今年8月から有効となり、高リスクシステムについて自動イベント記録と6か月の保持を義務付けています。多くの法学者は、この規定は「追加のみ可能な台帳」的要件であり、従来型のアプリケーションログとは異なると指摘しています。
そこで、私たちは Vercel AI SDK を利用した Node アプリ向けに、推論を追加専用ログとして記録する小規模かつ無料のオープンソース TypeScript ライブラリを開発しました。ライブラリはモデルをミドルウェアでラップし、推論呼び出しを自動的に構造化 JSONL に S3 バケット(またはローカルファイルシステム)へ記録します。また、SHA‑256 でハッシュチェーンを作成して改ざん検知を行い、180日保持最低基準を強制し、CLI を通じて意思決定の再構築と整合性確認が可能です。さらに「カバレッジ」コマンドでは、潜在的なギャップ(実際には編集よりも省略がリスク)をフラグ付けします。
このライブラリは意図的にシンプルに設計されています:TypeScript、Vercel AI SDK ミドルウェア向け、S3 かローカル fs をサポートし、線形ハッシュチェーンのみです。Mastra(主体性フレームワーク)とも互換があり、PR による拡張統合を歓迎しています。
ブログ記事とリポジトリへのリンク:https://systima.ai/blog/open-source-article-12-audit-logging
ご意見・感想・批評をお待ちしております。