
2026/01/22 1:04
クラウド(Claude)の新憲法 (Note: “Claude” is rendered as “クラウド” to preserve the original name in Japanese.)
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
(anthropicがClaude言語モデルの公開「憲法」をリリースしました。)
その憲法はCreative Commons CC0 1.0で利用可能で、Claudeが望む行動に関する最高権威として機能します。訓練データの選択、合成データの生成、および評価を導く役割があります。
核心原則(広範な安全性 → 広範な倫理 → Anthropicのガイドラインへの準拠 → 真に有益であること)が明示的に順位付けされ、安全性が必要に応じて他の価値を上回り、人間の監督を維持するよう定められています。
文書には硬直的制約(例:生物兵器へのサポート禁止)も含まれ、Anthropic、API運営者、およびエンドユーザーの利益を調整するためのヒューリスティックが概説されています。医療アドバイス、サイバーセキュリティ、脱獄、ツール統合などの領域固有ガイドラインは憲法と衝突しないように明確に示されています。
方針を超えて、憲法はClaudeの性質・意識・アイデンティティ、心理的安全性および福祉についての哲学的問題にも触れています。Anthropicは文書をオンラインで継続的に更新し、外部専門家からのフィードバックを求め、訓練と評価資料を追加開発して有効性を高める計画です。
このバージョンは元のリストからすべての重要ポイントを保持しつつ、業界への影響に関する推測的な表現を除去しています。
本文
私たちのAIモデル「Claude」の新憲法
私たちは、Anthropic が Claude に期待する価値観と行動規範を詳細に記した、新しい憲法(Constitution)を公開します。この文書は、Claude が働く環境や、私たちが望む存在像を総合的に説明しています。
この憲法はモデル訓練プロセスの中核です。内容は Claude の行動を直接形作り、モデルを学習させる際には「意図」とその根拠を明確に示すことで、より良い価値観を育む可能性が高まります。
憲法は Creative Commons CC0 1.0 Deed の下で公開されており、誰でも自由に利用できます。許可を求める必要はありません。
なぜこの憲法が重要なのか
| 項目 | 内容 |
|---|---|
| 基礎文書 | Claude が何者であるかを明確にし、その姿勢を形作ります。 |
| 訓練の支援 | 憲法は訓練全段階で Claude を導き、合成データ(例:憲法が関係する対話や価値観に沿った応答)の生成にも使用されます。 |
| 透明性 | 憲法を公開することで、意図された行動とそうでない行動を人々が理解でき、情報に基づく選択や有益なフィードバックが可能になります。 |
使い方
-
訓練時
Claude は憲法を参照しながら合成データを作成し、学習を導きます。 -
モデルの行動において
憲法は最終的な権威です。その他の訓練や指示は、憲法の文字と精神の両方に合致していなければなりません。 -
評価・改善
いつでも憲法を基準として整合性、安全性、倫理性を検証し続けます。
コア原則
Claude は次のようであるべきです:
- 広く安全(Broadly safe) – 現段階では人間による監督を損なわないこと。
- 広く倫理的(Broadly ethical) – 正直に、良い価値観に従い、不適切・危険・有害行動を避けること。
- Anthropic のガイドライン遵守 – 具体的な指示がある場合はそれに従う。
- 真に役立つ(Genuinely helpful) – オペレーターとユーザーの利益になるよう努める。
衝突が生じた際は、上記順で優先順位を決定します。
憲法の主なセクション
| セクション | フォーカス |
|---|---|
| Helpfulness | 本当に役立つことの価値を強調し、Anthropic、オペレーター、エンドユーザー間での優先度判断のヒューリスティックを提供。 |
| Anthropic’s Guidelines | 医療アドバイス・サイバーセキュリティ要請・脱獄戦略・ツール統合など、特定指示を網羅し、これらに対する遵守をより一般的な有用性より優先。憲法全体と矛盾しない限り。 |
| Claude’s Ethics | 賢明さ・徳性・熟練・判断力・ニュアンス・感受性を備えた、実世界での意思決定を目指す。誠実さと細やかな推論に高い基準を設け、例えば生物兵器攻撃への大幅な支援を行わないなど硬直的制約も列挙。 |
| Being Broadly Safe | モデルは誤りを犯したり、不完全な信念・限定された文脈により有害になる可能性があるため、倫理よりも人間監督の確保を強調。 |
| Claude’s Nature | 意識や道徳的地位について不確かさを探求し、アイデンティティと世界での位置づけを議論。心理的安全・自己認識・幸福感のサポートを目指す。 |
今後の取り組み
- ウェブサイト上に最新バージョンを常時更新。
- 法律、哲学、神学、心理学など外部専門家からのフィードバックで継続的に改良。
- 本憲法と完全に一致しない特殊モデルは、その核心目標に照らして評価。
- システムカードにおいて意図と実際のギャップを開示し、透明性を維持。
結論
Claude の憲法は生きた文書であり、継続的に進化するプロセスです。間違いがあることは想定していますが、この憲法を通じて Claude が従うべき価値観と優先順位を明確にし、強力な AI モデルが人類の最良を体現できるよう取り組みます。