キバ―(YC W23)はスタッフエンジニアを募集しています。

2026/01/28 21:00

キバ―(YC W23)はスタッフエンジニアを募集しています。

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:


要約

Kyber は、企業が複雑な規制通知を迅速に作成・レビュー・送信できる AI ネイティブのドキュメントプラットフォームを構築しました。テンプレートの 80 % を単一システムに統合することで、ドラフト時間を 65 % 削減し、保険請求組織におけるコミュニケーションサイクルタイムを 5 倍圧縮します。

過去 18 ヶ月で Kyber は売上成長率が 30 倍以上となり、利益性を達成しました。主要な保険企業との 6 桁〜7 桁規模の複数年契約を確保し、Guidewire、Snapsheet、および PCMS と提携しています。同社は Y Combinator、Fellows Fund などトップシリコンバレー VC の支援を受けています。

Kyber はニューヨーク州ニューヨークで Staff Engineer / Tech Lead を募集しています。給与は $200 k–$260 k(株式の 0.50 %–1.50 %)で、職務には技術的所有権、スプリント計画、AI ツール導入、信頼性/セキュリティ、および採用が含まれます。望ましい資格は「10 倍エンジニア」レベルのステータスで、AI により強化されたコーディング能力、大規模データ駆動型システム経験、SOC 2、HIPAA、ISO などの企業コンプライアンス、およびエンジニアリング成果に対する責任を持つことです。

面接プロセスは創業者によるスクリーン、テイクホーム実務課題、過去プロジェクトに関する技術的ディープダイブ、システム設計・スケーリングインタビュー、活用とリーダーシップのインタビュー、および 5 つの推薦状で構成されています。福利厚生には競争力のある給与、豊富な株式パッケージ、雇用主負担の医療・歯科・視覚保険が含まれます。

本文

複雑な規制通知を即座にドラフト、レビュー、送信します。
Staff Engineer / Tech Lead $200 K – $260 K • 0.50% – 1.50% • ニューヨーク州ニューヨーク市, 米国


この役割について

Kyberでは、エンタープライズ向け次世代ドキュメントプラットフォームを構築しています。当社のAIネイティブソリューションは規制文書ワークフローを変革し、保険請求組織がテンプレートの80%を統合し、ドラフトに費やす時間を65%短縮し、全体的なコミュニケーションサイクルタイムを5倍圧縮します。

私たちのビジョン:すべての企業がAIテンプレートをシームレスに活用してあらゆる文書を生成できるようにすること。

  • 過去18か月で:
    • 売上高30倍以上、利益確定
    • 大手保険企業との6桁・7桁規模の複数年契約多数
    • Guidewire, Snapsheet, PCMS などとの戦略的パートナーシップ
  • シリコンバレートップVC(Y Combinator, Fellows Fund)から資金調達済み

CTOに直接報告するStaff Engineerを求めています。この役割は、初期段階の環境で10倍エンジニアとして活躍し、最初から設計・スケールできるミッションクリティカルなAIシステム構築に熱意がある方に最適です。


主な責任

  • プロダクトの技術オーナー
    • バックエンド、フロントエンド、データ、インフラ全体を統括
    • チームをブロックせず、自ら機能をリリース
  • アグレッシブなロードマップ優先度付け
    • スプリント/週間計画を主導し、優先順位を厳格に管理
    • フォーカス保護:トレードオフを決断的に扱い、必要ならば逆らう
  • エンジニアリング容量向上のためのレバレッジ解放
    • Agentic AIコーディングツール(Cursor, Claude Code, Greptile)の採用拡大
    • 再利用可能なパターンとインターフェースを確立し、エンジニア・エージェントがすべてを再発明する必要をなくす
  • 信頼性・セキュリティ・顧客信頼の推進
    • アップタイム、パフォーマンス、インシデント対応を統括
    • モニタリング/アラートと迅速なデバッグワークフローを実装
  • メンターとしてエンジニアリング基準向上
    • 品質とオーナーシップの期待値設定
    • 将来採用候補者のリクルーティング・評価支援

求める人物像

スキル期待
10倍エンジニアで構築が好きAIを活かした生コード力で顧客に喜びを提供
まずは実装し、後から最適化迅速に価値を証明し、その後強化する
システム設計の達人大規模データ駆動アプリを構築し、トレードオフを理解
システムファースト思考AIネイティブチーム運営に適用
責任感手本を示し仲間を責める
セキュリティ・コンプライアンスSOC 2, HIPAA, ISO 等の経験があり、要件をプロダクト構築に統合

私たちの価値観

  • Possible Until Proven Otherwise – 証拠で仮定を挑戦
  • LOVE Your Customer – 顧客を中心に据える
  • Take Pride In Your Craft – プロセスと細部を完璧にする
  • Live Up To Your Expectations – 高い基準を設定し、共に超えていく
  • Have Fun & Nurture Those Around You – 楽しく構築し、チームメンバーを支援

福利厚生

  • 競争力のある給与
  • 豊富なストックパッケージ
  • 医療・歯科・視覚保険は100%雇用主負担

Kyberで働く理由

最先端AIで動かすゲームチェンジャーエンタープライズプロダクトを構築・スケールするチームに参加してください。あなたの貢献は、企業が重要なワークフローと顧客インタラクションを処理する方法に直接影響します。

構築、AI、そしてエンタープライズワークフロー変革に情熱を持つ方なら、ぜひご連絡ください!


目立つためのヒント

  • 過去に共働した人に、履歴書またはLinkedInプロファイルと簡潔な2〜3文推薦を arvind [at] askkyber.com 宛てに送ってもらうよう依頼
  • 口コミは重要です。既存のインパクトやあなたがどんなチームメイトになるかを理解する手助けになります

面接プロセス

  1. 創業者によるスクリーン
  2. 実務テスト(テイクホーム)
  3. 過去プロジェクトに関する技術的掘り下げ
  4. システム設計・スケーリングインタビュー
  5. レバレッジとリーダーシップの面接
  6. 5件の参考文献確認

Kyberについて

Kyberを使えば、規制業界に従事する企業は複雑な規制通知を迅速にドラフト・レビュー・送信できます。例として、Branch Insurance の請求チームが請求を処理するとき、証拠をまとめて通知を書くのに数時間かける代わりに、詳細を Kyber にアップロードし、自動生成された複数の最高品質ドラフトから選択、レビュー担当者を割り当て、リアルタイムで協働し、手紙を送信します。これにより時間が節約され、質・責任・トレーサビリティが向上します。

同じ日のほかのニュース

一覧に戻る →

2026/01/28 9:57

**トリニティ・ラージ** オープンな400 B スパースMoEモデル

## Japanese Translation: ``` (combining all key points with clarity):** --- ### Trinity‑Large: A Fast, Open, State‑of‑the‑Art Sparse MoE Language Model Trinity‑Large は、1 つのトークンで約 13 B パラメータ(256 エキスパート、1.56 % ルーティング分率)しか活性化しない 400 B パラメータを持つ sparse mixture‑of‑experts モデルです。10 T、4 T、3 T の三段階で **17 T** のキュレーション済みトークンを使用して訓練されました。プログラミング・STEM・推論・多言語コンテンツをカバーする合成データが用いられ、Momentum‑based エキスパートロードバランシング、1 シーケンスあたりのバランスロス、z‑loss 正則化で LM‑head ロジットを抑制し、効率的な注意機構(HSDP)と 8‑expert 並列処理が採用されました。 **リリースされたバリアント** | バリアント | 説明 | |---------|-------------| | **Trinity‑Large‑Preview** | 軽くポストトレーニングし、チャット対応。創造的執筆・物語作成・ロールプレイ・リアルタイム音声支援・エージェントタスク(OpenCode, Cline, Kilo Code)で優れた性能を発揮します。まだ推論モデルではありません。 | | **Trinity‑Large‑Base** | 完全な 17 T 事前訓練チェックポイント。ベンチマークと研究資源として使用されます。 | | **TrueBase** | 初期の 10 T チェックポイントで、指示データや LR アニーリングが含まれていません。大規模な高品質事前訓練効果を研究するのに最適です。 | 全体の作業―6か月間にわたる4つのモデル―は約 **2,000 万ドル** の費用で、**2048 台の Nvidia B300 GPU** を使用し、**33 日間** にわたって訓練されました。 **性能** - 数学・コーディング・科学的推論・原知識ベンチマークにおいて同等またはそれ以上の性能を示します。 - 推論速度は、同じハードウェア上で比較可能な重みクラスモデルより約 2–3 倍速です。 - ベンチマーク比較(Preview vs. Llama 4 Maverick): - MMLU: 87.2 vs. 85.5 - MMLU‑Pro: 75.2 vs. 80.5 - GPQA‑Diamond: 63.3 vs. 69.8 - AIME 2025: 24.0 vs. 19.3 **技術的詳細** - ネイティブコンテキスト長:**512k トークン**。Preview API はインフラ調整中に 128k と 8‑bit 量子化で動作します。 - モデルと API は Hugging Face、OpenRouter、および Arcee.ai を通じて公開されており、Kilo Code、Cline、OpenCode 用の統合がすぐに利用可能です。 **コミュニティへの関与** チームは Trinity‑Large が最先端レベルでありながら所有権と実際の使用を念頭に置いて設計されていることを強調し、ユーザーに失敗例を報告してもらうことでオープンモデルが継続的に改善できるよう奨励しています。 ```

2026/01/28 9:18

「有名な研究者が、赤ちゃんの中毒事件を隠したのでしょうか?」

2026/01/28 23:32

エアフォイル(2024)