**Converge(YC S23) – プロダクトエンジニア募集(NYC、対面)**

2026/02/05 2:01

**Converge(YC S23) – プロダクトエンジニア募集(NYC、対面)**

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:


要約

同社は、消費者ブランドがマーケティングROIを測定し、大規模な予算決定を行うのを支援する高速成長中のニューヨーク市立ち小さなスタートアップにエンジニアを募集しています。スタッフには4名のエンジニアがおり、年間継続収益は100万ドル以上で、200社超のブランド顧客(上場企業も含む)にサービスを提供し、Y Combinator、General Catalyst、Posthog創業者、Algolia創業者、Shipbob創業者などから570万ドルの投資を受けています。

主力製品は毎月約20TBのデータを取り込み、数百万ドル規模の広告費のシフトを推奨します。さらに同社は年間約40億ドルのオンライン注文を処理し、現在までに約100億件の顧客インタラクションを取得しています。チームはSlack会話、Creative Analytics ダッシュボード、およびパブリック企業向けAIエージェントなどの統合を構築しており、React、Python、Postgres、ClickHouse を含むスタックで開発を行っています。

候補者は、導入電話、技術問題セッション、カルチャーフィットディスカッション、およびフルデイビルド演習(場合によっては2日間に圧縮)という構造化された面接プロセスを経ます。役割では顧客機能の迅速な反復、ソリューションの直接的な自律性、および成長規模データ課題への取り組みが可能です。

採用成功はスタートアップの市場到達範囲を拡大し、ブランドが支出を最適化できるようにすることで、広告費で数十億ドルの節約につながり、会社をより広い業界インパクトへと推進します。報酬は給与175K〜240Kドル、株式0.6%〜0.85%、プライベート健康・歯科・視覚保険、年金および401k拠出が含まれます。


本文

勤務地: ニューヨーク市(対面)


Convergeについて

世界の消費者ブランドを利益率高く成長させることが私たちの使命です。
それはまず、どのマーケティング施策が収益性のある成長に結びつくかを理解する手助けから始まります。

  • 200社以上の消費者ブランド(上場企業も含む)が、Convergeで日々最大12回までマーケティングパフォーマンスをモニタリングしています。
  • 彼らは何が効果的かを掘り下げ、数百万ドル規模のマーケティング予算をどこに振り分けるかを決定します。
  • Y Combinator、General Catalyst、Posthog創業者、Algolia、Shipbob などトップ投資家から570万米ドルを調達しています。

あなたが行う仕事

  • 製品のエンド・ツー・エンドのリリース:システム設計とデータモデル構築、インターフェース開発、ユーザー体験の洗練。
  • 顧客の課題に対し最高のソリューションを完全自律で提供。問題を深く理解し、解決策に執着し、実装まで推進します。
  • 顧客と直接コミュニケーション:要件ヒアリング→機能開発→フィードバック取得→迅速な反復(PR → 数時間での修正)。

代表的プロジェクト例

  • Slackとのシームレス会話 – Convergeからチームメンバーをタグ付けし、スクリーンショットではなく Slack と双方向同期。
  • 成長施策の集約 – 価格変更・予算更新・キャンペーンカレンダーなどのコンテキスト情報を統合成長指標に重ねて表示。
  • クリエイティブ分析 – Converge 内で広告クリエイティブを試行錯誤できるプロダクト構築。
  • AI エージェント – 成長チームがデータを迅速に理解・活用できるよう支援するエージェント開発。

なぜ Converge なのか

  • エンジニアは4名のみで、ARR が1M米ドルを超える実績。オフィス政治はなく、完全な所有権があります。
  • 本格的なエンジニアリング課題:年間40億米ドル相当のオンライン注文処理、月間20TBのデータ、約100億件の顧客インタラクションを扱います。
  • 対面文化を重視し、顔と顔で仕事することを好みます。

求める人材像

  • React, Python, Postgres, ClickHouse など全スタックに4年以上の経験。
    データ集約型プロダクト構築経験や ClickHouse の知識がある方は尚可。
  • エンド・ツー・エンドで製品/機能をリリースした実績。
  • UX とコード品質への執着心。

報酬

項目内容
給与$175 K – $240 K
エクイティ0.6% – 0.85%
福利厚生プライベート医療、歯科・視力保険;年金&401(k)拠出

面接プロセス

  1. イントロコール(30分):動機・適性確認と質問応答。
  2. テクニカル(1時間):Converge での典型的なエンジニアリング課題に取り組む。
  3. カルチャー(45分):過去経験や作業スタイルを掘り下げる。
  4. スーパーデイ(1日): チームと共に何かを構築(全額支給)。
    *迅速な進行をご希望の方は2日で完了可能。

創業チームと歴史

  • すべての共同創業者が Converge の本番環境で稼働するコードを書いています。
  • 初めて上場企業をクローズしたのは、サンフランシスコのリビングルームで YC バッチに参加していた頃です。
  • Thomas と Tiago(創業エンジニア)は、Thomas がインターンだった時から共働しています。
  • Michel (カスタマーサクセス) はフリーランストラッキングコンサルタントとして多数のサポートチケットを処理していました。
  • Thomas と Jan は高校時代から親友で、Jan と Jerome は大学1年生の頃に出会いました。

同じ日のほかのニュース

一覧に戻る →

2026/02/05 0:08

「Voxtral Transcribe 2」(ボクセトラル・トランスクライブ 2)

## Japanese Translation: Voxtral は次世代の音声認識モデルを 2 つリリースしました:**Mini Transcribe V2**(バッチ)と **Realtime**(ライブ)。RealtimはApache 2.0 ライセンスで Hugging Face 上で入手可能で、サブ 200 ms のレイテンシーを設定でき、480 ms まで下げられます。480 ms の遅延で字幕用に 2.4 秒のディレイがあり、WER(単語誤り率)が 1–2% 内に収まります。両モデルとも **13 言語**(英語、中国語、ヒンディー語、スペイン語、アラビア語、フランス語、ポルトガル語、ロシア語、ドイツ語、日本語、韓国語、イタリア語、オランダ語)をサポートします。 Mini Transcribe V2 は FLEURS ベンチマークで約 **4 % WER** を達成し、ElevenLabs の Scribe v2 より音声処理速度が約 3 倍速く、API 経由で **$0.003/min** のコストです。Realtime は同等の精度を **4‑B パラメータ** のフットプリントで実現し、エッジデプロイが可能です。また、そのストリーミングアーキテクチャは音声が到着した時点で文字起こしを行い、他の API で一般的なチャンクベースの処理を回避します。 企業向け機能には、スピーカー分離(開始/終了タイムスタンプ付き)、単語レベルのタイムスタンプ、最大 100 語・フレーズまでのコンテキストバイアシング(英語最適化)、ノイズ耐性、および **3 時間** までの録音サポートがあります。Mistral Studio のオーディオプレイグラウンドでは、両モデルを最大 10 ファイル(各ファイル ≤1 GB)でテストでき、スピーカー分離、タイムスタンプ粒度、およびコンテキストバイアシングのオプションがあります。 ユースケースは **会議インテリジェンス、音声エージェント/仮想助手、コールセンター自動化、メディア/放送字幕、コンプライアンスポータル** など多岐にわたり、すべて GDPR/HIPAA 対応のオンプレミスまたはプライベートクラウドデプロイでサポートされます。Voxtral は、GPT‑4o mini Transcribe、Gemini 2.5 Flash、Assembly Universal、Deepgram Nova を上回る最高の価格対性能を誇る転写 API と主張しています。 同社は開発者にチームへの参加を呼びかけており、世界クラスの音声 AI の構築と継続的な製品拡大・将来機能リリースを示唆しています。

2026/02/01 21:43

**Claude Code** クォータが尽きたらローカルモデルに接続します。

## Japanese Translation: **概要:** より安価な Anthropic Claude プランを利用しているユーザーは、コーディング中に日次または週次のクォータ制限に直面することが多いです。この記事では、Claude Code を Anthropic の API ではなくローカルのオープンソースモデルに接続することでこれらの制約を回避する方法について説明しています。実際的な2つの手法を紹介します: 1. **LM Studio v0.4.1** を使用する方法 ― モデルは検索インターフェイス経由でインストール(推奨コンテキストサイズ > 25k トークン)、`lms server start --port 1234` でサーバーを起動し、環境変数 `export ANTHROPIC_BASE_URL=http://localhost:1234` と `export ANTHROPIC_AUTH_TOKEN=lmstudioc` を設定します。次に Claude Code を `claude --model openai/gpt‑oss‑20b` で起動し、Claude 内で `/model` コマンドを使ってモデルの確認または切替えを行います。 2. **Llama.CPP** を直接使用する方法 ― これにより Claude Code はローカルエンドポイントを指すことも可能です。 推奨されるモデルとしては、Z.AI の **GLM‑4.7‑Flash** と **Qwen3‑Coder‑Next** が挙げられています。また、小型で量子化されたバージョンを使用するとディスク容量と GPU メモリを節約できますが、その代償として品質や速度が若干低下する可能性があります。ローカル OSS モデルは遅く、コード生成の質が低下することもありますが、クォータ制限やコストが問題になる際に有効なバックアップ手段となります。最後に、読者にはこの設定を試し、さまざまなモデルをテストして経験を共有するよう奨励しています。

2026/02/05 3:34

インフラ向け Claude コード

## Japanese Translation: > Fluid は、AI エージェントが本番インフラストラクチャのサンドボックス化されたクローンを安全に探索し、その後、自動的に実際のサーバー用の Infrastructure‑as‑Code(IaC)―たとえば Ansible プレイブック ― を生成できる軽量ターミナルエージェントです。 > LLM 単体ではライブシステムの挙動を予測することが難しいため、サンドボックスは実際的なコンテキストを提供します。コマンドはホストと同一 OS、パッケージ、ツールを鏡映した隔離された VM またはクラスター上で実行されます。 > Fluid には安全性が組み込まれています:本番環境への直接 SSH は許可せず、一時的な証明書のみを使用し、すべてのサンドボックスコマンドは監査可能に完全ログ記録され、高リソースまたはインターネット依存の操作は人間の承認が必要です。 > インストールはワンライナー(`curl -fsSL https://fluid.sh/install.sh | bash`)で、ホスト環境を自動的に検出します。 > 提供された例では、AI エージェントがサンドボックス(ID `SBX-demo1234`、IP `192.168.122.50`)に Apache をインストールし、curl で確認した後、`httpd‑setup` プレイブックを生成します。このプレイブックは 4 件のタスク(apt キャッシュ更新、Apache インストール、カスタム `index.html` 作成、サービス起動/有効化)から構成され、任意の Ubuntu サーバーで実行して同じ設定を再現できます。 > コントロールされた監査可能なワークフローをチームに提供することで、Fluid はデプロイリスクを低減し、コンプライアンスを向上させ、AI 主導のインフラ変更を効率化します。