**AI が OldNYC に 10,000 枚の新写真を追加**

- AI 主導の画像復元・強化  
- 約 10,000 枚の高解像度写真を追加  
- 歴史的正確性は保ちつつ、鮮明さを向上  
- ニューヨーク市の視覚アーカイブへの公開アクセスを拡大

2026/04/07 3:24

**AI が OldNYC に 10,000 枚の新写真を追加** - AI 主導の画像復元・強化 - 約 10,000 枚の高解像度写真を追加 - 歴史的正確性は保ちつつ、鮮明さを向上 - ニューヨーク市の視覚アーカイブへの公開アクセスを拡大

RSS: https://news.ycombinator.com/rss

要約

Japanese Translation:

OldNYCの写真ビューアは現在49 k枚の画像をホストしており、2016年の約39 k枚から増加しています。また、過去2年間で約10 k枚の歴史的写真が追加されました。GPT‑4oは画像説明から位置情報を抽出し、さらに約6 k枚の正確に配置された写真を追加しました。現在、約87 %の写真には利用可能な位置データがあり、約96 %は正しくマッピングされています。このプロジェクトではGoogle Maps GeocodingをOpenStreetMapとNYPLの歴史的街路データセットに置き換え、1930年代ブロンクスのFulton St–Nassau Stなどの誤ジオコードされた交差点を修正しました。OCRはGPT‑4o‑miniで再構築され、テキストカバレッジが25 kから32 k画像へと増加し、GPTは古いOcropusに対して約75 %の時間で優れた性能を示し、エラー率をほぼ2 %に抑えています。高解像度のソース画像と事前クロッピングは最良のOCR結果を得るために不可欠です。マッピングスタックはGoogle MapsからOpenStreetMapベクタタイル&MapLibreへ移行し、推定月額コストを約35ドルから無料に削減するとともに、より高速なレンダリング、滑らかなズーム、およびカスタムスタイリング(例:1930年代の非現実的機能の除去)を可能にしました。将来計画には、人と建物のAI抽出、他コレクションとの統合、OpenHistoricalMapの完全な街路グリッドへの貢献、および同様のサイト構築を行う開発者への呼びかけが含まれます。2026年にメールリストがリセットされ、新規購読が必要になります。これらのアップグレードは、ユーザーにより正確で豊富に注釈された歴史的イメージを提供し、開発者は無料かつオープンソーススタックを活用できるようにします。また、機関はコストを削減しデータ品質を向上させることで、広範なデジタル遺産コミュニティに恩恵をもたらすことができます。

本文

過去2年間、私はこっそりとOldNYCフォトビューアの主要部分を再構築してきました。結果として、地図上に10,000枚以上の歴史的写真が追加され、位置情報がより正確になり、最新のAIツールとOpenStreetMapエコシステムのおかげで、サイトは運用コストも低減し、管理もしやすくなりました。

2016年時点ではOldNYCに約39,000枚の写真がありましたが、現在は49,000枚です。これらの変更のほとんどは2024年に行われましたが、実際にこの記事を書いているのは2026年です(別プロジェクトに気を取られていました)。もしOldNYCをしばらく訪れていないのであれば、一度見てみてください。もしかすると、見逃していた写真があるかもしれません。


3つの最大改善点

  • より正確なジオロケーション
  • OCR(文字認識)の劇的向上
  • オープンマッピングスタックへの切替

OpenAI と OpenStreetMap を使ったより良いジオロケーション

OldNYC は「Broad Street, south from Wall Street」のような歴史的記述を地理座標に変換することで機能します。元々は、タイトルから交差点情報を抽出し、Google Maps Geocoding API に送信していました。この方法は通りがまだ存在する場合にはうまくいきましたが、多くの歴史的交差点は現在は存在しません。

2024年に行った2つの変更で、このプロセスは大幅に改善されました。

GPT を使った難しいジオコード

一部の画像では、場所情報が記述のみで提供されています。私は現在、OpenAI API(gpt‑4o)を利用してそのテキストから位置情報を抽出しています。

Public Schools – Brooklyn – P.S. 143, 1930
Havemeyer Street, west side, from North 6th to North 7th Streets,
showing Public School No. 143. The view is north from North 6th Street.

学校自体はもう存在しないため、タイトルだけではジオコードできません。記述から GPT は次の情報を抽出しました。

  • Havemeyer St & North 6th St
  • Havemeyer St & North 7th St
  • Public School No. 143

OpenStreetMap には両交差点が存在するため、OldNYC は画像を最初の交差点に配置します。GPT は「North 6th」が「North 6th Street」を意味することを理解し、「west side」のような無関係なフレーズを除外して関連交差点のみを抽出します。従来のコンピュータはこの種のタスクで苦労しましたが、最新 AI モデルはこれを完璧にこなします。GPT を使うことで約6,000枚の追加写真を位置決めできました。現在、OldNYC は利用可能な位置情報を持つ写真の約87%を正しくジオコードし、マップ上で表示される画像の約96%が正しい場所に配置されています。

OSM を使ったジオコーディング

また、Google Maps のジオコーダーを OpenStreetMap と歴史的通りデータセットに置き換えました。

Brooklyn: Fulton Street – Nassau Street

1930年代にはブルックリンで交差していましたが、現在はそうではありません。Google は同名の街がマンハッタンに存在するため、その場所を返します。OldNYC では NYPL の歴史的通りプロジェクトからデータを取り込み、元々ブルックリンにあった交差点情報を使用しています。その結果、画像は正しい位置に表示されます。


AI による OCR(文字認識)

ほとんどの OldNYC 写真には NYPL カタログから取得した説明が付いていますが、NYPL サイト上ではそれらはタイプライターでスキャンされた画像であり、テキストとして扱えません。2015 年に OldNYC を立ち上げたとき、この画像を文字列へ変換する(OCR)ことが最も難しい技術課題でした。私は Ocropus を使った独自パイプラインを構築し、文字精度 99% 超を達成しました。しかし、誤りは読み取り時に顕著でした。

それを改善するために「タイプミス修正」機能を追加し、ユーザーが転写結果を訂正できるようにしました。これがニューヨーカーたちの集団的 OCD を刺激し、数千件もの編集が行われました。

2024 年には OCR システムを gpt‑4o-mini で再構築しました。

成果

  • テキストカバレッジは 25,000 枚から 32,000 枚へ増加
  • 両システムを使用した画像では、GPT が約 75 % のケースで優れており、明らかに劣るのはわずか ~2 %

例えば、古い OCR は珍しいフォントのため完全なガビリッシュを生成していましたが、GPT はそれを完璧に転写しました。

学び

  • GPT は高解像度ソース画像で最も効果的であり、NYPL サイト上の低解像度画像ではあまり良く機能しない
  • 2015 年に書いたテキスト検出コードは、OCR 前に画像を切り抜く際に依然として役立つ
  • タイトルなどのコンテキスト情報を与えると GPT は「幻覚」を起こすことがあるため、最良結果は画像だけを入力した場合で得られた

総じて、OpenAI のようなツールのおかげで 2024 年では OCR が 2015 年よりも格段に簡単になりました。


Google Maps から OpenStreetMap への移行

OldNYC を立ち上げた当初は、ウェブマッピングのデフォルトとして Google Maps が無料で利用できるため選択されました。しかし時間とともに Google の価格モデルが変わり、2024 年末には $200/月 の無料クレジットを個別 API ごとの割引枠へ置き換えました。この新システム下では、Free だったものは実質 $35/月 になる計算です。

趣味プロジェクトとして Google を継続的に支払うよりも、OpenStreetMap のベクタタイルと MapLibre に移行しました。

メリット

  • レンダリング速度が速い
  • ズーム操作が滑らか
  • マップスタイリングを完全に制御できる

例としては、1930 年代に存在しなかった高速道路やトンネルなどのアナクロニズムを除外することも可能です。


今後の展望

まだ改善余地が多くあります。

  • AI が画像から人物・建物・屋内/屋外シーンなど追加情報を抽出できるように
  • 他コレクションからの写真を組み込む
  • OpenHistoricalMap に貢献し、NYC の完全な歴史的通りグリッドが揃えば写真の位置決めが劇的に簡単になる可能性がある
  • 他都市向けに OldNYC スタイルのサイト構築を開発者が容易に行えるようにする

興味があればぜひご連絡ください。

📪 OldNYC のアップデート情報を受け取りたい方は、新しいメールリストにご登録ください!2026 年以前に購読した方は再度登録が必要です。申し訳ありません、MailChimp が古いリストを削除してしまいました 😡

同じ日のほかのニュース

一覧に戻る →

2026/04/08 3:09

**プロジェクト・グラスウィング:AI時代における重要ソフトウェアの保護**

## Japanese Translation: Project Glasswingは、AWS、Microsoft、Google、Cisco、Apple、Broadcom、JPMorgan Chase、NVIDIA、Palo Alto Networks、およびLinux Foundationを含む主要なクラウド・ソフトウェア・金融企業を結集し、Anthropicの未公開Claude Mythos Preview AIを用いて高重大性のソフトウェア脆弱性を発見・修正することを目的としています。Mythos PreviewはすでにOpenBSD、FFmpeg、およびLinuxカーネルで重要なバグを検出し、その後メンテナがパッチを適用しました。Anthropicはパートナー向けに最大1億ドルの使用クレジットと、オープンソースセキュリティグループへの追加400万ドルの寄付を提供しており、40社以上の組織もモデルアクセスを受け取ります。参加者は90日以内に調査結果を公開し、ベストプラクティスを共有し、脆弱性開示、自動パッチング、安全な開発ライフサイクル、およびサプライチェーンセキュリティに関する推奨事項を策定する予定です。このイニシアチブは米国政府担当者と協力してツールの攻撃および防御機能を評価し、最終的には独立した組織が業界・公共部門全体で継続的な大規模サイバーセキュリティ作業を調整する可能性があります。研究プレビュー後、AnthropicはMythos PreviewをClaude API、Amazon Bedrock、Google Vertex AI、およびMicrosoft Foundry経由で参加者に対し1百万トークンあたり25ドル/125ドルで提供する予定です。

2026/04/08 0:03

「月のフライバイ」

## Japanese Translation: オリオン宇宙船は、NASA のアーテミス II ミッションに乗組みされ、2026年4月6日に月を周回しながら一連の写真を撮影しました。クルー(パイロット・ビクター・グローバー、指揮官リード・ウィスメン、ミッションスペシャリストジェレミー・ハーネスとクリスティーナ・コック(さらにカナダ宇宙機関のアストロノート・ハーネス))はオリオンの窓から、EDT 18:41に地球沈没、ET 19:22に地球昇起、および月面の詳細な映像を記録しました。1枚の画像ではオリオンの前景から月と地球の両方が同時に写っており、別のクローズアップは周回の終盤(約3:41)に撮影されました。ハーネスは観測期間中に窓2にカメラシャードを装着し、いくつかのショットでは日食時に太陽が月面を背光し、左端で太陽が昇り、ほぼ1時間続いたシーケンスの終わりまで撮影されました。午後2:19には画像の左半分が月表面で満たされました。オリオン自体は複数の写真で日光を浴び、その輪郭が宇宙空間に浮かぶ姿が際立っています。 この改訂された要約は、将来の設計への影響について推測的な結論を避けつつ、すべての主要ポイントを網羅しています。

2026/04/08 4:44

S3ファイル

## Japanese Translation: Andy Warfield のチームは **S3 Files** を構築しました。これは、ユーザーが Amazon S3 バケットまたはプレフィックスを EC2、コンテナ、または Lambda 上の NFS スタイルネットワークファイルシステムとしてマウントできるシステムです。この設計では EFS がステージングに使用されます。ファイル変更はローカルで書き込まれ、その後約 60 秒ごとに自動的に S3 に *コミット* されます(起動時には手動コミット制御はありません)。複数のクライアントが同じオブジェクトを修正した場合、conflict‑resolved コピーが lost+found ディレクトリに保持されます。メタデータは遅延でハイドレーションされ、小さなファイルは即時ロードされ、大きなファイルは読み込み時にストリーミングされるため、数百万オブジェクトを持つバケットでも迅速にマウントできます。大規模な連続読み取りはローカルキャッシュをバイパスし、並列 GET を介して直接 S3 にアクセスすることで、クライアントあたり約 3 GB/s の速度を実現し、多数のクライアントにわたって拡張可能です。システムは S3 の IAM ポリシー、オブジェクトの不可変性、および命名セマンティクスを保持しつつ、完全な NFS スタイルファイル操作(パーミッション、原子リネーム、ディレクトリトラバーサル)を公開します。ただし、S3 にはネイティブなリネームがないため、リネーム操作は高コストであり、有効な POSIX ファイル名にマッピングできないキーはマウントから除外されます。 Warfield の以前の **S3 Tables** と **S3 Vectors** に関する研究は、構造化データ・ベクトル・ファイルを S3 で一等のプリミティブとして扱うというより広範な戦略を示しています。UBC でのゲノム研究では、大規模データセットをローカルファイルシステムとオブジェクトストア間で移動する際の苦労が明らかになり、この統一アクセスレイヤーへの動機付けとなりました。ベータ版からの早期フィードバックは、パフォーマンス制限(例:5,000 万オブジェクトを超えるマウントに対する警告)、コミットウィンドウ、および問題キーの処理方法を形作っています。目標は Amazon のデータレイクポートフォリオを拡張し、開発者が配管よりもドメインロジックに集中できるようにすることであり、エンタープライズ向けにはデータサイエンス、機械学習、メディア処理などで、コストの高いマイグレーションや新しいツールを必要とせずにローカルとオブジェクトストアへのアクセスを統一することで恩恵をもたらします。

**AI が OldNYC に 10,000 枚の新写真を追加** - AI 主導の画像復元・強化 - 約 10,000 枚の高解像度写真を追加 - 歴史的正確性は保ちつつ、鮮明さを向上 - ニューヨーク市の視覚アーカイブへの公開アクセスを拡大 | そっか~ニュース