
2026/03/31 4:22
2018年にMacBookをタッチスクリーン化するために、ハードウェア費用がわずか$1(約110円)で実現する方法 (Note: The title is translated while preserving its length and intent.)
RSS: https://news.ycombinator.com/rss
要約▶
Japanese Translation:
Project Sistineは、簡単な鏡のセットアップとコンピュータビジョン技術を組み合わせることで、約1ドルでMacBookを手頃なタッチスクリーンに変える方法を示しています。プロトタイプは、Kevin、Guillermo、および Logan が約16時間かけて構築し、ノートパソコンの内蔵ウェブカメラの前に小さく角度付けられた鏡を使用します。この鏡は、金属製ドアヒンジとホットグルーで固定された堅固な紙板に取り付けられています。
ビジョンパイプラインはまず肌色を分離し、バイナリ化して輪郭を検出し、次に最も大きい重複した2つの輪郭を特定します。タッチ/ホバー点は下部輪郭の上端と上部輪郭の底辺との間の中点として取り、垂直距離でタッチとホバーを区別します。ユーザーが画面上の緑色ドットに従う短いキャリブレーション後、RANSAC で推定されたホモグラフィーによってカメラ座標がスクリーン座標へマッピングされます。その結果得られた点はマウスイベントに変換され、既存のアプリケーションをタッチ対応にします。
現在のプロトタイプは480 p のウェブカメラを使用し、投影行列を赤い線で可視化し、検出されたタッチポイントを青く表示しています。将来的には高解像度カメラと曲面鏡を採用して画面全体をカバーすることでシステムの実用性が向上します。コードはMITライセンスの下でオープンソースです。
Text to translate
(revised):**
Project Sistine shows how a MacBook can be turned into an inexpensive touchscreen for roughly $1 by combining a simple mirror setup with computer‑vision techniques. The prototype, built by Kevin, Guillermo and Logan over about 16 hours, uses a small angled mirror in front of the laptop’s built‑in webcam; the mirror is mounted on a rigid paper plate held together with a door hinge and hot glue.
The vision pipeline first isolates skin color, thresholds to binary, finds contours, then identifies the two largest overlapping contours. The touch/hover point is taken as the midpoint between the top of the lower contour and the bottom of the upper one, and vertical distance is used to distinguish touch from hover. After a brief calibration where the user follows a green dot on the display, a homography (estimated with RANSAC) maps camera coordinates to screen coordinates; the resulting points are translated into mouse events so that existing applications become touch‑enabled.
The current prototype uses a 480 p webcam and visualizes the projection matrix as red lines while showing detected touch points in blue. Future work could employ a higher‑resolution camera and a curved mirror to cover the entire screen, making the system more practical. The code is open source under the MIT License.
本文
Project Sistine – 1ドルでMacBookをタッチスクリーンに変える
基本原理
角度から見た表面は光沢が出ます。指の存在は、その反射に触れているかどうかを確認することで検知できます。Kevin が以前開発した ShinyTouch プロトタイプは外部ウェブカメラを使用していましたが、ここではアイデアを小型化しました。MacBook の内蔵カメラの前に小さな鏡を置き、スクリーンを鋭角で下から見せます。するとカメラは画面上またはその近くにある指を捉え、コンピュータビジョンがそれをタッチイベントへと変換します。
部品表(BOM)
- 小型鏡
- 硬い紙板
- ドアヒンジ
- ホットグルー
最終組み立てはナイフとホットグルーガンだけで数分で完了します。
指検出
- 肌色をフィルタ → バイナリしきい値
- 輪郭抽出
- 最大の二つの輪郭を保持し、水平に重なり合うように配置(小さい方が大きい方の上)
- タッチ/ホバー点:下側輪郭の上部と上側輪郭の底部を結ぶ線分の中点
- 上下輪郭間の垂直距離で タッチ と ホバー を判別
処理後のフレームには、指とその反射(緑)、境界ボックス(赤)、タッチポイント(マゼンタ)が表示されます。
マッピング & キャリブレーション
- ウェブカメラ座標を画面座標に変換するためにホモグラフィを使用。
- キャリブレーション時、ユーザーは画面上の指定点に触れ、対応するウェブカメラ―スクリーンペアを記録します。
- RANSAC を用いて投影行列を頑健に推定。
デモ映像では緑色ドットを追跡しながらライブフィードにデバッグ情報が重ねられます。キャリブレーション後、投影行列は赤線で可視化され、タッチポイントは青点として表示されます。
応用
プロトタイプはホバーとタッチを標準的なマウスイベントに変換し、既存アプリケーションで即座にタッチ機能を有効化します。独自アプリを作れば、生のタッチデータ(例:ホバーハイト)を直接利用できるようになります。
結論
Project Sistine は、わずか 1 ドルのハードウェアでノートパソコンをタッチスクリーンに変えることが可能であると証明します。高解像度カメラや曲面鏡などのアップグレードを加えれば、画面全体を捉える実用的かつ低コストなタッチスクリーンシステムへ進化させることも期待できます。
ソースコード
プロトタイプは MIT ライセンスの下でオープンソースです。