iPhoneが目が見えない人に他人の接近とその距離を知らせる機能を搭載する

次の記事

Amazonの第4四半期における新型コロナ関連コストは約4160億円の見込み

Apple(アップル)がiOSの最新のベータに、興味深いアクセシビリティ機能を組み込んだ。それは、iPhoneのカメラの視野内に人がいると、その距離を検出するシステムだ。この機能により、現在、何より重要な目が不自由なユーザーが効果のあるソーシャルディスタンスを保つことができるようになる。

この機能はアップルよ拡張現実(AR)システムARKitにあるもので、画像処理の技術用語で「people occlusion」と呼ばれ、人間の形状を検出してバーチャルアイテムがその前や後ろを通るというものだ。この技術に、iPhone 12 ProとPro MaxのLiDAR装置を組み合わせると、目の不自由な人にとって便利なツールができる、とアクセシビリティのチームは気がついた。

一般的に、人が店や横断歩道を歩くときは他の人がどれだけ近く、あるいは遠くにいるかを、目が絶えず判断し注意している。しかしパンデミックの間にまず思いつくのは、他の人と約2mの距離を保つことだ。

この新しい機能は、拡大鏡(Magnifier)アプリ内のもので、iPhone 12 ProおよびPro MaxのLiDAR機能と広角カメラを使って、さまざまな方法でユーザーにフィードバックを行う。

赤外線ビデオに映るiPhone 12 ProのLiDAR。1つひとつの点が、それが反射するモノの正確な距離を教える

第1のフィードバックは、ユーザーに視界に人がいるかいないかを教える。誰かいたら最も近い人までの距離をフィートかメートルでアナウンスし、近づいたり遠ざかったりすると距離を頻繁に更新する。その人がいる方向からの音もステレオで拾う。

第2のフィードバックは、距離を知らせる音をユーザーにセットさせる。例えば6フィート(約183cm)にセットしたら、その人が6フィートよりも離れていたらある音が鳴り、6フィート以内であれば別の音が鳴るようセットさせる。ユーザーが知りたいのは、正確な距離が頻繁にわかることではなく、現在、人と十分な距離が保たれているかどうかということであるためだ。

そして第3のフィードバックは、ユーザーの皮膚に届く振動(周波数)で、人が近づいていることを教えるというものだ。これは目と耳の両方が不自由な人に便利だろう。この機能は検出した人を画面上の矢印で指して教える。視覚が不自由な人にもその程度はさまざまで、どうしても人の助けを必要とする場合も少なくない。これは介護者の役に立つものかもしれない。

このシステムには広角カメラの高画質な画像が必要であるため、暗闇では使用できない。また、ハイエンドのiPhoneに限定されていることも、利用を妨げるかもしれない。

視覚補助ツールは、以前から存在している。多くのスマートフォンや専用デバイスに人やモノを見つける機能が搭載されているが、いずれも標準として活用されているものではない。

この人検出機能は、米国時間10月30日に公開されたiOS 14.2のベータ版が動作するiPhone 12 ProとPro Maxで利用できる。もうすぐ詳細が、AppleのiPhoneアクセシビリティサイトに掲載されるだろう。

カテゴリー:ソフトウェア
タグ:AppleiOS 14iPhoneLiDAR

画像クレジット: Apple

原文へ

(翻訳:iwatani、a.k.a. hiwa