モビリティ
コラム(用語)
LiDAR(用語)

スタートアップがLiDARの先に見ている自動運転車両の知覚システム

次の記事

【訂正】性的指向や支持政党が顔認識アルゴリズムでわかる研究が物議を醸す

2020年のCESはLiDAR企業の評価の場でもあった。その多くが(未だ)存在しない自動運転車産業からの需要がないために瀕死の状態である。専門性を高めて他社を引き離している企業はほんのわずかだ。さらに2021年はLiDARの先に目を向けなければならない状況だ。新たな方法のセンシングとイメージングを使ってレーザーベース技術に対抗するとともに補完することを目指さなければならない。

LiDARは、従来のカメラではできなかったことを可能にして進歩をもたらした。そして今、一部の企業がそれほど新しくない技術を用いて進歩を遂げようと試みている。

別の方法でこの問題、つまり知覚技術に対処している良い例に、Eye Net(アイネット)のV2Xトラッキングプラットフォームがある。これは5G(一般的にはまだいくらか新しい技術)関連で説明される技術の1つで、大げさな売り文句だとしても、短距離、低レイテンシのアプリケーションを可能にして救世主技術となる可能性がある。

Eye Netは同社の技術を装備した車両間で衝突警告をしてくれるが、車両にカメラや他のセンシング技術が装備されているかどうかは関係ない。例えば自動車で駐車場内を走行している際、ひどく危険な電動スクーターが前方に真横からきているのに気づかず、このままでは衝突しそうだが駐車されている車のせいでまったく見えない場合がある。Eye Netのセンサーは両車両のデバイスの位置を検出し、いずれか、または両方のブレーキが間に合うように警告を送る。

画像提供:Eye Net

こういったことには他社も取り組んでいるが、同社としてはホワイトラベルソリューションとして提供することにより大規模なネットワークを簡単に構築できるようにして、フォルクスワーゲン、そしてフォード、電動バイクという具合に広げていきたいと考えている。

ただし、自動車の運転や操作の未来像はまだはっきりせず、開発はあちこちで進められている。

例えばBrightway Vision(ブライトウェイ・ビジョン)は、実世界の多くの環境下で可視性が下がる通常のRGBカメラの問題にマルチスペクトル技術を採り入れて取り組んでいる。普通の可視光線画像に加えて、同社のカメラには近赤外線ビーマーが装備されており、決められた距離感覚で1秒間に何度も前方の道路をスキャンする。

画像提供:Brightway Vision

つまり、霧のためメインカメラで30メートル先が見えない場合でも、NIR画像では前方エリアを定期的にスイープして「スライス」をスキャンし、障害物や路面の状況がわかるという。従来のカメラのメリットとIRカメラのメリットを組み合わせているが、それぞれの欠点はうまく避けている。これ1つでより良い仕事をしてくれるのに、普通のカメラを使う理由はないというのが売り文句だ。同じことをもっとうまくやれて、センサーが1つ不要になることさえある。

Foresight Automotive(フォーサイトオートモーティブ)もまた、マルチスペクトル画像技術をカメラに採用している(数年もすれば、可視スペクトルのみの車載カメラはおそらくなくなる)。FLIRとのパートナーシップにより、サーマルイメージングにも手を出しているが、本当に売ろうとしているのは他のものだ。

周囲360度(またはそれに近い範囲)をカバーするには、通常、複数のカメラが必要である。しかし、そういったカメラは同じメーカーであってもコンパクトセダンとSUVでは取りつけ位置が異なり、ましてや自動運転の貨物車両はいうまでもない。それらカメラは連携して機能する必要があるため、完璧なキャリブレーションが求められ、他のカメラの位置を正確に把握している必要がある。各カメラがそれぞれが同じ木や自転車を見ているのであって、同じものが2つあるのではないということを認識している必要があるというわけだ。

画像提供:Foresight Automotive

Foresightの先進技術はキャリブレーション手順を簡素化するもので、製造業者、設計者、テストプラットフォームはカメラが同じ方向や別の方向に半インチ動く必要があるたびに面倒な再テストや認証を行う必要がない。運転前の数秒でカメラを車の屋根に取りつける様子がデモで紹介されている。

同様の企業に別のスタートアップ企業のNodar(ノダル)がある。こちらも3次元カメラを採用しているが、アプローチは異なる。2つの地点の三角測量から奥行きを導き出す方法は、同社が指摘するように、人の眼の仕組みと同じだと考えれば何十年、何万年前からあるものだ。このアプローチの利用がなかなか進まずにいるのは、光学カメラが自動運転車に必要な奥行情報を本来提供できないものであるからではなく、キャリブレーションが常に正しいという信頼がないことが理由である。

Nodarによると、同社の二対のステレオカメラは車両のボディに取りつける必要がないため、複数のカメラビュー間で見られるジッタやほんのわずかのずれが抑制される。同社の「ハンマーヘッド」カメラセットには幅があり(サメのように)、バックミラーに取りつけるとこのカメラの間隔の広さのおかげで高い精度が実現する。距離は2つの画像の差によって判断されるため、カメラが1台のソリューションの場合のように「これは何らかのかたちをしたもの、おそらく車で、たぶんこれくらいの大きさで、おそらくこれくらい離れていて」というような物体認識や複雑な機械学習は必要ない。

画像提供:Nodar

「ちょうど人の目と同じように、カメラを並べて使えば、ひどい悪天候もクリアできることがわかっています」とNodarのCOOで共同創設者のBrad Rosen(ブラッド・ローゼン)氏はいう。さらに「例えばDimler(ダイムラー)の技術者は、最新の3次元アプローチは、視点が1つの方法やLiDARで補完する方法よりも悪天候時の奥行きの推測が大幅に安定することを示す結果を公開しています。私たちのアプローチの利点は、使用するハードウェアがすでに入手できるもので、自動車産業で使える品質であり、製造業者やディストリビュータの選択肢も多いという点です」と続けている。

実際、LiDARの大きなハンディは本体のコストだった。「割安」とされるものでさえ通常のカメラの何倍もの値段で、何かしら追加すればすぐに高額になってしまう。しかし、LiDARのチームも何もせずじっとしているわけではない。

Sense Photonics(センス・フォトニクス)は、LiDARとカメラのいいとこ取りをしたような新しいアプローチでこの分野に参入した。比較的低価格でシンプルなLiDAR(複雑になりがちなスピンやスキャンとは対照的)を従来のカメラと組み合わせ、2つそれぞれで同じ画像を見ることでLiDARとカメラが連携して物体を識別し、距離を測ることができるというものだ。

関連記事:28億円調達でライダーシーンに登場した新しいアプローチ

2019年の登場以来、同社は製造やそれ以外でも技術を磨いている。最新の成果は、LiDARと従来のカメラで一般的に限界と考えられている最大200メートル先の物体を画像化できるカスタムハードウェアである。

「これまでは、弊社のレーザー源(Sense Illuminator)に既製品の検出器を組み合わせて使っていました。しかし、社内で検出器を開発したところ2年で完成し、大成功を収めました。これにより、弊社は短距離と長距離の自動車用製品を製造できるようになりました」とCEOのShauna McIntyre(シャウナ・マッキンタイア)氏は述べている。

「弊社では、LiDARをカメラと同じ「ビルディングブロック」形式で設計しています。つまり、さまざまな光学製品と組み合わせて多様なFOV、範囲、解像度などに対応できるようにしています。かなりシンプルな設計となっているため、実際に大量生産も可能です。ちょうどDSLRカメラのようなアーキテクチャだと考えていただければわかりやすいでしょう。ベースとなるカメラ本体にマクロレンズ、ズームレンズ、魚眼レンズなどを取りつければさまざまな撮影ができるのと同じです」と続けている。

おそらくすべての企業で意見が一致していると思われることの1つは、自動運転車産業全体で、1つのセンシング方式が優位になることはないということである。完全自動運転(レベル4~5)車両のニーズが、運転支援システムのニーズとかなり異なることはさておき、自動運転分野は変化が速すぎるため、1つのアプローチが長く優先されることはほとんどない。

「AV企業はプラットフォームの安全性を世間に納得してもらえない限り成功することはできません。安全マージンは、波長が異なるセンサー方式を重複して使うことでしか高められません」とマッキンタイア氏は述べている。

可視光線、近赤外線、サーマルイメージング、レーダー、LiDARのいずれかを使うにしても、この記事で登場したように2~3の方法を組み合わせて使うにしても、市場で注目される方法が次々と変わっていくのは明らかである。ただしそれは、LiDAR産業で数年前に見られた活況と不況の波と同様、統一までの道のりがそう遠くはないということの警告でもあるだろう。

カテゴリー:モビリティ
タグ:LiDARコラム

画像クレジット:Andrey Suslov / Getty Images

原文へ

(文:Devin Coldewey、翻訳:Dragonfly)