幾何学的解析
3次元再構成からカメラキャリブレーションまで
高密度なグリッドパターン検出によるワンショット動体形状計測 |
|
![]() |
プロジェクタ-カメラシステムによる構造化光の投影による形状復元を,動的シーンに適用するには,複数パターンの投影を行う方法より,1 パターンのみの投影を行うワンショット手法が望ましい.著者らは,その解決手法として,縦横の線からなるグリッドパターンの交点を用いたワンショット形状計測法を提案してきた.従来手法では,交点情報のみによる解には曖昧性があり,一意に解を決めるには線間隔の粗密といった追加情報が必要であった.本論文では,2 台のプロジェクタから縦横の平行線を投影することで,追加情報無しに交点のみから一意解を得る手法を提案する.このようなシステムでは交点のみから,線形解法によって一意に解を決定することができるため,線間隔に粗密をつける必要がなくパターン密度を上げることが可能となる.さらに,複数のプロジェクタを用いることによって,パターンが遮蔽されて形状計測できない部分を大きく減らすことが可能である. |
|
近赤外構造化光投影によるテクスチャと形状の同時計測 |
|
![]() |
動物体の形状とテクスチャを同時実時間計測する事は実世界志向ロボットの制 御や認識の分野での応用が期待できる.これを実現するセンサの開発において, 高速な形状計測,およびテクスチャの同時計測という2点が問題であった.こ れまで高速な形状計測法として,カラー構造化光を用いた一回の撮影での形状 計測手法が提案されている.この手法は高速な形状計測が可能であるが,可視 光を用いた構造化光であるため,テクスチャの同時計測は実現できなかった. そこで本論文では赤外光の構造化光を投影し,形状とテクスチャを同時に計測 するセンサを提案する.可視光をテクスチャ計測,赤外光を形状計測と用途別 に波長を分離することにより,同時計測を可能にした.また,テクスチャ計測 用のカメラと形状計測用のカメラを同軸上に配置することにより,テクスチャ マッピングにおいてオクルージョンが発生しないシステムを構築した. |
|
非剛体形状マッチング |
|
![]() |
形状計測を行い,観測対象をモデリングする従来の研究には静止した物体を扱う研究が殆どであった.我々はこの形状モデリングを運動・変形する非剛体に対しても行えるように拡張した.拡張には,高速に形状計測が行えるセンサと従来剛体に対して行われてきた形状間のマッチング手法の非剛体への適用という2つの問題点があった.高速に形状計測を行う問題に対しては,構造化光投影法と呼ばれるプロジェクタとカメラを用いたレンジセンサを近赤外光を用いて実装し,解決を図った.非剛体の形状マッチングについては,ラプラシアンによる初期変形と初期変形後にガウス・ニュートン法によるの最適化プロセスを実施する事で良好な変形を得る事が出来た. |
|
異方性誤差分布を考慮した確率的位置合せ・統合手法 |
|
![]() |
本論文では距離画像の位置合わせと統合を最尤推定問題として定式化する確率的な手法を提案する. まず,レンジファインダの誤差分布を分析し,視線方向に沿った正規分布としてモデル化する.位置合わせの際 にはEM アルゴリズム(Expectation Maximization) を用いてパラメータを推定するが,上記の誤差モデルを 仮定するとIterative Closest Point (ICP) 法の派生法をとして実装することが可能である.統合の際には最大 尤度を持つ符号付き距離を計算する.本手法では距離画像の各頂点間について複数の対応点をとるため,一対の 対応点を用いる方法よりも位置合わせや統合後の誤差が小さくなる.最後に,シミュレーションデータと実際の 距離画像を用いて提案手法の評価を行った. |
|
移動ロボットによる環境認識のための実時間距離画像位置合わせ |
|
![]() |
移動ロボットによる環境認識ではロボットの自己位置を推定すると同時に3次元環境モデルを作成する必要がある(SLAM問題).そこで,実時間レンジセンサから得られる距離画像を位置合わせすることにより,3次元環境モデリングとロボットの自己位置推定を同時に行う手法を提案する.本手法では,センサから得られる時系列距離画像を用いることで,外部センサや手動に頼ることなく実時間で距離画像の位置合わせを行う.位置合わせには IterativeClosestPoint(ICP)法の派生法を用いるが,ここにセンサ精度を考慮した重み関数を導入し,精度による誤差を軽減する手法を提案する.実験では,センサの性能と位置推定の精度についての分析を行った.また,実際に移動ロボットにレンジセンサを搭載し,実時間環境モデリングとセンサ軌道の推定を行った. |
|
視差検出フィルタによる狭基線長全方位ステレオ |
|
![]() |
全方位の近接物体を検出するために,複眼全方位センサを用いた 近接物体検出手法が提案されている. この近接物体検出手法は,対応点探索を行わず, 無限遠対応点に同一物体が投影されているかどうかを判定することにより, ある一定距離以内に接近した物体を検出することができる. また,この手法を段階的に縮小した画像に適用することで, 近接物体までの距離を段階的に求める階層化近接物体検出手法も提案されている. これら手法は高速に近接物体を検出できるが, 物体までの距離は2値,あるいは数段階でしか得られなかった. そこで本論文では,視差検出フィルタによる視差検出手法を提案する. これは,様々なウィンドウサイズで平滑化した画像それぞれに対し, 輝度勾配による視差計測を行い,それらの結果を統合することで 入力画像における視差を求める手法である. 提案手法は輝度勾配を用いて視差を計測しているため,対応点探索を行う必要がない. そのため,複雑なエピポーラ線を持つシステムにも適用しやすく,計算量も少ないという利点を持つ. 最後に,試作した複眼全方位センサから得られる画像に提案手法を適用することにより, その有効性を確認した. |
|
複眼全方位センサを用いた自己運動推定 |
|
![]() |
We propose a new egomotion estimation algorithm for a compound omnidirectional camera. Image features are detected by a conventional feature detector and then quickly classified into near and far features by checking infinity on the omnidirectional image of the compound omnidirectional sensor. Egomotion estimation is performed in two steps: first, rotation is recovered using far features; then translation is estimated from near features using the estimated rotation. RANSAC is used for estimations of both rotation and translation. Experiments in various environments show that our approach is robust and provides good accuracy in real-time for large motions. |
|
2つの平行光の観測による内部カメラパラメータの高精度なキャリブレーション |
|
![]() |
本論文では,透視投影カメラの内部パラメータ推定方法を提案する. 透視投影カメラの従来のキャリブレーション法では, 内部パラメータと外部パラメータを同時に推定するものであった. そのため,内部パラメータは外部パラメータの推定に依存する. しかしこれは,内部パラメータが外部パラメータから独立したものである, という事実に矛盾したものである. また,両方のパラメータを推定した場合でも, 実際には内部パラメータの結果しか利用しない場合も多い. 画像処理における誤差は内部,外部両方のパラメータによって吸収されるため, 内部パラメータのみしか用いない場合,十分な精度が得られない. それに対し本提案手法は,外部パラメータを推定そのものから取り除くことにより, 内部パラメータを安定に求めることができる. 本手法は,2つの平行光をどのような位置姿勢で観測しても, その光線間の相対角は不変である,という内部パラメータのみに 依存する拘束条件を利用して推定を行う. 実験においては相対角誤差の最小化によって内部パラメータが安定に 求まることを示し,さらに,本手法を用いると,推定結果の誤差および 入力データの縮退度を可視化することが可能であることを示す. |
|
平行光間の角度不変性に基づく反射屈折撮像系のミラー位置姿勢校正 |
|
![]() |
反射屈折撮像系において射影座標と実世界での座標系とを対応させるためには,ミラーの位置姿勢を正確に測定することが必要となる.位置姿勢の校正手法は様々なものが提案されてきたが,対象物を利用する方法では校正すべき未知パラメータが多くなるため,校正精度が下がってしまう問題があり,各ミラー形状固有の特徴量を用いた校正手法ではミラーの形状・位置に制約があるという問題があった.本論文では,相対角度が固定された平行光線を利用したミラーの位置姿勢校正手法を提案する.角度が不変な2つの平行光線を用いるためミラーの外部変数のみを考えれば良く,他のパラメータは最小化問題から除外される.提案手法はミラーの形状・取り付け位置に仮定をおかないため,2つの平行光線を観測すると,どのような形状のミラーでもその位置姿勢を推定することができる.最後に,提案手法の校正精度をシミュレーションにより評価する. |
|
平行光を用いた反射屈折撮像系におけるミラーの位置姿勢校正 |
|
![]() |
本論文では,反射屈折撮像系を校正するために,それに含まれる鏡面の位置姿勢を計測する手法について述べる.反射屈折撮像系の校正はさまざまなパラメータの推定を含むが,ここでは撮像系に含まれる鏡面の位置姿勢推定に注目する.従来,単一視点を持つ反射屈折光学系についていくつかの手法が提案されてきたが,それらは鏡面の位置と形状に強い制約があった.それに対し,本論文では平行光源を用いて撮像系と観測対象との幾何学的関係を単純化することによって,鏡面の位置と形状に制約を設けずにその位置姿勢を計測する手法を提案する.撮像系に対して多方向から照射される平行光源を用いることにより,撮像系と観測対象の間の平行移動成分を未知パラメータから除去することができる.鏡面のモデルを用いて未知パラメータを含む形で予測される観測対象の射影像と,実際の撮像系で得られる射影像との誤差を最小化することにより,鏡面の位置姿勢を推定する.最後にシミュレーションと実画像を用いる実験によって,提案手法の精度を評価する. |
|
グレイコードパターンを利用したレンズ歪みの補正 |
|
![]() |
本研究では,広角レンズによるレンズ歪み補正を,平面ディスプレイ上に表示したグレイコードパターンを利用することで,ディスプレイ座標系とカメラ画像座標系の対応関係となる変換マップ作成によって実現する.本手法は,従来手法と異なりレンズ歪みモデルを用いず,ディスプレイと画像の密な対応関係から,画像周辺部でも適応可能であり,単純な線形補間によって元画像から歪み補正画像への変換マップが作成可能となる利点がある.また提案手法は,変換マップを直接作成して歪みを補正するので,画像中心・アスペクト比・光軸からの傾き角のカメラ内部パラメータを必要としないのが特徴である. |
|