フォトスキャンを久々に試してみる

iPhoneで撮影されたJpegレベルの画像でどこまで仕上がるのかを実験してみた。
今回使用したアプリはPhotoScanとContextCapture。
2017-08-11A写真左がPhotoScanで、写真右がContextCapture。

2017-08-11B今回の素材は人物背面がないので全てがスキャンできたとしても横から後側にかけてはデータは生成されない。

◆スキャン時間
・PhotoScan
遅い(精度を下げればそれなりに速くなる)。
・ContextCapture
比較的速い印象。
◆スキャン精度
・PhotoScan
本来は高いはず、だがiPhoneのJpegレベルではNG。
しかしながら素材の画質が悪くても撮影した画像を多く認識、全体をスキャンしている。ただし目の二重が曖昧で大まかにはとれるが細かいディテールは欠損している印象。
・ContextCapture
なかなかの精度、だが画質の悪い人物の左側が欠損していた。
素材の画像をあまり認識してくれず、少々素材に対してのチェックが厳しい印象。だがスキャンされたモデルはメリハリが効いていて目の二重や口元の仕上がりはいい感じに思える。
◆感想
今回のiPhoneのJpegレベルの場合の2つのアプリの印象は以下のようになった。
写真素材を多く認識させ欠損部位無しを狙いたい場合はPhotoScan。多少部位が欠損しても対象の大まかなディテールはしっかり押さえてスキャンしたい場合はContextCaptureなのかな、っと思う。
ただし、結局どちらをチョイスするにしても大掛かりなデータのブラッシュアップ作業が必要となる。
PhotoScanはノイズが多いためZBrush等で使い消さないといけないし(PhotoScanの機能でノイズを消そうとスムースをかけると必要なディテールまでもが無くなってしまう)、ContextCaptureの場合は欠損部位が発生するリスクが大きいためZBrush等で補完作業が必要となるかもしれない。
個人的に今回の2つのアプリは”現状のiPhone等のJpegレベルでは無理がある”って感じ。モデリングの資料的としリファレンスレベルに留めるか、大幅に手入れをおこなう前提のベース用のモデルとして活用する以外にないかも。
最後に、、、
今回のスキャンアプリに関する感想は素材とした画像の画質に大きく依存している結果なので、iPhoneであっても撮影環境を整備しクオリティーの高い素材を用意することができれば異なった見解となるかもしれない。