Google Pixel 3 は 1カメラの画像から深層学習 AI を利用して背景がぼけるポートレートモードなどの精度を高くしており、ファームウェアのアップデートごとに機能強化しているのですが、その元になるデータはどうやって収集しているかというのが、非常にローテクで素敵です
なんと Pixel 3 を 5台固定し、同時にシャッターを切って写真を撮影することで視差を利用した深度データを収集しているそうなのです (シャッターの同期には Wi-Fi を利用している)
持ち歩きは面倒ですが、社員の協力で様々な写真が得られるので、比較的低コストにデータ収集できる方法なのは間違いありません
Pixel 3 には Visual Core と呼ばれる AI アクセラレータが搭載されているので、最近の Snapdragon に搭載されている AI 支援機能だと、まだここまでの結果を高速には出せないのでしょう (将来的には GPGPU に置き換えられるとは思われる)
こうなってくると、自社で AI アクセラレータを載せることのできない会社は、Snapdragon などの
セコメントをする