数日ほど前にこちらで(https://teratail.com/questions/20295)質問をさせていただき回答もしていただけたのですが、まだわからない点があるのでもう少し情報をいただければと考え、同じ内容の質問をさせていただきます。
現在、AVFoundationを使ってカメラ機能を作りたいと考えています。
カメラの機能は、フラッシュやフォーカスなど基本的な機能に加えて、evernoteのIOSアプリのように撮った写真のサムネイルが撮影中の画面に並んでいき、撮影した複数の写真データを次の画面に渡せるようなものです。インスタグラムのような加工機能は考えていません。
そこで、AVFoundationの使い方を調べたところ、AVCaptureVideoDataOutputとAVCaptureStillImageOutputを使用する二種類のやり方があることがわかりました。
しかし、それぞれの利点や違いがいまいちよくわかりませんでした。
質問としては、
1二種類の方法のそれぞれの違いや利点、こういう時はこちらを使うよといったことを教えてください。
2また、上記のようなカメラの実装ならこっちを使った方が良いといったことも教えていただきたいです。
よろしくお願いします!
ドキュメントPDFの64ページにはこうあります。
- AVCaptureVideoDataOutputは、キャプチャ中のビデオのフレームを処理する場合に使用します。(たとえば、独自のビューレイヤを生成するため)
- AVCaptureStillImageOutputは、付随するメタデータを使用して静止画像をキャプチャする場合に使用します。
https://developer.apple.com/jp/documentation/AVFoundationPG.pdf
動画のフレームを取り出すなら前者、静止画として撮影して使うなら後者ということではないでしょうか。
静止画を撮影したいので、AVCaptureStillImageOutputで実装しようと思います。
2015/11/26 21:51:49教えていただきありがとうございました!