最近在做視頻上傳的時候遇到了個問題,就是當上傳自己錄製的視頻的時候尺寸過大,尤其是錄製720p視頻的時候尺寸更是不可想象,但是從iPad Library或者相簿裡面選擇視頻的時候系統會做一個壓縮,不知道這是什麼方式壓縮的
,求助論壇之後果。後來發現其實IOS裡面是提供了幾個API可以壓縮視頻的(準確的說應該是reEncode)。這幾個API在AVFoundation裡面。寫出來希望能給遇到相同的問題的朋友一些協助。知道的就請略過了。
寫了一個便捷的方法
- (void) lowQuailtyWithInputURL:(NSURL*)inputURL
outputURL:(NSURL*)outputURL
blockHandler:(void (^)(AVAssetExportSession*))handler
{
AVURLAsset *asset = [AVURLAsset URLAssetWithURL:inputURL opti*****:nil];
AVAssetExportSession *session = [[AVAssetExportSession alloc] initWithAsset:asset presetName:AVAssetExportPresetMediumQuality];
session.outputURL = outputURL;
session.outputFileType = AVFileTypeQuickTimeMovie;
[session exportAsynchronouslyWithCompletionHandler:^(void)
{
handler(session);
}];
}
具體用法就是
[self lowQuailtyWithInputURL:video outputURL:output blockHandler:^(AVAssetExportSession *session)
{
if (session.status == AVAssetExportSessi*****tatusCompleted)
{
}
else
{
}
}];
在block裡面檢測成功,失敗,或者是取消,然後釋放session.
期間可以通過不斷的查看session的progress屬性來擷取轉換的進度。
可以設定這些壓縮品質
AVF_EXPORT NSString *c*****t AVAssetExportPresetLowQuality NS_AVAILABLE_IOS(4_0);
AVF_EXPORT NSString *c*****t AVAssetExportPresetMediumQuality NS_AVAILABLE_IOS(4_0);
AVF_EXPORT NSString *c*****t AVAssetExportPresetHighestQuality NS_AVAILABLE_IOS(4_0);
經過我的觀察發現系統的壓縮和AVAssetExportPresetMediumQuality相當 66m 的 480 * 640 視頻壓縮過後是15m.
發現這種方法之前我一直是逐幀的壓縮,就是一邊向檔案裡面寫視訊框架一邊壓縮,這樣導致視頻非常的不清晰,通過以上的方式
之後,視頻品質的損失不大,可以達到視頻分享的檔案尺寸和清晰度的平衡。
如果設定了session的shouldOptimizeForNetworkUse這個屬性,效果會更好。
下面再給一個官方的例子,
https://developer.apple.com/library/ios/#samplecode/RosyWriter/Introduction/Intro.html#//apple_ref/doc/uid/DTS40011110
這個例子給出了當寫視頻檔案的時候手動設定位率和FPS.
同時這個例子已經非常接近iPhone上即時濾鏡的做法了。
轉特:http://www.cocoachina.com/bbs/read.php?tid=106768