Android 調用內建的錄製音頻程式
Android中有內建的音頻錄製程式,我們可以通過指定一個Action MediaStore.Audio.Media.RECORD_SOUND_ACTION的Intent來
啟動它就可以了。然後在onActivityResult()方法中,擷取Intent的Data,就是錄製的音頻對應的URI。
java代碼:
複製代碼 代碼如下:package eoe.demo;
import android.app.Activity;
import android.content.Intent;
import android.net.Uri;
import android.os.Bundle;
import android.provider.MediaStore;
import android.view.View;
import android.widget.Toast;
/**
* 被執行個體示範如何調用Android內建的應用來完成Audio的錄入
* 其實很簡單,我們需要指定一個MediaStore.Audio.Media.RECORD_SOUND_ACTION的Action來啟動就可以
* 返回的Data資料就是我們錄製的音訊URI了
*
* 通過上面這種方式,靈活性不夠高,我們可以利用MediaRecorder類來實現自己的音頻錄製程式
* MediaRecorder既可以用來錄製音頻,也可以用來錄製視頻
* 建立了一個MediaRecorder執行個體後,需要調用setAudioSource和setAudioEncoder來初始化
* 通常情況下,在準備錄製前,我們還需要調用setOutputFormat()方法來決定使用的音頻格式,同時調用
* setOutputFile()來指定存放錄製內容的檔案
*
* 這幾個方法的調用順序是:setAudioSource,setOutputFormat,setAudioEncoder,setOutputFile
*
*
*
* @author Administrator
*
*/
public class AudioRecordDemo extends Activity {
public void onCreate(Bundle savedInstanceState){
super.onCreate(savedInstanceState);
setContentView(R.layout.audio_record);
}
public void onActivityResult(int requestCode, int resultCode, Intent data){
//super.onActivityResult(requestCode, resultCode, data);
//這裡我們就可以擷取到剛剛錄製的音訊Uri,可以進行播放等操作,這裡顯示返回的Uri
if(resultCode == RESULT_OK){
Uri audioPath = data.getData();
Toast.makeText(this, audioPath.toString(), Toast.LENGTH_LONG).show();
}
}
public void onClick(View v){
int id = v.getId();
switch(id){
case R.id.btn1: //調用Android內建的音頻錄製應用
Intent intent = new Intent(MediaStore.Audio.Media.RECORD_SOUND_ACTION);
startActivityForResult(intent, 0);
break;
case R.id.btn2:
//通過MediaRecorder類來實現自己的音頻錄製程式
Intent intent2 = new Intent();
intent2.setClass(this, MyAudioRecord.class);
startActivityForResult(intent2, 1);
break;
case R.id.btn3:
//通過AudioRecord類實現自己的音頻錄製程式
Intent intent3 = new Intent();
intent3.setClass(this, MyAudioRecord2.class);
startActivityForResult(intent3, 2);
break;
}
}
}
Android 音訊介紹
最近移植Android,當Android能夠在裝置上面運行之後,首先想到的是讓音訊裝置跑起來。“沒有聲音,再好的戲也出不來”。本文簡單介紹一下Android音頻適配層。
這個世界音訊裝置千變萬化,Android也不可能為每種裝置都提供支援。Android定義了一個架構,這個架構來適配底層的音訊裝置。該適配層的定義位於:
Java代碼: 複製代碼 代碼如下:hardware/libhardware_legacy/include/hardware_legacy/AudioHardwareInterface.h
要想視頻底層的音訊裝置必須要繼承該檔案中定義的AudioStreamOut,AudioStreamIn,AudioHardwareInterface等類,並實現createAudioHardware函數。
下面我們看一下Android建立音訊裝置的代碼,代碼位於:
Java代碼: 複製代碼 代碼如下:frameworks/base/libs/audioflinger/AudioHardwareInterface.cpp
該檔案有如下代碼:
Java代碼: 複製代碼 代碼如下:AudioHardwareInterface* AudioHardwareInterface::create()
{
/*
* FIXME: This code needs to instantiate the correct audio device
* interface. For now - we use compile-time switches.
*/
AudioHardwareInterface* hw = 0;
char value[PROPERTY_VALUE_MAX];
#ifdef GENERIC_AUDIO
hw = new AudioHardwareGeneric();
#else
// 如果運行在模擬中——用這個模擬器
if (property_get("ro.kernel.qemu", value, 0)) {
LOGD("Running in emulation - using generic audio driver");
hw = new AudioHardwareGeneric();
}
else {
LOGV("Creating Vendor Specific AudioHardware");
hw = createAudioHardware();
}
#endif
if (hw->initCheck() != NO_ERROR) {
LOGW("Using stubbed audio hardware. No sound will be produced.");
delete hw;
hw = new AudioHardwareStub();
}
#ifdef WITH_A2DP
hw = new A2dpAudioInterface(hw);
#endif
#ifdef ENABLE_AUDIO_DUMP
recorded in the file.
LOGV("opening PCM dump interface");
hw = new AudioDumpInterface(hw); // replace interface
#endif
return hw;
}
從代碼中我們可以看出如果定義了GENERIC_AUDIO的宏,則會建立AudioHardwareGeneric,如果是模擬器的話,AudioHardwareGeneric會不能初始化,進而建立AudioHardwareStub。這兩個類都是Audio裝置的適配層,是Android預設提供的。模擬器都是用AudioHardwareStub,不會有聲音輸出。裝置都是用AudioHardwareGeneric,因為預設GENERIC_AUDIO是設定的。
一般我們只關心AudioHardwareGeneric實現,誰會去給模擬器去調試聲音呢,反正我沒這個閑心。首先說明一下這個音頻適配層是Android內建的,可以保證你的音訊裝置正常運行,但是不能發揮裝置的最佳效能。通過後面的描述你將會瞭解。AudioHardwareGeneric的定義位於:
Java代碼: 複製代碼 代碼如下:frameworks/base/libs/audioflinger/AudioHardwareGeneric.cpp
上面就是eoe給我們介紹音頻用途,如果有什麼不明白的就多看看android的源碼,這樣有助與你對音訊理解。
先看一下:
複製代碼 代碼如下:public class FFTActivity extends Activity implements OnClickListener{
private Button button;
private ImageView imageView;
private int frequency = 8000;
private int channelConfiguration = AudioFormat.CHANNEL_CONFIGURATION_MONO;
private int audioEncoding = AudioFormat.ENCODING_PCM_16BIT;
private RealDoubleFFT transformer;
private int blockSize = 256;
private boolean started = false;
private Canvas canvas;
private Paint paint;
private Bitmap bitmap;
@Override
protected void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
setContentView(R.layout.fft);
button = (Button) findViewById(R.id.fft_button);
button.setOnClickListener(this);
imageView = (ImageView) findViewById(R.id.fft_imageView);
transformer = new RealDoubleFFT(blockSize);
bitmap = Bitmap.createBitmap(256, 100, Bitmap.Config.ARGB_8888);
canvas = new Canvas(bitmap);
paint = new Paint();
paint.setColor(Color.GREEN);
imageView.setImageBitmap(bitmap);
}
private class RecordAudio extends AsyncTask<Void, double[], Void> {
@Override
protected Void doInBackground(Void... params) {
int bufferSize = AudioRecord.getMinBufferSize(frequency,
channelConfiguration, audioEncoding);
AudioRecord audioRecord = new AudioRecord(
MediaRecorder.AudioSource.MIC, frequency,
channelConfiguration, audioEncoding, bufferSize);
short[] buffer = new short[blockSize];
double[] toTransform = new double[blockSize];
audioRecord.startRecording();
while (started) {
//將record的資料 讀到buffer中,但是我認為叫做write可能會比較合適些。
int bufferResult = audioRecord.read(buffer, 0, blockSize);
for (int i = 0; i < bufferResult; i++) {
toTransform<i> = (double) buffer<i> / Short.MAX_VALUE;
}
transformer.ft(toTransform);
publishProgress(toTransform);
}
audioRecord.stop();
return null;
}
@Override
protected void onProgressUpdate(double[]... values) {
super.onProgressUpdate(values);
canvas.drawColor(Color.BLACK);
for (int i = 0; i < values[0].length; i++) {
int x=i;
int downy=(int)(100-(values[0]<i>)*10);
int upy=100;
canvas.drawLine(x, downy, x, upy, paint);
}
imageView.invalidate();
}
}
@Override
public void onClick(View v) {
started=true;
new RecordAudio().execute();
}
}
android音頻可視化的原理是使用離散傅裡葉變換,但是數學不好的同學不要擔心,有開源的java離散傅裡葉變換的代碼!!直接到www.netlib.org/fftpack/jfftpack.tgz,直接將裡面javasource目錄拖動到(ca目錄)src即可!!