我想要将两个音频流混合为一个输出流,这在安卓上是否可能?在我的情况下,我有一个来自麦克风的输入流,也就是说,我正在使用AudioRecord录制用户的语音。我想将此录音与短声音剪辑混合,然后创建一个新的流,其中包含两个流的混合,并将其通过Datagram套接字发送。
我进行了大量研究,以下是我所知道的情况。
首先,SoundPool可以帮助我实现我的目标,但是我认为我不能提供麦克风作为输入源。
目前,我正在将MIC的录音保存在缓冲区中,然后通过数据报套接字进行流传输。我想我可以将声音剪辑保存在另一个缓冲区中,然后添加两个缓冲区(我知道这是愚蠢的想法,因为我必须管理各种声音属性)。
也许我可以将麦克风的录音保存到一个文件中,将声音剪辑的录音保存到不同的文件中并将它们混合,但我认为我无法这样做,因为我正在尝试通过Datagram套接字流传输录音。
我认为可以使用Java的声音API来实现我的目标。但它不受Android支持。
总之,我的最终目标是在VoIP(SIP)通话中注入声音效果(例如蟋蟀声和我的声音一起)。
问题1:我该如何实现这个? 问题2:我可以使用Java的Sound API创建一个JAR文件并在我的项目中使用吗?(关于此,我认为不可能)
以下是我的音频录制和播放的一些代码。
我进行了大量研究,以下是我所知道的情况。
首先,SoundPool可以帮助我实现我的目标,但是我认为我不能提供麦克风作为输入源。
目前,我正在将MIC的录音保存在缓冲区中,然后通过数据报套接字进行流传输。我想我可以将声音剪辑保存在另一个缓冲区中,然后添加两个缓冲区(我知道这是愚蠢的想法,因为我必须管理各种声音属性)。
也许我可以将麦克风的录音保存到一个文件中,将声音剪辑的录音保存到不同的文件中并将它们混合,但我认为我无法这样做,因为我正在尝试通过Datagram套接字流传输录音。
我认为可以使用Java的声音API来实现我的目标。但它不受Android支持。
总之,我的最终目标是在VoIP(SIP)通话中注入声音效果(例如蟋蟀声和我的声音一起)。
问题1:我该如何实现这个? 问题2:我可以使用Java的Sound API创建一个JAR文件并在我的项目中使用吗?(关于此,我认为不可能)
以下是我的音频录制和播放的一些代码。
public void run() {
// TODO Auto-generated method stub
try{
int minbuffer = AudioRecord.getMinBufferSize(sample, config, format);
DatagramSocket socket = new DatagramSocket();
Log.d(TAG, "Socket Created");
socket.setBroadcast(true);
byte[] ubuff = new byte[minbuffer];
DatagramPacket packet;
Log.d(TAG, "Packet Created");
InetAddress dest = InetAddress.getByName("10.10.1.126");
//InetAddress dest = InetAddress.
//InetSocketAddress dest= new InetSocketAddress(host, port);
Log.d(TAG, "Address"+dest);
rec = new AudioRecord(MediaRecorder.AudioSource.MIC,sample,
config,format,minbuffer);
rec.startRecording();
while(status == true){
minbuffer = rec.read(ubuff, 0,ubuff.length);
Log.d(TAG, "Reading While");
packet = new DatagramPacket(ubuff, ubuff.length,dest,port);
socket.send(packet);
}
}catch(Exception e){
Log.d(TAG, "Bad Datagram");
}
}
});
stream.start();
这是我的音频播放代码:
@Override
public void run() {
// TODO Auto-generated method stub
try{
android.os.Process.setThreadPriority(Process.THREAD_PRIORITY_URGENT_AUDIO);
AudioManager mm = (AudioManager)getSystemService(AUDIO_SERVICE);
DatagramSocket rSocket = new DatagramSocket(8080);
Log.d(TAG, "Recive Socket");
int m_buf = AudioRecord.getMinBufferSize(sample, config, format);
byte[] _buff = new byte[m_buf];
AudioTrack rSpeaker = new AudioTrack(mm.STREAM_MUSIC,sample,config,
format,m_buf,AudioTrack.MODE_STREAM);
mm.setSpeakerphoneOn(false);
mm.setStreamVolume(AudioManager.STREAM_MUSIC, 100, AudioManager.MODE_IN_COMMUNICATION);
Log.d(TAG, "zzRecorder");
rSpeaker.setPlaybackRate(sample);
rSpeaker.play();
while(true){
try{
DatagramPacket rPacket = new DatagramPacket(_buff, _buff.length);
rSocket.receive(rPacket);
_buff = rPacket.getData();
rSpeaker.write(_buff, 0, m_buf);
Log.d(TAG, "Yo Start Write");
}catch(Exception e){
}
}
}catch(Exception e){
}
}
});
rvStrm.start();