在之前完成的实战项目【FFmpeg音视频播放器】属于拉流范畴,接下来将完成推流工作,通过RTMP实现推流,即直播客户端。简单的说,就是将手机采集的音频数据和视频数据,推到服务器端。
接下来的RTMP直播客户端系列,主要实现红框和紫色部分:
本节主要内容:
1.Java层音频编码工作。
2.FAAC库导入。
3.Native层音频编码器工作。
4.Native层音频推流编码工作。
源码:
NdkPush: 通过RTMP实现推流,直播客户端。
一、Java层音频编码
在上一节Java层视频编码工作中,MainActivity已经把用户操作页面相关功能分发给NdkPusher.java,现在只需要通过NdkPusher,把音频相关的事件分发给AudioChannel.java处理;
1)NdkPusher:
中转站,分发MainActivity事件和和Native层打交道;
NdkPusher初始化时,主要是的三件事,
①:初始化native层需要的加载,
②:实例化视频通道并传递基本参数(宽高,fps,码率等),
③:实例化音频通道
上节已完成①、②;本节只要是未完成③:实例化音频通道;
/**
* 此中转站的构造,主要是的三件事,
* ①:初始化native层需要的加载,
* ②:实例化视频通道并传递基本参数(宽高,fps,码率等),
* ③:实例化音频通道
*/
public NdkPusher(Activity activity, int cameraId, int width, int height, int fps, int bitrate) {
native_init();
// 将this传递给VideoChannel,方便VideoChannel操控native层
mVideoChannel = new VideoChannel(this, activity, cameraId, width, height, fps, bitrate);
mAudioChannel = new AudioChannel(this);
}
开始直播,调用native层开始直播工作,分发给视频通道AudioChannel开始直播
public void startLive(String path) {
native_start(path);
mVideoChannel.startLive();
mAudioChannel.startLive();
}
停止直播,调用native层停止直播工作,分发给视频通道AudioChannel停止直播
public void stopLive() {
mVideoChannel.stopLive();
mAudioChannel.stopLive();
native_stop();
}
释放工作,释放native层数据和视频通道AudioChannel
public void release() {
mVideoChannel.release();
mAudioChannel.release(); // audioRecord释放工作
native_release();
}
获取音频通道需要样本数(faac的编码器,输出样本 的样本数,才是标准)
public int getInputSamples() {
return native_getInputSamples(); // native层-->从faacEncOpen中获取到的样本数
}
与native层通讯音频函数
// 下面是音频独有
public native void native_initAudioEncoder(int sampleRate, int numChannels); // 初始化faac音频编码器
public native int native_getInputSamples(); // 获取faac编码器 样本数
public native void native_pushAudio(byte[] bytes); // 把audioRecord采集的原始数据,给native层 编码-->入队---> 发给流媒体服务器
2)AudioChannel
音频通道,处理NdkPusher分发下来的事件和将AudioRecord采集录制音频数据推送到native层。
调用构造函数时,初始化Native层faac音频编码器,初始化AudioRecord麦克风;
public AudioChannel(NdkPusher ndkPusher) {
this.mNdkPusher = ndkPusher;
executorService = Executors.newSingleThreadExecutor(); // 单例线程池
int channelConfig;
if (channels == 2) {
channelConfig = AudioFormat.CHANNEL_IN_STEREO; // 双声道
} else {
channelConfig = AudioFormat.CHANNEL_IN_MONO; // 单声道
}
// 初始化faac音频编码器
mNdkPusher.native_initAudioEncoder(44100, channels);
// (getInputSamples单通道样本数1024 * 通道数2)=2048 * 2(一个样本16bit,2字节) = 4096
inputSamples = mNdkPusher.getInputSamples() * 2;
// AudioRecord.getMinBufferSize 得到的minBufferSize 能大不能小,最好是 * 2
int minBufferSize = AudioRecord.getMinBufferSize(44100, channelConfig, AudioFormat.ENCODING_PCM_16BIT) * 2;
audioRecord = new AudioRecord(MediaRecorder.AudioSource.MIC, // 安卓手机的麦克风
44100, // 采样率
channelConfig, // 声道数 双声道
AudioFormat.ENCODING_PCM_16BIT, // 位深 16位 2字节
Math.max(inputSamples, minBufferSize)); // 缓冲区大小(以字节为单位):max在两者中取最大的,内置缓冲buffsize大一些 没关系的,能大 但是不能小
}
开始直播,修改标记 让其可以进入while 完成音频数据推送, 并开启子线程,子线程:AudioRecord采集录制音频数据,再把此数据传递给 --> native层(进行编码) --> 封包(RTMPPacket) --> 发送
public void startLive() {
isLive = true;
executorService.submit(new AudioTask()); // 子线程启动 Runnable(AudioTask)
}
private class AudioTask implements Runnable {
@Override
public void run() {
audioRecord.startRecording(); // 开始录音(调用Android的API录制手机麦克风的声音)
// 单通道样本数:1024
// 位深: 16bit位 2字节
// 声道数:双声道
// 以上规格:之前说过多遍了,经验值是4096
// 1024单通道样本数 * 2 * 2 = 4096
byte[] bytes = new byte[inputSamples]; // 接收录制声音数据的 byte[]
// 读取数据
while (isLive) {
// 每次读多少数据要根据编码器来定!
int len = audioRecord.read(bytes, 0, bytes.length);
if (len > 0) {
// 成功采集到音频数据了
// 对音频数据进行编码并发送(将编码后的数据push到安全队列中)
mNdkPusher.native_pushAudio(bytes);
}
}
audioRecord.stop(); // 停止录音
}
}
停止直播,只修改标记 让其可以不要进入while 就不会再数据推送了
public void stopLive() {
isLive = false;
}
AudioRecord的释放工作
public void release() {
if (audioRecord != null) {
audioRecord.release();
audioRecord = null;
}
}
二、FAAC库导入
高级音频编码(Advanced Audio Coding),出现于1997年,基于MPEG-2的音频编码技术,目的是取代MP3格式。2000年,MPEG-4标准出现后,AAC重新集成了其特性,为了区别于传统的MPEG-2 AAC又称为MPEG-4 AAC。相对于mp3,AAC格式的音质更佳,文件更小。
1)复制交叉编译后的faac库/头文件到cpp目录下
2)在CMakeLists导入faac库路径
三、Native层音频编码器
1)初始化faac编码器
在Java层AudioChannel构造函数,通过中转站NdkPusher调用到Native层;
native-lib.cpp:
extern "C"
JNIEXPORT void JNICALL
Java_com_ndk_push_NdkPusher_native_1initAudioEncoder(JNIEnv *env, jobject thiz, jint sample_rate,
jint num_channels) {
if (audioChannel) {
audioChannel->initAudioEncoder(sample_rate, num_channels);
}
}
AudioChannel.cpp:
void AudioChannel::initAudioEncoder(int sample_rate, int channels) {
this->mChannels = channels; // 通道数量 2
/**
* 44100 采样率
* 两个声道
* 16bit 2个字节
*
* 上面的规格:
* 单通道样本数:1024 * 2 = 2048
*
* inputSamples = 1024 如果没有 channels 的设计,应该是这个值
*
* inputSamples = 2048
*/
/**
* 第一步:打开faac编码器
*/
audioEncoder = faacEncOpen(sample_rate, channels, &inputSamples, &maxOutputBytes);
if (!audioEncoder) {
LOGE("打开音频编码器失败");
return;
}
/**
* 第二步:配置编码器参数
*/
faacEncConfigurationPtr config = faacEncGetCurrentConfiguration(audioEncoder);
config->mpegVersion = MPEG4; // mpeg4标准 acc音频标准
config->aacObjectType = LOW; // LC标准: https://zhidao.baidu.com/question/1948794313899470708.html
config->inputFormat = FAAC_INPUT_16BIT; // 16bit
// 比特流输出格式为:Raw
config->outputFormat = 0;
// 1发送的时候,就消除 最好的, 2结束后消除回音(复杂)
// 工作中:最麻烦的就是,(开启降噪, 噪声控制)
config->useTns = 1;
config->useLfe = 0;
/**
* 第三步:把三面的配置参数,传入进去给faac编码器, audioEncoder==faac编码器 真正的编码器,可以用的
*/
int ret = faacEncSetConfiguration(audioEncoder, config);
if (!ret) { // ret == 0 失败 和 x264 设计 一样
LOGE("音频编码器参数配置失败");
return;
}
LOGE("FAAC编码器初始化成功...");
// 输出缓冲区定义
buffer = new u_char(maxOutputBytes);
}
2)获取 faac的样本数给Java层
native-lib.cpp:
extern "C"
JNIEXPORT jint JNICALL
Java_com_ndk_push_NdkPusher_native_1getInputSamples(JNIEnv *env, jobject thiz) {
if (audioChannel) {
return audioChannel->getInputSamples();
}
return 0;
}
AudioChannel.cpp:
// 获取faac的样本数
int AudioChannel::getInputSamples() {
return inputSamples;
}
四、Native层音频推流编码
1)初始化AudioChannel音频通道,并设置 AudioRecord采集录制音频数据推送到native层,audioChannel编码后数据,通过callback回调到native-lib.cpp,加入队列;
native-lib.cpp:
extern "C"
JNIEXPORT void JNICALL
Java_com_ndk_push_NdkPusher_native_1init(JNIEnv *env, jobject thiz) {
// 初始化 VideoChannel 视频通道
videoChannel = new VideoChannel();
// 设置 Camera预览画面的数据推送到native层,videoChannel编码后数据,通过callback回调到native-lib.cpp,加入队列
videoChannel->setVideoCallback(callback);
// 初始化 AudioChannel 音频通道
audioChannel = new AudioChannel();
// 设置 AudioRecord采集录制音频数据推送到native层,audioChannel编码后数据,通过callback回调到native-lib.cpp,加入队列
audioChannel->setAudioCallback(callback);
// 设置 队列的释放工作 回调
packets.setReleaseCallback(releasePackets);
}
2)使用faac编码器,编码,封包,入队,使用start线程发送给流媒体服务器
在Java层AudioChannel子线程:AudioRecord采集录制音频数据,调用至此;
native-lib.cpp:
extern "C"
JNIEXPORT void JNICALL
Java_com_ndk_push_NdkPusher_native_1pushAudio(JNIEnv *env, jobject thiz, jbyteArray data_) {
if (!audioChannel || !readyPushing) {
return;
}
jbyte *data = env->GetByteArrayElements(data_, nullptr); // 此data数据就是AudioRecord采集到的原始数据
audioChannel->encodeData(data); // 核心函数:对音频数据 【进行faac的编码工作】
env->ReleaseByteArrayElements(data_, data, 0); // 释放byte[]
}
AudioChannel.cpp:
// 使用faac去编码,你必须把上面的告诉人家, signed char 有符号(在所有音视频里面,最好用 无符号 uint8_t)
void AudioChannel::encodeData(int8_t *data) {
LOGE("faac编码");
/**
* 开始编码
* 参数1,初始化好的faac编码器
* 参数2,音频原始数据(无符号的事情)
* 参数3,初始化好的样本数
* 参数4,接收成果的 输出 缓冲区
* 参数5,接收成果的 输出 缓冲区 大小
* @return:返回编码后数据字节长度
*/
int byteLen = faacEncEncode(audioEncoder, reinterpret_cast<int32_t *>(data), inputSamples,
buffer, maxOutputBytes);
if (byteLen > 0) {
LOGE("faac编码 byteLen");
RTMPPacket *packet = new RTMPPacket;
// 根据协议设置压缩包数据长度
int body_size = 2 + byteLen; // 后面的byteLen:我们实际数据编码后的长度
RTMPPacket_Alloc(packet, body_size); // 堆区实例化里面的成员 packet
// AF == AAC编码器,44100采样率,位深16bit,双声道
// AE == AAC编码器,44100采样率,位深16bit,单声道
packet->m_body[0] = 0xAF; // 双声道
if (mChannels == 1) {
packet->m_body[0] = 0xAE; // 单声道
}
// 这里是编码出来的音频数据,所以都是 01, 非序列/非头参数
packet->m_body[1] = 0x01;
// 音频数据 Copy进去
memcpy(&packet->m_body[2], buffer, byteLen);
// 封包处理
packet->m_packetType = RTMP_PACKET_TYPE_AUDIO; // 包类型,音频
packet->m_nBodySize = body_size;
packet->m_nChannel = 11; // 通道ID,随便写一个,注意:不要写的和rtmp.c(里面的m_nChannel有冲突 4301行)
packet->m_nTimeStamp = -1; // 帧数据有时间戳
packet->m_hasAbsTimestamp = 0; // 一般都不用
packet->m_headerType = RTMP_PACKET_SIZE_LARGE; // 大包的类型,如果是头信息,可以给一个小包
// 把数据包放入队列
audioCallback(packet);
}
}
音频编码数据(压缩数据)加入队列后,上一节实现的循环从队列中获取压缩包数据推送到服务端;
void *task_start(void *args) {
//...
do {
//...
// 从队列里面获取压缩包(视频或音频),直接发给服务器
while (readyPushing) {
packets.pop(packet); // 阻塞式
if (!readyPushing) {
break;
}
// 取不到数据,重新取,可能还没生产出来
if (!packet) {
continue;
}
// 到这里就是成功的获取队列的ptk了,可以发送给流媒体服务器
packet->m_nInfoField2 = rtmp->m_stream_id;// 给rtmp的流id
// 成功取出数据包,发送
result = RTMP_SendPacket(rtmp, packet, 1); // 1==true 开启内部缓冲
// packet 你都发给服务器了,可以大胆释放
releasePackets(&packet);
if (!result) { // result == 0 和 ffmpeg不同,0代表失败
LOGE("rtmp 失败 自动断开服务器");
break;
}
}
releasePackets(&packet); // 只要跳出循环,就释放
} while (false);
// =...
return nullptr;
}
源码:
NdkPush: 通过RTMP实现推流,直播客户端。
至此,RTMP直播客户端项目已完成。