簡介
OpenAtom OpenHarmony(以下簡稱“OpenHarmony”)是由開放原子開源基金會孵化及運營的開源項目,是面向全場景、全連接、全智能時代的智能物聯網操作系統。
多媒體子系統是OpenHarmony系統中的核心子系統,為系統提供了相機、音頻和視頻等多媒體功能。多媒體子系統的音頻模塊、音頻錄音功能可以提供兩套接口,一是由ohos.multimedia.media提供的AudioRecorder接口,能夠直接設置錄音保存的文件路徑,在錄制結束以后自動生成對應的錄音文件,代碼編寫比較簡單;二是由ohos.multimedia.audio提供的AudioCapturer接口,能夠獲得錄音過程中的PCM數據,并對數據進行處理。由于Capturer接口對于原始數據的處理更加靈活,今天就和大家介紹通過Capturer接口實現錄音變速的功能的方法。
效果展示
通過Capturer接口實現音頻的錄制,在錄制過程中對PCM數據進行重采樣實現聲音的快放和慢放。
詳細效果請看下方視頻:
首先設置錄音加速或者錄音減速,設置完成以后點擊“錄音開始”按鈕進行錄音,點擊“錄音結束”按鈕停止錄音,再通過點擊“播放開始”對錄音的音頻進行播放,播放的音頻是設置后的加速或者減速效果。
代碼已經上傳至SIG倉庫,鏈接如下:
https://gitee.com/openharmony-sig/knowledge_demo_entainment/tree/master/FA/AudioChangeDemo
目錄結構

調用流程
1.Start的框架層調用流程

2. Read的框架層調用流程

源碼分析
1.首先看一下頁面的布局,主要分為四個模塊:(1)設置錄音加速
設置錄音加速:
1.25倍速
1.5倍速
1.75倍速
2倍速
(2)設置錄音減速
設置錄音減速:
0.75倍速
0.5倍速
(3)錄音
錄音:
錄音開始
錄音結束
(4)播放
播放:
播放開始
播放結束
class="video"
src="{{url}}"
autoplay="{{ autoplay }}"
controls="{{ controlShow }}"
muted="false"
onseeked="seeked"
onprepared="prepared"
>
2.邏輯代碼在JS中:
(1)首先通過AudioCapturer接口獲取到PCM數據,再通過調用AudioCapturer的start接口來啟動錄音流程。
globalThis.capturer.start().then(function () {
console.log("gyf start");
globalThis.capturer.getBufferSize((err, bufferSize) => {
if (err) {
console.error('gyf getBufferSize error');
} else {
console.log("gyf bufferSize = " + bufferSize);
globalThis.getBuf(bufferSize);
}
});
});
(2)啟動成功以后,getBuf會調用到getData函數,getData函數通過AudioCapturer的read方法來讀取數據,成功讀取到數據以后,通過handleBuffer函數對數據進行處理。handleBuffer函數的參數arrayBuffer就是通過read方法讀取出來的pcm數據,在handleBuffer中對數據進行了快速播放或者慢速播放的處理。
//循環調用read,進行數據的讀取
handleBuffer(arrayBuffer) {
console.log("gyf handleBuffer");
let result = new Uint8Array(arrayBuffer);
console.log("gyf handleBuffer ================== " + result);
let outData = this.test(result, up, down);
fileio.writeSync(globalThis.fd, outData.buffer);
globalThis.capturer.read(globalThis.bufSize, true).then(this.handleBuffer);
},
getData(bufSize) {
console.log("gyf getData");
globalThis.capturer.read(bufSize, true).then(this.handleBuffer);
},
getBuf(bufSize) {
console.log("gyf getBuf");
this.getData(bufSize);
},
(3)快速播放或者慢速播放是通過up和down兩個方法的組合來實現的,down方法的原理是對PCM數據進行插值處理,在相鄰兩點間插入down個采樣點,up方法的原理是間隔抽取,間隔up個點進行抽取采樣。
up(data, up) {
if (1 == up) {
return data;
}
let length = data.byteLength;
let upLength = Math.round(length / up);
var upData = new Uint8Array(upLength);
for (var i = 0, j = 0; i < length; ) {
if (j >= upLength) {
break;
}
upData[j] = data[i];
i += up;
j++;
}
return upData;
},
down(data, down) {
if (1 == down) {
return data;
}
let length = data.byteLength;
let downLength = Math.round(length * down);
var downData = new Uint8Array(downLength);
for (var i = 0, j = 0; i < length - 1; ) {
for (var k = 0; k < down; k++) {
downData[j] = data[i];
j++;
}
i++;
}
return downData;
},
(4)將down和up的方法組合調用,來實現1.25倍、1.5倍、1.75倍、2倍、0.75倍、0.5倍的速度播放。
test(data, up, down) {
let downData = this.down(data, down);
let upData = this.up(downData, up);
return upData;
},
(5)播放wav格式的音頻文件,采集獲取PCM數據,需要我們根據設置的參數對pcm數據進行添加wav的頭部信息,通過創建AudioCapturer實例的時候設置采集音頻的參數,如采樣率、通道數、采樣格式等。
//音頻采集初始化
var audioStreamInfo = {
samplingRate: audio.AudioSamplingRate.SAMPLE_RATE_8000,
channels: audio.AudioChannel.CHANNEL_1,
sampleFormat: audio.AudioSampleFormat.SAMPLE_FORMAT_U8,
encodingType: audio.AudioEncodingType.ENCODING_TYPE_RAW
}
var audioCapturerInfo = {
source: audio.SourceType.SOURCE_TYPE_MIC,
capturerFlags: 1
}
var audioCapturerOptions = {
streamInfo: audioStreamInfo,
capturerInfo: audioCapturerInfo
}
let that = this;
audio.createAudioCapturer(audioCapturerOptions,(err, data) => {
if (err) {
console.error(`gyf AudioCapturer Created : Error: ${err.message}`);
}
else {
console.info('gyf AudioCapturer Created : Success : SUCCESS');
that.capturer = data;
}
});
(6)根據這些參數設置的信息需要對wav文件寫入文件頭,頭信息一般包含44個字節,里面需要設置三個chunk的信息(RIFF chunk、fmt chunk、data chunk),具體的信息可以查看官網的介紹WAV文件格式介紹(http://www-mmsp.ece.mcgill.ca/Documents/AudioFormats/WAVE/WAVE.html)。
//假設數據為1000秒鐘的時間(8000 * 1000)
encodeWAV() {
var dataLen = 8000000;
var sampleRate = 8000;
var sampleBits = 8;
var buffer = new ArrayBuffer(44);
var data = new DataView(buffer);
var channelCount = 1; // 單聲道
var offset = 0;
// 資源交換文件標識符
this.writeString(data, offset, 'RIFF'); offset += 4;
// 下個地址開始到文件尾總字節數,即文件大小-8
data.setUint32(offset, 36 + dataLen, true); offset += 4;
// WAV文件標志
this.writeString(data, offset, 'WAVE'); offset += 4;
// 波形格式標志
this.writeString(data, offset, 'fmt '); offset += 4;
// 過濾字節,一般為 0x10 = 16
data.setUint32(offset, 16, true); offset += 4;
// 格式類別 (PCM形式采樣數據)
data.setUint16(offset, 1, true); offset += 2;
// 通道數
data.setUint16(offset, channelCount, true); offset += 2;
// 采樣率,每秒樣本數,表示每個通道的播放速度
data.setUint32(offset, sampleRate, true); offset += 4;
// 波形數據傳輸率 (每秒平均字節數) 單聲道×每秒數據位數×每樣本數據位/8
data.setUint32(offset, channelCount * sampleRate * (sampleBits / 8), true); offset += 4;
// 快數據調整數 采樣一次占用字節數 單聲道×每樣本的數據位數/8
data.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2;
// 每樣本數據位數
data.setUint16(offset, sampleBits, true); offset += 2;
// 數據標識符
this.writeString(data, offset, 'data'); offset += 4;
// 采樣數據總數,即數據總大小-44
data.setUint32(offset, dataLen, true); offset += 4;
return data;
},
總結
本文介紹了通過使用OpenHarmony音頻模塊的AudioCapturer接口實現錄音功能。AudioCapturer接口對于原始數據的處理非常靈活,能夠對采集的數據進行插值/抽值的重采樣處理,并將處理后的音頻處理保存至本地文件。由于本地文件使用的是WAV格式,故在寫數據前需要對WAV文件進行頭部信息的添加,這些信息可以根據創建AudioCapturer時設置的參數來進行設置,以此保證頭部信息的準確性,最后再通過應用層的video組件對音頻數據進行播放。
希望這篇文章能為開發者提供一些新的思路,從而進行其他場景的拓展,例如將獲取到采集的數據通過這種方式實現語音識別、語音轉寫等功能,在實踐開發的過程中為OpenHarmony生態的發展貢獻一份力量。
審核編輯:湯梓紅
-
接口
+關注
關注
33文章
8885瀏覽量
153001 -
音頻模塊
+關注
關注
1文章
148瀏覽量
12511 -
OpenHarmony
+關注
關注
26文章
3804瀏覽量
17898
原文標題:如何通過OpenHarmony的音頻模塊實現錄音變速功能?
文章出處:【微信號:gh_e4f28cfa3159,微信公眾號:OpenAtom OpenHarmony】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
怎樣使用IWeb接口實現HTTPS的功能
esp32能否通過AT接口實現modbusTCP slaver的功能?
小波變換在語音變速上的應用
SPI總線接口實現數據傳輸的實現方法
語音變換的語音篡改檢測方法

ARM與FPGA的接口實現的解析

C#-Interface接口實現

RK3399 Ubuntu通過Python實現錄音和播放功能

評論