最新文章專題視頻專題問答1問答10問答100問答1000問答2000關(guān)鍵字專題1關(guān)鍵字專題50關(guān)鍵字專題500關(guān)鍵字專題1500TAG最新視頻文章視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關(guān)鍵字專題關(guān)鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
當(dāng)前位置: 首頁 - 科技 - 知識百科 - 正文

vue實(shí)現(xiàn)PC端錄音功能的實(shí)例代碼

來源:懂視網(wǎng) 責(zé)編:小采 時間:2020-11-27 21:55:36
文檔

vue實(shí)現(xiàn)PC端錄音功能的實(shí)例代碼

vue實(shí)現(xiàn)PC端錄音功能的實(shí)例代碼:錄音功能一般來說在移動端比較常見,但是在pc端也要實(shí)現(xiàn)按住說話的功能呢?項目需求:按住說話,時長不超過60秒,生成語音文件并上傳,我這里用的是recorder.js 1.項目中新建一個recorder.js文件,內(nèi)容如下,也可在百度上直接搜一個 // 兼容 wind
推薦度:
導(dǎo)讀vue實(shí)現(xiàn)PC端錄音功能的實(shí)例代碼:錄音功能一般來說在移動端比較常見,但是在pc端也要實(shí)現(xiàn)按住說話的功能呢?項目需求:按住說話,時長不超過60秒,生成語音文件并上傳,我這里用的是recorder.js 1.項目中新建一個recorder.js文件,內(nèi)容如下,也可在百度上直接搜一個 // 兼容 wind

錄音功能一般來說在移動端比較常見,但是在pc端也要實(shí)現(xiàn)按住說話的功能呢?項目需求:按住說話,時長不超過60秒,生成語音文件并上傳,我這里用的是recorder.js

1.項目中新建一個recorder.js文件,內(nèi)容如下,也可在百度上直接搜一個

// 兼容
window.URL = window.URL || window.webkitURL
navigator.getUserMedia = navigator.getUserMedia || navigator.webkitGetUserMedia || navigator.mozGetUserMedia || navigator.msGetUserMedia
let HZRecorder = function (stream, config) {
 config = config || {}
 config.sampleBits = config.sampleBits || 8 // 采樣數(shù)位 8, 16
 config.sampleRate = config.sampleRate || (44100 / 6) // 采樣率(1/6 44100)
 let context = new (window.webkitAudioContext || window.AudioContext)()
 let audioInput = context.createMediaStreamSource(stream)
 let createScript = context.createScriptProcessor || context.createJavaScriptNode
 let recorder = createScript.apply(context, [4096, 1, 1])
 let audioData = {
 size: 0, // 錄音文件長度
 buffer: [], // 錄音緩存
 inputSampleRate: context.sampleRate, // 輸入采樣率
 inputSampleBits: 16, // 輸入采樣數(shù)位 8, 16
 outputSampleRate: config.sampleRate, // 
輸出采樣率 oututSampleBits: config.sampleBits, // 輸出采樣數(shù)位 8, 16 input: function (data) { this.buffer.push(new Float32Array(data)) this.size += data.length }, compress: function () { // 合并壓縮 // 合并 let data = new Float32Array(this.size) let offset = 0 for (let i = 0; i < this.buffer.length; i++) { data.set(this.buffer[i], offset) offset += this.buffer[i].length } // 壓縮 let compression = parseInt(this.inputSampleRate / this.outputSampleRate) let length = data.length / compression let result = new Float32Array(length) let index = 0; let j = 0 while (index < length) { result[index] = data[j] j += compression index++ } return result }, encodeWAV: function () { let sampleRate = Math.min(this.inputSampleRate, this.outputSampleRate) let sampleBits = Math.min(this.inputSampleBits, this.oututSampleBits) let bytes = this.compress() let dataLength = bytes.length * (sampleBits / 8) let buffer = new ArrayBuffer(44 + dataLength) let data = new DataView(buffer) let channelCount = 1// 單聲道 let offset = 0 let writeString = function (str) { for (let i = 0; i < str.length; i++) { data.setUint8(offset + i, str.charCodeAt(i)) } } // 資源交換文件標(biāo)識符 writeString('RIFF'); offset += 4 // 下個地址開始到文件尾總字節(jié)數(shù),即文件大小-8 data.setUint32(offset, 36 + dataLength, true); offset += 4 // WAV文件標(biāo)志 writeString('WAVE'); offset += 4 // 波形格式標(biāo)志 writeString('fmt '); offset += 4 // 過濾字節(jié),一般為 0x10 = 16 data.setUint32(offset, 16, true); offset += 4 // 格式類別 (PCM形式采樣數(shù)據(jù)) data.setUint16(offset, 1, true); offset += 2 // 通道數(shù) data.setUint16(offset, channelCount, true); offset += 2 // 采樣率,每秒樣本數(shù),表示每個通道的播放速度 data.setUint32(offset, sampleRate, true); offset += 4 // 波形數(shù)據(jù)傳輸率 (每秒平均字節(jié)數(shù)) 單聲道×每秒數(shù)據(jù)位數(shù)×每樣本數(shù)據(jù)位/8 data.setUint32(offset, channelCount * sampleRate * (sampleBits / 8), true); offset += 4 // 快數(shù)據(jù)調(diào)整數(shù) 采樣一次占用字節(jié)數(shù) 單聲道×每樣本的數(shù)據(jù)位數(shù)/8 data.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2 // 每樣本數(shù)據(jù)位數(shù) data.setUint16(offset, sampleBits, true); offset += 2 // 數(shù)據(jù)標(biāo)識符 writeString('data'); offset += 4 // 采樣數(shù)據(jù)總數(shù),即數(shù)據(jù)總大小-44 data.setUint32(offset, dataLength, true); offset += 4 // 寫入采樣數(shù)據(jù) if (sampleBits === 8) { for (let i = 0; i < bytes.length; i++ , offset++) { let s = Math.max(-1, Math.min(1, bytes[i])) let val = s < 0 ? s * 0x8000 : s * 0x7FFF val = parseInt(255 / (65535 / (val + 32768))) data.setInt8(offset, val, true) } } else { for (let i = 0; i < bytes.length; i++ , offset += 2) { let s = Math.max(-1, Math.min(1, bytes[i])) data.setInt16(offset, s < 0 ? s * 0x8000 : s * 0x7FFF, true) } } return new Blob([data], { type: 'audio/mp3' }) } } // 開始錄音 this.start = function () { audioInput.connect(recorder) recorder.connect(context.destination) } // 停止 this.stop = function () { recorder.disconnect() } // 獲取音頻文件 this.getBlob = function () { this.stop() return audioData.encodeWAV() } // 回放 this.play = function (audio) { let downRec = document.getElementById('downloadRec') downRec.href = window.URL.createObjectURL(this.getBlob()) downRec.download = new Date().toLocaleString() + '.mp3' audio.src = window.URL.createObjectURL(this.getBlob()) } // 上傳 this.upload = function (url, callback) { let fd = new FormData() fd.append('audioData', this.getBlob()) let xhr = new XMLHttpRequest() /* eslint-disable */ if (callback) { xhr.upload.addEventListener('progress', function (e) { callback('uploading', e) }, false) xhr.addEventListener('load', function (e) { callback('ok', e) }, false) xhr.addEventListener('error', function (e) { callback('error', e) }, false) xhr.addEventListener('abort', function (e) { callback('cancel', e) }, false) } /* eslint-disable */ xhr.open('POST', url) xhr.send(fd) } // 音頻采集 recorder.onaudioprocess = function (e) { audioData.input(e.inputBuffer.getChannelData(0)) // record(e.inputBuffer.getChannelData(0)); } } // 拋出異常 HZRecorder.throwError = function (message) { alert(message) throw new function () { this.toString = function () { return message } }() } // 是否支持錄音 HZRecorder.canRecording = (navigator.getUserMedia != null) // 獲取錄音機(jī) HZRecorder.get = function (callback, config) { if (callback) { if (navigator.getUserMedia) { navigator.getUserMedia( { audio: true } // 只啟用音頻 , function (stream) { let rec = new HZRecorder(stream, config) callback(rec) } , function (error) { switch (error.code || error.name) { case 'PERMISSION_DENIED': case 'PermissionDeniedError': HZRecorder.throwError('用戶拒絕提供信息。') break case 'NOT_SUPPORTED_ERROR': case 'NotSupportedError': HZRecorder.throwError('瀏覽器不支持硬件設(shè)備。') break case 'MANDATORY_UNSATISFIED_ERROR': case 'MandatoryUnsatisfiedError': HZRecorder.throwError('無法發(fā)現(xiàn)指定的硬件設(shè)備。') break default: HZRecorder.throwError('無法打開麥克風(fēng)。異常信息:' + (error.code || error.name)) break } }) } else { HZRecorder.throwErr('當(dāng)前瀏覽器不支持錄音功能。'); return } } } export default HZRecorder

2.頁面中使用,具體如下

<template>
 <div class="wrap">
 <el-form v-model="form">
 <el-form-item>
 <input type="button" class="btn-record-voice" @mousedown.prevent="mouseStart" @mouseup.prevent="mouseEnd" v-model="form.time"/>
 <audio v-if="form.audioUrl" :src="form.audioUrl" controls="controls" class="content-audio" style="display: block;">語音</audio>
 </el-form-item>
 <el-form>
 </div>
</template>
<script>
// 引入recorder.js
import recording from '@/js/recorder/recorder.js'
export default {
 data() {
 return {
 form: {
 time: '按住說話(60秒)',
 audioUrl: ''
 },
 num: 60, // 按住說話時間
 recorder: null,
 interval: '',
 audioFileList: [], // 上傳語音列表
 startTime: '', // 語音開始時間
 endTime: '', // 語音結(jié)束
 }
 },
 methods: {
 // 清除定時器
 clearTimer () {
 if (this.interval) {
 this.num = 60
 clearInterval(this.interval)
 }
 },
 // 長按說話
 mouseStart () {
 this.clearTimer()
 this.startTime = new Date().getTime()
 recording.get((rec) => {
 // 當(dāng)首次按下時,要獲取瀏覽器的麥克風(fēng)權(quán)限,所以這時要做一個判斷處理
 if (rec) {
 // 首次按下,只調(diào)用一次
 if (this.flag) {
 this.mouseEnd()
 this.flag = false
 } else {
 this.recorder = rec
 this.interval = setInterval(() => {
 if (this.num <= 0) {
 this.recorder.stop()
 this.num = 60
 this.clearTimer()
 } else {
 this.num--
 this.time = '松開結(jié)束(' + this.num + '秒)'
 this.recorder.start()
 }
 }, 1000)
 }
 }
 })
 },
 // 松開時上傳語音
 mouseEnd () {
 this.clearTimer()
 this.endTime = new Date().getTime()
 if (this.recorder) {
 this.recorder.stop()
 // 重置說話時間
 this.num = 60
 this.time = '按住說話(' + this.num + '秒)'
 // 獲取語音二進(jìn)制文件
 let bold = this.recorder.getBlob()
 // 將獲取的二進(jìn)制對象轉(zhuǎn)為二進(jìn)制文件流
 let files = new File([bold], 'test.mp3', {type: 'audio/mp3', lastModified: Date.now()})
 let fd = new FormData()
 fd.append('file', files)
 fd.append('tenantId', 3) // 額外參數(shù),可根據(jù)選擇填寫
 // 這里是通過上傳語音文件的接口,獲取接口返回的路徑作為語音路徑
 this.uploadFile(fd)
 }
 }
 }
}
</script>
<style scoped>
</style>

3.除了上述代碼中的注釋外,還有一些地方需要注意

  • 上傳語音時,一般會有兩個參數(shù),一個是語音的路徑,一個是語音的時長,路徑直接就是 this.form.audioUrl ,不過時長這里需要注意的是,由于我們一開始設(shè)置了定時器是有一秒的延遲,所以,要在獲取到的時長基礎(chǔ)上在減去一秒
  • 初次按住說話一定要做判斷,不然就會報錯啦
  • 第三點(diǎn)也是很重要的一點(diǎn),因?yàn)槲沂窃诒镜仨椖恐袦y試的,可以實(shí)現(xiàn)錄音功能,但是打包到測試環(huán)境后,就無法訪問麥克風(fēng),經(jīng)過多方嘗試后,發(fā)現(xiàn)是由于我們測試環(huán)境的地址是http://***,而在谷歌瀏覽器中有這樣一種安全策略,只允許在localhost下及https下才可以訪問 ,因此換一下就完美的解決了這個問題了
  • 在使用過程中,針對不同的瀏覽器可能會有些兼容性的問題,如果遇到了還需自己單獨(dú)處理下
  • 總結(jié)

    以上所述是小編給大家介紹的vue實(shí)現(xiàn)PC端錄音功能的實(shí)例代碼,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復(fù)大家的。在此也非常感謝大家對腳本之家網(wǎng)站的支持!
    如果你覺得本文對你有幫助,歡迎轉(zhuǎn)載,煩請注明出處,謝謝!

    聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

    文檔

    vue實(shí)現(xiàn)PC端錄音功能的實(shí)例代碼

    vue實(shí)現(xiàn)PC端錄音功能的實(shí)例代碼:錄音功能一般來說在移動端比較常見,但是在pc端也要實(shí)現(xiàn)按住說話的功能呢?項目需求:按住說話,時長不超過60秒,生成語音文件并上傳,我這里用的是recorder.js 1.項目中新建一個recorder.js文件,內(nèi)容如下,也可在百度上直接搜一個 // 兼容 wind
    推薦度:
    標(biāo)簽: 功能 VUE 錄音功能
    • 熱門焦點(diǎn)

    最新推薦

    猜你喜歡

    熱門推薦

    專題
    Top