音视频技术开发周刊 72期
『音視頻技術(shù)開發(fā)周刊』由LiveVideoStack團隊出品,專注在音視頻技術(shù)領(lǐng)域,縱覽相關(guān)技術(shù)領(lǐng)域的干貨和新聞投稿,每周一期。點擊『閱讀原文』,瀏覽第72期內(nèi)容,祝您閱讀愉快。
架構(gòu)
RTSP協(xié)議 SDP
RTSP被用于建立的控制媒體流的傳輸,它為多媒體服務(wù)扮演“網(wǎng)絡(luò)遠程控制”的角色。盡管有時可以把RTSP控制信息和媒體數(shù)據(jù)流交織在一起傳送,但一般情況RTSP本身并不用于轉(zhuǎn)送媒體流數(shù)據(jù)。媒體數(shù)據(jù)的傳送可通過RTP/RTCP等協(xié)議來完成。
Hulu直播服務(wù)難點解析(三):關(guān)鍵收獲
Hulu在其博客發(fā)布了建立直播服務(wù)遇到的挑戰(zhàn)及解決方案,這對于以前只提供點播服務(wù)的系統(tǒng)而言是一次徹底的升級。LiveVideoStack對原文進行了摘譯。本文是系列文章的第三篇。
誰是最好的WebRTC SFU?
如果你計劃在WebRTC中有多個參與者,那么最終可能會使用選擇性轉(zhuǎn)發(fā)單元(SFU)。webrtcHacks的撰稿人 Alex Gouaillard和他的CoSMo Software團隊組建了一個負載測試套件來測量負載與視頻質(zhì)量,并發(fā)布了所有主要開源WebRTC SFU的結(jié)果。LiveVideoStack對原文進行的摘譯。
FFmpeg在Intel GPU上的硬件加速與優(yōu)化
英特爾提供了一套基于VA-API/Media SDK的硬件加速方案,通過在FFmpeg中集成Intel GPU的媒體硬件加速能力,為用戶提供更多的收益。本文來自英特爾資深軟件開發(fā)工程師趙軍在LiveVideoStackCon 2017大會上的分享,并由LiveVideoStack整理而成。
利用Webpack4搭建Vue服務(wù)器端渲染SSR
構(gòu)建服務(wù)器端渲染(SSR)我們可以利用vue-server-renderer 插件更簡單的構(gòu)建SSR。
基于OpenSSL的HTTPS通信C++實現(xiàn)
HTTPS是以安全為目標的HTTP通道,簡單講是HTTP的安全版。即HTTP下加入SSL層,HTTPS的安全基礎(chǔ)是SSL,因此加密的詳細內(nèi)容就需要SSL。Nebula是一個為開發(fā)者提供一個快速開發(fā)高并發(fā)網(wǎng)絡(luò)服務(wù)程序或搭建高并發(fā)分布式服務(wù)集群的高性能事件驅(qū)動網(wǎng)絡(luò)框架。
音頻/視頻技術(shù)
AVFoundation系列五:關(guān)于音視頻的導(dǎo)出
在音視頻導(dǎo)出中重要的就是:AVAssetExportSession,早在 AVFoundation系列一:AVAsset的使用方法 中的Demo中就已經(jīng)使用過AVAssetExportSession進行了音視頻的分離,合成。簡單的導(dǎo)出我們已經(jīng)使用了。但是對于更高的導(dǎo)出需求,請使用AVAssetReader和AVAssetWriter類。
libVLC 提取視頻每一幀
DVD 電影中的場景、從 YouTube 下載的剪輯、通過網(wǎng)絡(luò)攝像頭拍攝的內(nèi)容......無論是視頻還是動畫,都是由一系列靜止的圖像組成。然后,這些圖像會一個接一個的播放,讓你的眼睛誤以為物體在移動。圖像的播放速度越快,動作看起來越流暢,畫面也越逼真。
Android 音頻渲染之AudioTrack
Android平臺下的音頻渲染在java層有三個API,分別是MediaPlayer、SoundPool和AudioTrack。AudioTrack是較底層的接口,只支持裸數(shù)據(jù)即PCM數(shù)據(jù),對于一個壓縮的音頻數(shù)據(jù),需要先解碼成pcm數(shù)據(jù)。
Web H5視頻濾鏡的“百搭”解決方案——WebGL著色器
視頻濾鏡,顧名思義,是在視頻素材上duang特效的一種操作。隨著H5頁面越做越炫酷的趨勢,單一的視頻播放已經(jīng)不能滿足我們的需求,視頻濾鏡在Web頁面上的應(yīng)用越來越廣泛。
周源:視頻加密和DRM實施實踐
在上周落幕的LiveVideoStackCon音視頻技術(shù)大會,阿里云高級技術(shù)專家周源進行了《視頻加密和DRM的實施實踐》專題分享。周源,有十多年音視頻研發(fā)經(jīng)驗,之前在淘寶視頻負責開放平臺,目前在阿里云視頻云部門負責媒體處理,在大規(guī)模系統(tǒng)建設(shè)和云計算方面都有非常豐富的實戰(zhàn)經(jīng)驗。本文為演講原文,由云棲社區(qū)整理,并授權(quán)LiveVideoStack轉(zhuǎn)發(fā)。
William Law:CMAF如何支持的超低延遲視頻直播
剛落幕的LiveVideoStackCon 2018音視頻技術(shù)大會上,Akamai媒體業(yè)務(wù)群首席架構(gòu)師William Law通過主題演講介紹了如何通過分塊編碼和分塊傳輸CMAF,為觀眾提供極低延遲的視頻直播服務(wù)。本文由Akamai整理,并授權(quán)LiveVideoStack發(fā)布。
編解碼
Android FFmpeg視頻轉(zhuǎn)碼并保存到本地
本文講述在Android中, 如何將FFmpeg視頻轉(zhuǎn)碼為YUV格式并保存到本地。
H264裸流分析
1 SPS和PPS從何處而來? 2 SPS和PPS中的每個參數(shù)起什么作用? 3 如何解析SDP中包含的H.264的SPS和PPS串?客戶端抓包 在做客戶端視頻解碼時,一般都會使用Wireshark抓包工具對接收的H264碼流進行分析。
FFmpeg(4.0.2)解碼H264
接口變更: AVStream的codec參數(shù)被codecpar參數(shù)所替代 AVCodecContext *codec變?yōu)锳VCodecParameters *codecpar av_register_all被棄用 添加av_demuxer_iterate() const AVInp...
ADPCM編解碼原理及其代碼實現(xiàn)
本文詳細講解 0x0011 /* Intel’s DVI ADPCM */的編碼解碼原理。
一文了解視頻轉(zhuǎn)碼那些事兒
對一個視頻服務(wù)平臺,通過上傳獲得的視頻源千差萬別,有高清的影視片源、UGC視頻以及推拉過來的直播流等。平臺直接將這些視頻分發(fā)出去可能存在諸多問題,例如視頻源碼率過高、視頻質(zhì)量差、視頻參數(shù)不合理、視頻格式不被播放器支持等等,此時就會啟動轉(zhuǎn)碼為用戶提供優(yōu)化的、規(guī)范化的視頻流。
AI智能
深度神經(jīng)網(wǎng)絡(luò)加速與壓縮
在本文中,我們將深入探索深度神經(jīng)網(wǎng)絡(luò)加速與壓縮的最新研究進展。具體而言,本文將這些方法分成以下六類,即網(wǎng)絡(luò)剪枝、低秩分解、網(wǎng)絡(luò)量化、知識遷移網(wǎng)絡(luò)、緊湊網(wǎng)絡(luò)設(shè)計,并討論它們的優(yōu)缺點。
深度多目標跟蹤算法綜述
基于深度學習的算法在圖像和視頻識別任務(wù)中取得了廣泛的應(yīng)用和突破性的進展。從圖像分類問題到行人重識別問題,深度學習方法相比傳統(tǒng)方法表現(xiàn)出極大的優(yōu)勢。與行人重識別問題緊密相關(guān)的是行人的多目標跟蹤問題。
開源!OpenCV預(yù)訓練模型庫
OpenCV 的 GitHub 頁面中有一個稱為「open_model_zoo」的資源庫,里面包含了大量的計算機視覺預(yù)訓練模型,并提供了下載方法。使用這些免費預(yù)訓練模型可以幫助你加速開發(fā)和產(chǎn)品部署過程。
【NIPS 2018】多倫多大學提出可逆RNN:內(nèi)存大降,性能不減!
多倫多大學的研究人員提出Reversible RNN,一種可以減少RNN訓練時內(nèi)存需求的新方法,在保留模型性能的同時,將激活內(nèi)存成本降低了10-15倍。
圖像
定制人臉圖像沒那么難!使用TL-GAN模型輕松變臉
基于描述生成逼真圖像是一項比較困難的任務(wù)。本文介紹了一項新研究 Transparent Latent-space GAN (TL-GAN),它使用英偉達的 pg-GAN 模型,利用潛在空間中的特征軸,輕松完成圖像合成和編輯任務(wù)。
總結(jié)
以上是生活随笔為你收集整理的音视频技术开发周刊 72期的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 全平台硬件解码渲染方法与优化实践
- 下一篇: 下一代低延时直播CDN:HLS、RTMP