日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

音视频技术开发周刊 72期

發(fā)布時間:2024/4/11 编程问答 21 豆豆
生活随笔 收集整理的這篇文章主要介紹了 音视频技术开发周刊 72期 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.


音視頻技術(shù)開發(fā)周刊』由LiveVideoStack團隊出品,專注在音視頻技術(shù)領(lǐng)域,縱覽相關(guān)技術(shù)領(lǐng)域的干貨和新聞投稿,每周一期。點擊『閱讀原文』,瀏覽第72期內(nèi)容,祝您閱讀愉快。


架構(gòu)


RTSP協(xié)議 SDP

RTSP被用于建立的控制媒體流的傳輸,它為多媒體服務(wù)扮演“網(wǎng)絡(luò)遠程控制”的角色。盡管有時可以把RTSP控制信息和媒體數(shù)據(jù)流交織在一起傳送,但一般情況RTSP本身并不用于轉(zhuǎn)送媒體流數(shù)據(jù)。媒體數(shù)據(jù)的傳送可通過RTP/RTCP等協(xié)議來完成。


Hulu直播服務(wù)難點解析(三):關(guān)鍵收獲

Hulu在其博客發(fā)布了建立直播服務(wù)遇到的挑戰(zhàn)及解決方案,這對于以前只提供點播服務(wù)的系統(tǒng)而言是一次徹底的升級。LiveVideoStack對原文進行了摘譯。本文是系列文章的第三篇。


誰是最好的WebRTC SFU?

如果你計劃在WebRTC中有多個參與者,那么最終可能會使用選擇性轉(zhuǎn)發(fā)單元(SFU)。webrtcHacks的撰稿人 Alex Gouaillard和他的CoSMo Software團隊組建了一個負載測試套件來測量負載與視頻質(zhì)量,并發(fā)布了所有主要開源WebRTC SFU的結(jié)果。LiveVideoStack對原文進行的摘譯。


FFmpeg在Intel GPU上的硬件加速與優(yōu)化

英特爾提供了一套基于VA-API/Media SDK的硬件加速方案,通過在FFmpeg中集成Intel GPU的媒體硬件加速能力,為用戶提供更多的收益。本文來自英特爾資深軟件開發(fā)工程師趙軍在LiveVideoStackCon 2017大會上的分享,并由LiveVideoStack整理而成。


利用Webpack4搭建Vue服務(wù)器端渲染SSR

構(gòu)建服務(wù)器端渲染(SSR)我們可以利用vue-server-renderer 插件更簡單的構(gòu)建SSR。


基于OpenSSL的HTTPS通信C++實現(xiàn)

HTTPS是以安全為目標的HTTP通道,簡單講是HTTP的安全版。即HTTP下加入SSL層,HTTPS的安全基礎(chǔ)是SSL,因此加密的詳細內(nèi)容就需要SSL。Nebula是一個為開發(fā)者提供一個快速開發(fā)高并發(fā)網(wǎng)絡(luò)服務(wù)程序或搭建高并發(fā)分布式服務(wù)集群的高性能事件驅(qū)動網(wǎng)絡(luò)框架。


音頻/視頻技術(shù)


AVFoundation系列五:關(guān)于音視頻的導(dǎo)出

在音視頻導(dǎo)出中重要的就是:AVAssetExportSession,早在 AVFoundation系列一:AVAsset的使用方法 中的Demo中就已經(jīng)使用過AVAssetExportSession進行了音視頻的分離,合成。簡單的導(dǎo)出我們已經(jīng)使用了。但是對于更高的導(dǎo)出需求,請使用AVAssetReader和AVAssetWriter類。


libVLC 提取視頻每一幀

DVD 電影中的場景、從 YouTube 下載的剪輯、通過網(wǎng)絡(luò)攝像頭拍攝的內(nèi)容......無論是視頻還是動畫,都是由一系列靜止的圖像組成。然后,這些圖像會一個接一個的播放,讓你的眼睛誤以為物體在移動。圖像的播放速度越快,動作看起來越流暢,畫面也越逼真。


Android 音頻渲染之AudioTrack

Android平臺下的音頻渲染在java層有三個API,分別是MediaPlayer、SoundPool和AudioTrack。AudioTrack是較底層的接口,只支持裸數(shù)據(jù)即PCM數(shù)據(jù),對于一個壓縮的音頻數(shù)據(jù),需要先解碼成pcm數(shù)據(jù)。


Web H5視頻濾鏡的“百搭”解決方案——WebGL著色器

視頻濾鏡,顧名思義,是在視頻素材上duang特效的一種操作。隨著H5頁面越做越炫酷的趨勢,單一的視頻播放已經(jīng)不能滿足我們的需求,視頻濾鏡在Web頁面上的應(yīng)用越來越廣泛。


周源:視頻加密和DRM實施實踐

在上周落幕的LiveVideoStackCon音視頻技術(shù)大會,阿里云高級技術(shù)專家周源進行了《視頻加密和DRM的實施實踐》專題分享。周源,有十多年音視頻研發(fā)經(jīng)驗,之前在淘寶視頻負責開放平臺,目前在阿里云視頻云部門負責媒體處理,在大規(guī)模系統(tǒng)建設(shè)和云計算方面都有非常豐富的實戰(zhàn)經(jīng)驗。本文為演講原文,由云棲社區(qū)整理,并授權(quán)LiveVideoStack轉(zhuǎn)發(fā)。


William Law:CMAF如何支持的超低延遲視頻直播

剛落幕的LiveVideoStackCon 2018音視頻技術(shù)大會上,Akamai媒體業(yè)務(wù)群首席架構(gòu)師William Law通過主題演講介紹了如何通過分塊編碼和分塊傳輸CMAF,為觀眾提供極低延遲的視頻直播服務(wù)。本文由Akamai整理,并授權(quán)LiveVideoStack發(fā)布。


編解碼


Android FFmpeg視頻轉(zhuǎn)碼并保存到本地

本文講述在Android中, 如何將FFmpeg視頻轉(zhuǎn)碼為YUV格式并保存到本地。


H264裸流分析

1 SPS和PPS從何處而來? 2 SPS和PPS中的每個參數(shù)起什么作用? 3 如何解析SDP中包含的H.264的SPS和PPS串?客戶端抓包 在做客戶端視頻解碼時,一般都會使用Wireshark抓包工具對接收的H264碼流進行分析。


FFmpeg(4.0.2)解碼H264

接口變更: AVStream的codec參數(shù)被codecpar參數(shù)所替代 AVCodecContext *codec變?yōu)锳VCodecParameters *codecpar av_register_all被棄用 添加av_demuxer_iterate() const AVInp...


ADPCM編解碼原理及其代碼實現(xiàn)

本文詳細講解 0x0011 /* Intel’s DVI ADPCM */的編碼解碼原理。


一文了解視頻轉(zhuǎn)碼那些事兒

對一個視頻服務(wù)平臺,通過上傳獲得的視頻源千差萬別,有高清的影視片源、UGC視頻以及推拉過來的直播流等。平臺直接將這些視頻分發(fā)出去可能存在諸多問題,例如視頻源碼率過高、視頻質(zhì)量差、視頻參數(shù)不合理、視頻格式不被播放器支持等等,此時就會啟動轉(zhuǎn)碼為用戶提供優(yōu)化的、規(guī)范化的視頻流。


AI智能


深度神經(jīng)網(wǎng)絡(luò)加速與壓縮

在本文中,我們將深入探索深度神經(jīng)網(wǎng)絡(luò)加速與壓縮的最新研究進展。具體而言,本文將這些方法分成以下六類,即網(wǎng)絡(luò)剪枝、低秩分解、網(wǎng)絡(luò)量化、知識遷移網(wǎng)絡(luò)、緊湊網(wǎng)絡(luò)設(shè)計,并討論它們的優(yōu)缺點。


深度多目標跟蹤算法綜述

基于深度學習的算法在圖像和視頻識別任務(wù)中取得了廣泛的應(yīng)用和突破性的進展。從圖像分類問題到行人重識別問題,深度學習方法相比傳統(tǒng)方法表現(xiàn)出極大的優(yōu)勢。與行人重識別問題緊密相關(guān)的是行人的多目標跟蹤問題。


開源!OpenCV預(yù)訓練模型庫

OpenCV 的 GitHub 頁面中有一個稱為「open_model_zoo」的資源庫,里面包含了大量的計算機視覺預(yù)訓練模型,并提供了下載方法。使用這些免費預(yù)訓練模型可以幫助你加速開發(fā)和產(chǎn)品部署過程。


【NIPS 2018】多倫多大學提出可逆RNN:內(nèi)存大降,性能不減!

多倫多大學的研究人員提出Reversible RNN,一種可以減少RNN訓練時內(nèi)存需求的新方法,在保留模型性能的同時,將激活內(nèi)存成本降低了10-15倍。


圖像


定制人臉圖像沒那么難!使用TL-GAN模型輕松變臉

基于描述生成逼真圖像是一項比較困難的任務(wù)。本文介紹了一項新研究 Transparent Latent-space GAN (TL-GAN),它使用英偉達的 pg-GAN 模型,利用潛在空間中的特征軸,輕松完成圖像合成和編輯任務(wù)。

總結(jié)

以上是生活随笔為你收集整理的音视频技术开发周刊 72期的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。