日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

音视频技术开发周刊 70期

發(fā)布時間:2024/4/11 编程问答 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 音视频技术开发周刊 70期 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.


音視頻技術(shù)開發(fā)周刊』由LiveVideoStack團(tuán)隊(duì)出品,專注在音視頻技術(shù)領(lǐng)域,縱覽相關(guān)技術(shù)領(lǐng)域的干貨和新聞投稿,每周一期。點(diǎn)擊『閱讀原文』,瀏覽第70期內(nèi)容,祝您閱讀愉快。


架構(gòu)


UDP成為低延時流媒體關(guān)鍵 選SRT還是QUIC?

無論是SRT還是QUIC,UDP都成為實(shí)現(xiàn)低延遲視頻流傳輸?shù)谋剡x項(xiàng)。在剛剛結(jié)束的俄羅斯世界杯,以及即將到來的重大體育賽事中,SRT與QUIC還將有一番較量。LiveVideoStack對原文進(jìn)行了摘譯。


英特爾QSV技術(shù)在FFmpeg中的實(shí)現(xiàn)與使用

本文來自英特爾資深軟件工程師張華在LiveVideoStackCon 2018講師熱身分享,并由LiveVideoStack整理而成。在分享中張華介紹了英特爾GPU硬件架構(gòu),并詳細(xì)解析了英特爾QSV技術(shù)在FFmpeg中的具體實(shí)現(xiàn)與使用。


劉文峰:讓科技成就藝術(shù)創(chuàng)意

日前,LiveVideoStack采訪了愛奇藝CTO劉文峰,他分享了自己的成長經(jīng)歷,以及最近閱讀的書籍——《孵化皮克斯:從藝術(shù)烏托邦到創(chuàng)意帝國的非凡之旅》,他表示,作為愛奇藝的CTO,要幫助公司將科技創(chuàng)新與藝術(shù)創(chuàng)意結(jié)合,為用戶提供極致的體驗(yàn)。


Uber的一鍵式聊天智能回復(fù)系統(tǒng)

通過機(jī)器學(xué)習(xí)和自然語言理解結(jié)束,Uber實(shí)現(xiàn)了一套智能的聊天系統(tǒng),從而有效的提升司機(jī)和乘客之間的溝通效率,減少對司機(jī)的打擾。


張霖峰:AV1和VVC的格局將在2023年后明朗

本文是MSU評測解讀的系列文章之一。不過Ucodec CEO張霖峰還講述了Video Codec的機(jī)會,VVC與AV1的競爭格局,蘋果公司在Video Codec格局中扮演的重要角色等等。


Safari上使用WebRTC指南

盡管Apple在2017年的WWDC上宣布加入WebRTC支持,但仍然沒有看到Apple在支持WebRTC上更深入的舉動,尤其是其不只支持VP8更加強(qiáng)了這種擔(dān)憂。


CMAF將在2019年得到快速發(fā)展

按照J(rèn)W Player技術(shù)高級副總裁John Luther的說法,CMAF將在2019年快速發(fā)展,盡管這項(xiàng)技術(shù)在國內(nèi)還不怎么流行。蘋果、微軟以及Akamai都在支持CMAF。在下周舉行的LiveVideoStackCon 2018上,Akamai 首席架構(gòu)師William Robert Law將會分享如何通過CMAF提供海量并發(fā)的低延遲流媒體服務(wù)的。


蘭華峰:商業(yè)模式驅(qū)動企業(yè)參與MSU評測

本文是MSU年度評測解讀的第四篇。LiveVideoStack采訪了Hulu技術(shù)總監(jiān)蘭華峰,由于Hulu內(nèi)部自成一套Codec評測方法和測試序列,他給出了如何正確使用MSU報(bào)告的建議。同時他表示,與傳統(tǒng)的Codec服務(wù)商不同,今年獲得前四的3家本土服務(wù)商,都提供的是視頻云服務(wù),這也導(dǎo)致他們格外重視MSU的評測結(jié)果。


Netflix:通過可視化和統(tǒng)計(jì)學(xué)改進(jìn)用戶QoE

本文來自Netflix的技術(shù)博客,文章介紹了如何通過統(tǒng)計(jì)學(xué)的方法來減少播放緩沖時間或減少碼率。LiveVideoStack對原文進(jìn)行了摘譯。


音頻/視頻技術(shù)


為 janus-pp-rec 增加視頻旋正功能

Janus Gateway 支持 server 端錄制,保存的文件格式是對 RTP 報(bào)文的一種自定義封裝格式(MJR),音視頻數(shù)據(jù)單獨(dú)存儲,官方提供了一個 janus-pp-rec 的程序,可以把 MJR 格式的文件轉(zhuǎn)換為其他封裝格式的文件,然后我們可以利用 FFmpeg 把音視頻文件合并為一個文件。


定義和測量延遲

想要優(yōu)化延遲,可Latency到底是多少?延遲始終是媒體內(nèi)容傳輸?shù)囊粋€重要關(guān)注點(diǎn),人們也在不斷嘗試用新的方法來優(yōu)化延遲,本文參考AWS的一些新技術(shù),介紹了延遲的定義,以及如何具體測量延遲,給出了延遲的量化概念。


FFmpeg:Android利用Filter進(jìn)行音頻數(shù)據(jù)預(yù)處理

本文簡單介紹了移動端Android系統(tǒng)下利用FFmpeg的Filter進(jìn)行音頻數(shù)據(jù)預(yù)處理的方法。按照慣例先上一份源碼 AndroidFFmpegFilter。


Android音視頻指南-媒體應(yīng)用架構(gòu)概述

本節(jié)將解釋如何將媒體播放器應(yīng)用程序分離為媒體控制器(用于UI)和媒體會話(用于實(shí)際播放器)。它描述了兩種媒體應(yīng)用程序架構(gòu):一種客戶端/服務(wù)器設(shè)計(jì),適用于音頻應(yīng)用程序,另一種是視頻播放器的單活動設(shè)計(jì)。它還展示了如何使媒體應(yīng)用程序響應(yīng)硬件控制并與使用音頻輸出流的其他應(yīng)用程序合作。


視頻直播技術(shù)之iOS端推流

隨著網(wǎng)絡(luò)基礎(chǔ)建設(shè)的發(fā)展和資費(fèi)的下降,在這個內(nèi)容消費(fèi)升級的時代,文字、圖片無法滿足人們對視覺的需求,因此視頻直播應(yīng)運(yùn)而生。承載了實(shí)時性Real-Time和交互性的直播云服務(wù)是直播覆蓋各行各業(yè)的新動力。本篇文章將向大家介紹iOS端的推流技術(shù)。


編解碼


宋利:許多高手并未參加MSU評測

眾多本土和華人公司積極的參與MSU視頻編碼大賽,上海交通大學(xué)教授宋利接受LiveVideoStack采訪時表示,華人在整個編解碼領(lǐng)域有舉足輕重的影響力。但也要看到,許多國外高手并未參與MSU評測,不能盲目樂觀。本文是解讀MSU評測的第二篇。


王豪:HW265到“HW266”

每年的MSU的視頻壓縮評比報(bào)告都是多媒體的熱點(diǎn)話題之一,在MSU 2018評比中,華為HW265在多項(xiàng)測試中排名第一。LiveVideoStack采訪了華為媒體技術(shù)院視頻編碼團(tuán)隊(duì)負(fù)責(zé)人王豪,在參賽之前,HW265已經(jīng)在多領(lǐng)域商用。未來華為將投入到VVC的研發(fā),并看好AV1的下一代AV2。


H264、AAC、RTMP解析

H264碼流文件分為兩層:(1) VCL(Video Coding Layer)視頻編碼層:負(fù)責(zé)高效的視頻內(nèi)容表示,VCL 數(shù)據(jù)即編碼處理的輸出,它表示被壓縮編碼后的視頻數(shù)據(jù)序列。(2) NAL(Network Abstraction Layer)網(wǎng)絡(luò)提取層:負(fù)責(zé)以網(wǎng)絡(luò)所要求的恰當(dāng)?shù)姆绞綄?shù)據(jù)進(jìn)行打包和傳送,是傳輸層,不管是在本地播放還是在網(wǎng)絡(luò)播放的傳輸,都要通過這一層來傳輸。


AV1編碼持續(xù)優(yōu)化

AV1比HEVC有30%以上的編碼效率提升,但編碼復(fù)雜度高的離譜。好在AOM聯(lián)盟不斷對AV1進(jìn)行優(yōu)化,預(yù)計(jì)今年內(nèi)AV1的編碼復(fù)雜度將降到VP9的10倍以內(nèi)。


FFmpeg 是如何實(shí)現(xiàn)多態(tài)的?

眾所周知,FFmpeg 在解碼的時候,無論輸入文件是 MP4 文件還是 FLV 文件,或者其它文件格式,都能正確解封裝、解碼,而代碼不需要針對不同的格式做出任何改變,這是面向?qū)ο笾泻艹R姷亩鄳B(tài)特性,但 FFmpeg 是用 C 語言編寫的,那么它是如何使用 C 語言實(shí)現(xiàn)了多態(tài)特性的呢?


AI智能


AI驅(qū)動智能媒體生產(chǎn)

本文總結(jié)了發(fā)表在IBC2018上的由日本NHK的Hiroyuki Kaneko等撰寫的“AI-DRIVEN SMART PRODUCTION”,介紹了NHK在智能媒體生產(chǎn)方面取得的成就以及今后的發(fā)展方向。


AI如何用于現(xiàn)場直播場景

與許多產(chǎn)業(yè)一樣,通過軟件和算法輔助,電視與視頻制作很可能被人工智能和機(jī)器學(xué)習(xí)所改造,而當(dāng)前這些制作任務(wù)都是由人來執(zhí)行。隨著現(xiàn)場直播報(bào)道涉及的范圍越來越廣,而相關(guān)專業(yè)人士的數(shù)量稀缺,基于AI的影視制作技術(shù)應(yīng)運(yùn)而生。


利用人工智能提升足球直播效果

人工智能技術(shù)代表著未來無限的可能性,已經(jīng)在很多領(lǐng)域帶來巨大的沖擊。在足球直播這一領(lǐng)域,版權(quán)方需要提供更多更優(yōu)質(zhì)的內(nèi)容以應(yīng)對日益增長的多元化需求,因此急需提高運(yùn)營效率的新方式。


在對抗中學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)——87頁P(yáng)PT帶你學(xué)習(xí)Graph中的GAN

近期,圖卷積研究大神Petar Veli?kovi?在蒙特利爾作了一場關(guān)于Graph+GAN的報(bào)告,詳細(xì)講解了圖卷積網(wǎng)絡(luò)的基本概念以及最前沿的方法 GCN、GAT (Petar的代表作),以及基于圖的生成式方法,如何使用GAN進(jìn)行基于圖的學(xué)習(xí),并強(qiáng)調(diào)需要使用強(qiáng)化學(xué)習(xí)或Gumbel softmax來進(jìn)行反向傳播,也指出盡管圖的生成式模型效果很好,但未來還需要在這個方面需要更多的研究者一起探索。


自動生成高效DNN,適用于邊緣設(shè)備的生成合成工具FermiNets

來自滑鐵盧大學(xué)滑鐵盧 AI 研究所和 DarwinAI 公司的研究者提出一種新思路:生成合成(generative synthesis),利用生成機(jī)器來自動生成具備高效網(wǎng)絡(luò)架構(gòu)的深度神經(jīng)網(wǎng)絡(luò)。


圖像


Metal圖像處理——顏色查找表(Color Lookup Table)

一張1024x1024的普通圖片,是由1024 * 1024=1048576個像素點(diǎn)組成,每個像素點(diǎn)包括RGBA共32bit,常見的圖像處理是對相鄰像素點(diǎn)顏色、像素點(diǎn)本身顏色做處理。在對像素點(diǎn)本身顏色做處理的情況下,需要把某個顏色映射成另外一個顏色......

總結(jié)

以上是生活随笔為你收集整理的音视频技术开发周刊 70期的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。