日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

社交网络与社会计算课程内容梳理总结

發布時間:2024/8/1 编程问答 40 豆豆
生活随笔 收集整理的這篇文章主要介紹了 社交网络与社会计算课程内容梳理总结 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

目錄

    • 1 引言
    • 2 復雜網絡的圖要素
    • 3 復雜網絡度量
    • 4 復雜網絡模型
    • 5 網絡表示學習
    • 6 主題模型

1 引言

社會計算是指社會科學和計算技術交叉融合而成的一個研究領域,研究如何利用計算系統幫助人們進行溝通與協作,研究如何利用計算技術分析社會運行的規律與發展趨勢,即以社交網絡和社會媒體為研究對象,從中發現社會關系、社會行為的規律。

社會計算的研究內容包括:

  • 社交網絡服務,包括:社會關系強度、信息的絕對價值和相對價值、新鮮事排序算法、隱私性以及社會化搜索;
  • 內容計算,包括:輿情分析、人際關系挖掘、微博應用;
  • 群體智慧,比如百度百科和維基百科。
  • 社會計算的研究理論工具:

  • 從數學和社會心理學等其他學科借鑒來的理論,比如圖論、平衡論、社會比較理論、六度分割理論、150定律;
  • 本源的社會網絡理論,比如異質性理論、結構角色理論;
  • 網絡時代大數據的研究方法
  • 社會媒體是指互聯網上基于用戶關系的內容生產與交換平臺,其特點有:1)多對多;2)豐富的用戶交互特性。

    社會媒體數據通常用圖或者矩陣的形式進行表示。現實世界中的大規模網絡往往具有一些共同的性質:無標度分布、小世界效應、強社區結構。

    社會媒體挖掘的意義:

  • 社會媒體挖掘研究將是推動社會學與信息科學交叉發展的著力點;
  • 社會媒體數據研究已經成為提高國家信息產業科學化水平和輿情態勢感知能力的支撐點;
  • 社會媒體挖掘是引領新型互聯網經濟發展的制高點。
  • 社會媒體挖掘的挑戰:

  • 可擴展性;
  • 混雜性;
  • 演化;
  • 集體智慧
  • 本課程關注的社會計算任務:

  • 社區發現與演化分析,包括1)如何發現社區?2)社區結構時如何演化的?3)怎樣評價發現的社區;
  • 信息傳播與影響建模,包括1)如何建模社會媒體上的信息擴散?如何挖掘社會媒體上的關鍵節點?3)用戶間是如何相互影響的?4)如何求解影響最大化問題?5)如何對網絡傳播進行追蹤溯源?6)如何預測信息熱度?
  • 興趣發現與推薦系統,包括1)經典的推薦算法有哪些?2)基于社會媒體的推薦系統如何構建?3)如何評價推薦系統的性能?
  • 話題發現與演化追蹤,包括1)話題發現的模型和算法有哪些?2)話題演化的模型和算法有哪些?3)如何應對大規模、動態、多源數據的挑戰?
  • 鏈接預測與網絡推斷,包括1)鏈接預測的基本方法有哪些?2)異質社會媒體上連接預測如何實現?3)網絡推斷的效果如何評價?
  • 行為分析與建模預測,包括:如何刻畫用戶的采納和忠誠程度?2)如何建模用戶個體的使用行為?3)如何建模用戶群體的互動行為?
  • 社會媒體的情感分析、任務分析、安全、可視化,等等。
  • 2 復雜網絡的圖要素

    復雜網絡是指那些結構復雜、無規則、隨時間動態變化的網絡。

    哥尼斯堡七橋問題:只有當圖中度為奇數的頂點不超過兩個,這樣的路徑才存在。

    圖的基礎知識:

  • 節點與邊;
  • 有向邊與有向圖;
  • 鄰居;
  • 度和度的分布
  • 圖的表示:

  • 鄰接矩陣;
  • 鄰接表;
  • 邊列表
  • 圖的類型:

  • 零圖和空圖;
  • 有向圖、無向圖、混合圖;
  • 簡單圖與多重圖;
  • 帶權圖;
  • 標號圖
  • 通路是指依次遍歷相鄰邊產生的邊序列,分為開通路閉通路。通路可以用邊序列或者節點序列表示。通路的長度是指經過的邊的數量。邊不重復的通路稱為簡單通路,閉合的簡單通路稱為環路。節點和邊都不重復的通路稱為路徑,閉合的路徑稱為回路歐拉環路是指圖中所有邊均只被遍歷一次的環路,哈密爾頓回路是指遍歷了圖中所有節點的回路。如下圖所示:

    圖的連通性:如果節點viv_ivi?和節點vjv_jvj?之間有路徑連接,那么稱節點viv_ivi?可連接到節點vjv_jvj?,即可達。無向圖的可達性對稱,有向圖的可達性不一定對稱。任意節點相互可達的有向圖稱為強聯通有向圖,不考慮相互約束,稱為弱連通有向圖。同理可以基于子圖和連通性定義連通分支強連通分支弱連通分支

    最短路徑可以使用Dijstra算法和Prim算法進行求解。

    圖的直徑是指任意兩個節點之間距離中的最大值。圖的平均距離是指圖中所有節點對的距離的平均值。

    特殊圖包括:樹、森林、生成樹、完全圖、平面圖、二分圖、正則圖

    圖算法:最大流算法、Prim算法、Dijstra算法。

    3 復雜網絡度量

    度中心性認為具有更多鏈接關系的節點具有更高的中心性,我們可以使用最大可能度數(n-1)、最大度數、度數和對度中心性進行歸一化。

    特征向量中心性是度中心性的一種擴展,其試圖通過結合無向圖中的鄰居節點的重要性來修正度中心性,計算如下:ce(vi)=1λ∑j=1nAj,ice(vj)c_{e}\left(v_{i}\right)=\frac{1}{\lambda} \sum_{j=1}^{n} A_{j, i} c_{e}\left(v_{j}\right)ce?(vi?)=λ1?j=1n?Aj,i?ce?(vj?)

    Katz中心性修正了特征向量中心性的一個缺點:沒有入邊的特征向量中心性為0,計算如下:CKatz(vi)=α∑j=1nAj,iCKatz(vj)+βC_{\mathrm{Katz}}\left(v_{i}\right)=\alpha \sum_{j=1}^{\mathrm{n}} A_{j, i} C_{\mathrm{Katz}}\left(v_{j}\right)+\betaCKatz?(vi?)=αj=1n?Aj,i?CKatz?(vj?)+β

    PageRank中心性認為并不是中心性用戶所關注的每一個人都是中心性用戶,解決方案是讓中心性除以節點的出度,這樣每個鄰居節點獲取源節點中心性的一部分。Cp(vi)=α∑j=1nAj,iCp(vj)djout+βC_{p}\left(v_{i}\right)=\alpha \sum_{j=1}^{n} A_{j, i} \frac{C_{p}\left(v_{j}\right)}{d_{j}^{\mathrm{out}}}+\betaCp?(vi?)=αj=1n?Aj,i?djout?Cp?(vj?)?+β

    介數中心性度量方法是考慮節點在連接其他節點時所表現出來的重要性,計算其他節點間最短路徑中有多少條要通過節點??,這個比重是多少,公式如下:Cb(vi)=∑s≠t≠viσst(vi)σstC_{b}\left(v_{i}\right)=\sum_{s \neq t \neq v_{i}} \frac{\sigma_{s t}\left(v_{i}\right)}{\sigma_{s t}}Cb?(vi?)=s??=t??=vi??σst?σst?(vi?)?,歸一化的介數中心性:Cbnorm?(vi)=Cb(vi)2(n?12)C_{b}^{\operatorname{norm}}\left(v_{i}\right)=\frac{C_{b}\left(v_{i}\right)}{2 \left( \begin{array}{c}{n-1} \\ {2}\end{array}\right)}Cbnorm?(vi?)=2(n?12?)Cb?(vi?)?

    緊密度中心性,在一個連通圖中,節點越接近中心,它越能快速地到達其他節點,這些節點與其他節點之間平均路徑長度應該較小,因此定義緊密度中心性,Cc(vi)=1l ̄viC_{c}\left(v_{i}\right)=\frac{1}{\overline{l}_{v_{i}}}Cc?(vi?)=lvi??1?,其中l ̄vi=1n?1∑vj≠vili,j\overline{l}_{v_{i}}=\frac{1}{n-1} \sum_{v_{j} \neq v_{i}} l_{i, j}lvi??=n?11?vj???=vi??li,j?

    群體中心性,上述所有的中心性度量方法都是針對單個節點而定義的,這里討論如何將度中心性、緊密度中心性、介數中心性的定義擴展到一組節點組成的集合上。

    傳遞性,在社交網絡中,傳遞性就是我朋友的朋友就是我的朋友,傳遞性可以通過聚類系數或局部聚類系數進行度量。C=(Number?of?Triangles?)×3Number?of?Connected?Triples?of?Nodes?C=\frac{(\text { Number of Triangles }) \times 3}{\text { Number of Connected Triples of Nodes }}C=?Number?of?Connected?Triples?of?Nodes?(?Number?of?Triangles?)×3?

    相互性:相互性是簡化的傳遞性,它只考慮有向圖中長度為2的閉合循環。

    相似性分為結構相似性和規則相似性,結構相似性的度量方法有Jaccard 相似度:σJaccard(vi,vj)=∣N(vi)∩N(vj)∣∣N(vi)∪N(vj)∣\sigma_{J a c c a r d}\left(v_{i}, v_{j}\right)=\frac{\left|N\left(v_{i}\right) \cap N\left(v_{j}\right)\right|}{\left|N\left(v_{i}\right) \cup N\left(v_{j}\right)\right|}σJaccard?(vi?,vj?)=N(vi?)N(vj?)N(vi?)N(vj?)?和Cosine相似度σcosine?(vi,vj)=∣N(vi)∩N(vj)∣∣N(vi)∣∣N(vj)∣\sigma_{\text { cosine }}\left(v_{i}, v_{j}\right)=\frac{\left|N\left(v_{i}\right) \cap N\left(v_{j}\right)\right|}{\sqrt{\left|N\left(v_{i}\right)\right|\left|N\left(v_{j}\right)\right|}}σ?cosine??(vi?,vj?)=N(vi?)N(vj?)?N(vi?)N(vj?)?。在規則相似性里,我們并不注重個體間共有的鄰居節點,而是關注鄰居節點自身的相似程度,通過比較鄰居節點的相似度來確定節點間的相似度,而不是通過共有的鄰居節點來確定。

    4 復雜網絡模型

    真實網絡的常見屬性包括:1)度分布——冪律分布2)聚類系數——普遍較高3)平均路徑長度——普遍較短。

    社會媒體中節點度通常是指一個人的朋友數量(無向圖中的度)或粉絲數量(關注網絡中的入度),這個度分布通常滿足冪律分布:ln?pk=?bln?k+ln?a\ln p_{k}=-b \ln k+\ln alnpk?=?blnk+lnapkp_kpk?表示節點度為?的節點在整個網絡節點中所占的比例。

    符合冪律分布的網絡通常叫做無標度網絡(Scale-Free networks)。

    圖論中,聚類系數是表示節點聚集程度的系數。

    全局集聚系數基于節點三元組,是所有三元組(包括開三元組和閉三元組)中閉三元組所占比例,圖中一個節點的局部集聚系數表示它的相鄰節點形成一個團(完全圖)的緊密程度,Ci={kidi×(di?1)/2di>10di=0or?1C_{i}=\left\{\begin{array}{cc}{\frac{k_{i}}{d_{i} \times\left(d_{i}-1\right) / 2}} & {d_{i}>1} \\ {0} & {d_{i}=0 \text { or } 1}\end{array}\right.Ci?={di?×(di??1)/2ki??0?di?>1di?=0?or?1?,其中kik_iki?表示鄰居間的邊數,did_idi?是鄰居數。整個網絡的平均聚類系數定義如下:C=∑i∈VCi∣V∣C=\frac{\sum_{i \in V} C_{i}}{|V|}C=ViV?Ci??

    在真實網絡中,網絡中任意兩個用戶都可以經過一條比較短的朋友關系鏈進行關聯,評論路徑長度定義為:lG=1n?(n?1)?∑i,jd(vi,vj)l_{G}=\frac{1}{n \cdot(n-1)} \cdot \sum_{i, j} d\left(v_{i}, v_{j}\right)lG?=n?(n?1)1??i,j?d(vi?,vj?)

    隨機圖模型,節點之間的邊是隨機生成的,我們討討論兩種隨機圖模型,G(n,p)G(n, p)G(n,p),節點之間存在連邊的概率;G(n,m)G(n, m)G(n,m),m是生成邊的數量。

    小世界網絡模型是Watts和Strogatz在1998年提出的基于人類社會網絡的網絡生成模型,它通過調節一個重鏈參數?可以從正則網絡向隨機網絡過渡,該模型稱為WS小世界模型。正則網絡是指任何一個節點的近鄰數目都相同的網絡。

    優先鏈接模型由Albert-László Barabási and Réka Albert在1999年提出,當新的節點加入到網絡時,它們更傾向于連接那些與網絡中較多節點相連的節點。

    5 網絡表示學習

    6 主題模型

    貝葉斯概率是貝葉斯網絡運行的理論基礎,其原理和應用相對比較簡單。

    先驗概率是指根據歷史的資料或主觀判斷所確定的各種事件發生的概率,該概率沒有經過實驗證實,屬于檢驗前的概率。

    后驗概率一般是指通過貝葉斯公式,結合調查等方式獲取了新的附加信息,對先驗概率修正后得到的更符合實際的概率。

    似然條件概率:當條件確定時,某事件發生的概率就是該事件的條件概率。

    貝葉斯公式P(Bi∣A)=P(Bi)P(A∣Bi)∑i=1nP(Bi)P(A∣Bi)P\left(B_{i} | A\right)=\frac{P\left(B_{i}\right) P\left(A | B_{i}\right)}{\sum_{i=1}^{n} P\left(B_{i}\right) P\left(A | B_{i}\right)}P(Bi?A)=i=1n?P(Bi?)P(ABi?)P(Bi?)P(ABi?)?

    有向概率圖模型:貝葉斯網絡(BN)、隱馬爾科夫模型(HMM);
    無向概率圖模型:馬爾科夫隨機場(MRF)、條件隨機場(CRF);
    混合概率圖模型:鏈圖(CG)。

    貝葉斯網絡:聯合分布P(X1,…,Xn)=∏iP(Xi∣Pa?(Xi))P\left(X_{1}, \ldots, X_{n}\right)=\prod_{i} P\left(X_{i} | \operatorname{Pa}\left(X_{i}\right)\right)P(X1?,,Xn?)=i?P(Xi?Pa(Xi?))

    極大似然估計的步驟

  • 獨立同分布(IID)的數據X=(X1,X2,…,Xn)X=\left(X_{1}, X_{2}, \ldots, X_{n}\right)X=(X1?,X2?,,Xn?)
  • 概率密度函數為f(x∣θ),即∣Xi~f(x∣θ)f(x | \theta), 即\left|X_{i} \sim f(x | \theta)\right.f(xθ),Xi?f(xθ)
  • 定義似然函數:L(θ∣X)=f(X∣θ)=∏i=1nf(Xi∣θ)L(\theta | \mathrm{X})=f(\mathrm{X} | \theta)=\prod_{i=1}^{n} f\left(X_{i} | \theta\right)L(θX)=f(Xθ)=i=1n?f(Xi?θ)
  • 對數似然函數:l(θ∣X)=log?L(θ∣X)l(\theta | \mathrm{X})=\log L(\theta | \mathrm{X})l(θX)=logL(θX)
  • θ\thetaθ的極大似然估計為:θ^=arg?max?θL(θ∣X)\hat{\theta}=\arg \max _{\theta} L(\theta | \mathrm{X})θ^=argmaxθ?L(θX)=arg?max?θl(θ∣X)=\arg \max _{\theta} l(\theta | \mathrm{X})=argmaxθ?l(θX).
  • 極大似然估計存在以下問題:對于許多具體問題不能構造似然函數解析表達式?(?|?);似然函數表達式過于復雜而導致難以求解最值。正是在這種情況下,人們提出了基于數值迭代的EM算法。

    EM算法主要用于非完全數據參數估計,它通過假設隱變量的存在,可以大大簡化似然函數方程,以迭代的方式尋找使似然函數?(?|?)達到最大的參數。

    Markov Chain Mento Carlo采樣方法(簡稱MCMC方法)主要用于統計推理中的模擬抽樣,尤其在貝葉斯推理中有著非常廣泛的應用。

    直觀上,主題就是一個概念、一個方面,它表現為一系列相關的詞語,數學上,主題就是詞匯表上詞語的條件概率分布。在自然語言處理中,主題(topic)可以看成是詞項空間(或詞典、詞匯表)上的概率分布。

    主題模型起源于隱性語義索引(Latent Semantic Indexing, LSI),隱性語義索引并不是概率模型,因此也算不上一個主題模型,但是其基本思想為主題模型的發展奠定了基礎。

    在LSI的基礎上,Hofmann提出了概率隱性語義索引(probabilistic Latent Semantic Indexing, pLSI),該模型被看成是一個真正意義上的主題模型。

    Blei等人提出的LDA(Latent Dirichlet Allocation)又在pLSI的基礎上進行了擴展得到一個更為完全的概率生成模型。

    主題模型的主要內容包括:

  • 主題模型的輸入
  • 主題模型的基本假設
  • 主題模型的表示
  • 參數估計過程
  • 新樣本的推斷
  • 主題模型的主要輸入是文檔集合,由于交換性的假設,文檔集合等價于詞項-文檔矩陣。主題模型的另一個輸入是主題個數?,通常,?的大小需要在模型訓練前指定,而且存在一定的經驗性。

    主題模型中的一個重要假設是詞袋(bag of words)假設,即一篇文檔內的詞項可以交換次序而不影響模型的訓練結果。

    主題模型的表示有兩種,分別是使用圖模型和生成過程。以LDA模型為例,下圖是使用圖模型的方法對LDA模型進行表示:

    圖中方框表示其中的內容進行重復,右下角是重復的次數,灰色節點表示觀測值,空心節點表示隱含隨機變量或者參數,箭頭代表依賴關系,?是?的超參數,?是?×?的參數集合,每行代表某個主題中的詞項概率分布,?是主題個數,?是詞項個數;?表示每篇文檔的主題概率分布,共?個,?為文檔個數.?為單詞,?為?的主題標號。

    我們也可以通過生成過程來對主題模型進行描述,LDA模型是按照如下圖所示的方式生成一篇文檔,重復?次則生成整個語料:

    主題模型中,最重要的兩組參數分別是各文檔的主題概率分布和各主題下的詞項概率分布,參數估計可以看成是生成過程的逆過程:即在已知文檔集(即生成的結果)的情況下,通過參數估計,得到參數值。針對參數估計,我們需要選擇最優化的目標函數,在主題模型中通常是整個語料的概率似然。

    以LDA模型為例,根據其概率模型很容易得到語料概率似然值p(D∣α,β)p(D|\alpha, \beta)p(Dα,β)為:
    ∏d=1M∫p(θd∣α)(∏n=1Nd∑zdnp(zdn∣θd)p(wdn∣zdn,β))dθd\prod_{d=1}^{M} \int p\left(\theta_ozvdkddzhkzd | \alpha\right)\left(\prod_{n=1}^{N_ozvdkddzhkzd}\sum_{z_{d n}} p\left(z_{d n} | \theta_ozvdkddzhkzd\right) p\left(w_{d n} | z_{d n}, \beta\right) \right) \mathrmozvdkddzhkzd \theta_ozvdkddzhkzd d=1M?p(θd?α)(n=1Nd??zdn??p(zdn?θd?)p(wdn?zdn?,β))dθd?
    其中,D代表整個語料,也就是所有文檔的集合,NdN_dNd?表示第d篇文檔的長度,θd\theta _dθd?表示第d篇文檔的主題概率分布,wdnw_{dn}wdn?表示第d篇文檔的第n個單詞,zdnz_{dn}zdn?表示wdnw_{dn}wdn?的主題,該函數以α\alphaαβ\betaβ為參數,通過對目標函數進行最大化來估計α\alphaαβ\betaβ的值。

    主題模型訓練完成后,我們便可以使用訓練好的主題模型對新的樣本進行推斷,通過主題模型將以詞項空間表達的文檔變換到新的主題空間,得到一個以主題為坐標的低維表達,該表達也就是文檔的主題概率分布。

    概率隱性語義索引(probabilistic Latent Semantic Indexing, pLSI)是Hofmann在1999年提出的一個主題模型,旨在尋找一個從詞項空間到隱性語義(即主題)空間的變換。
    pLSI生成數據集的步驟如下:

  • 選擇一個文檔編號d~p(d)d \sim p(d)dp(d)
  • 對文檔d中的每個單詞重復以下過程:
  • 選擇一個隱含主題z~p(z∣d)z \sim p(z|d)zp(zd)
  • 生成一個單詞w~p(w∣z)w \sim p(w|z)wp(wz)
    觀察上述過程,容易得到模型的兩組主要參數$p(w | z) 和和 p(z | d)$,即個主題下的詞項分布和各文檔的主題概率分布,由于沒有概率分布的類型,這兩組參數其實就是兩張二維的參數表,需要通過參數估計來確定二維表的每個參數的值。
  • 共軛先驗分布,如果后驗概率和先驗概率滿足同樣的分布,那么先驗分布和后驗分布被叫做共軛分布,同時先驗分布叫做似然函數的共軛先驗分布:
    P(θ∣x)=P(x∣θ)?P(θ)P(x)∝P(x∣θ)?P(θ)P(\theta | x)=\frac{P(x | \theta) \cdot P(\theta)}{P(x)} \propto P(x | \theta) \cdot P(\theta) P(θx)=P(x)P(xθ)?P(θ)?P(xθ)?P(θ)
    采用共軛先驗分布的原因是:一方面可以使得先驗分布和后驗分布的形式相同,符合人的直覺;另一方面,可以形成一個先驗鏈,即現在的后驗部分可以作為下一次計算的先驗分布。

    舉個例子,二項分布的似然函數是:P(x∣θ)=θx?(1?θ)1?xP(x | \theta)=\theta^{x} \cdot(1-\theta)^{1-x}P(xθ)=θx?(1?θ)1?x,其共軛分布是Beta分布,P(θ∣α,β)=θα?1(1?θ)β?1∫01θα?1(1?θ)β?1dθP(\theta | \alpha, \beta)=\frac{\theta^{\alpha-1}(1-\theta)^{\beta-1}}{\int_{0}^{1} \theta^{\alpha-1}(1-\theta)^{\beta-1} d \theta}P(θα,β)=01?θα?1(1?θ)β?1dθθα?1(1?θ)β?1?,根據貝葉斯公式計算后驗概率如下:
    P(θ∣x)∝P(x∣θ)?P(θ)∝(θx(1?θ)x)(θα?1(1?θ)β?1)=θx+α?1(1?θ)1?x?α?1\begin{array}{l} {P(\theta | x)} \\ {\propto P(x | \theta) \cdot P(\theta)} \\ {\propto\left(\theta^{x}(1-\theta)^{x}\right)\left(\theta^{\alpha-1}(1-\theta)^{\beta-1}\right)}\\ {=\theta ^{x+\alpha-1}(1-\theta)^{1-x-\alpha-1}} \end{array} P(θx)P(xθ)?P(θ)(θx(1?θ)x)(θα?1(1?θ)β?1)=θx+α?1(1?θ)1?x?α?1?
    歸一化這個后驗概率可以得到另一個Beta分布。

    總結

    以上是生活随笔為你收集整理的社交网络与社会计算课程内容梳理总结的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。