日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

Gensim初步使用和详细解释(该代码只能处理英文,处理中文不可用该代码)

發(fā)布時(shí)間:2023/12/20 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Gensim初步使用和详细解释(该代码只能处理英文,处理中文不可用该代码) 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

# -*- coding: utf-8 -*- #Gensim入門教程from gensim import corpora,models,similarities texts = [['human', 'interface', 'computer','interface'],['survey', 'user', 'computer', 'system', 'response', 'time'],['eps', 'user', 'interface', 'system'],['system', 'human', 'system', 'eps'],['user', 'response', 'time'],['trees'],['graph', 'trees'],['graph', 'minors', 'trees'],['graph', 'minors', 'survey']] #以上大列表中,每個(gè)自列表代表一個(gè)文本分詞后的結(jié)果 def print_dict(dict):for key in dict:print type(key),key,str(dict[key]),'\n'printdictionary = corpora.Dictionary(texts)#這個(gè)應(yīng)該是分詞后的結(jié)果,Dictionary用來(lái)去重 corpus = [dictionary.doc2bow(text)for text in texts] print_dict(dict(dictionary.items())) print("------------------------------------------------") print("file numbers=",dictionary.num_docs) print("------------------------------------------------") #返回的結(jié)果中,全部都是list,可以看到,corpus下標(biāo)是0~8,表示文本數(shù)目是9個(gè) #返回的list中的元祖()中,是(id,在單個(gè)文本中出現(xiàn)該word的次數(shù))、 #而一個(gè)list中包含的tuple數(shù)量=分詞后word數(shù)量-重復(fù)的word數(shù)量 #舉例:['human', 'interface', 'computer','interface']這個(gè)文本的 #分詞后word數(shù)量是4個(gè),而由于interface重復(fù)了一次,所以tuple數(shù)量=4-1=3 # 所以最終對(duì)應(yīng)的corpus[0]輸出的list中是3個(gè)tuple,而不是4個(gè) print corpus[0] print corpus[1] print corpus[2] print corpus[3] print corpus[4] print corpus[5] print corpus[6] print corpus[7] print corpus[8] print("--------------------------------------------------") tfidf=models.TfidfModel(corpus)#輸入稀疏矩陣 print tfidf#TfidfModel(num_docs=9, num_nnz=28),num_nnz是每個(gè)文件中不重復(fù)詞個(gè)數(shù)的和 corpus_tfidf=tfidf[corpus] query='human science good interface' #下面是把詢問(wèn)的問(wèn)題轉(zhuǎn)化為稀疏向量 print("--------------------------------------------------") vec_bow=dictionary.doc2bow(query.split()) print vec_bow vec_tfidf=tfidf[vec_bow] print vec_tfidf#這個(gè)結(jié)果是把query的詞匯中,篩選出屬于dictionary的部分,然后分別計(jì)算tf-idf值 print("----------------以下三行代碼計(jì)算query和候選文本的相似度----------待會(huì)這里測(cè)試下復(fù)旦新聞數(shù)據(jù)集-----------------------")index=similarities.MatrixSimilarity(corpus_tfidf)#similarities是一個(gè)函數(shù)名,不要自己卵用 print "index=",index sims=index[vec_tfidf] print "sims=",sims#輸出列表,元素?cái)?shù)量=文本數(shù)量 print("---------------------------") similarity=list(sims)#輸出列表,元素?cái)?shù)量=文本數(shù)量 print "similarity=",similarity print("----------------以上三行代碼計(jì)算query和候選文本的相似度----------待會(huì)這里測(cè)試下復(fù)旦新聞數(shù)據(jù)集-----------------------") store_path='/home/appleyuchi/coai_fudan/storefile.txt' sim_file=open(store_path,'w') for i in similarity:sim_file.write(str(i)+'\n') sim_file.close()



如果使用LSI模型,那么:

# -*- coding: utf-8 -*- #Gensim入門教程from gensim import corpora,models,similarities texts = [['human', 'interface', 'computer','interface'],['survey', 'user', 'computer', 'system', 'response', 'time'],['eps', 'user', 'interface', 'system'],['system', 'human', 'system', 'eps'],['user', 'response', 'time'],['trees'],['graph', 'trees'],['graph', 'minors', 'trees'],['graph', 'minors', 'survey']] #以上大列表中,每個(gè)自列表代表一個(gè)文本分詞后的結(jié)果 def print_dict(dict):for key in dict:print type(key),key,str(dict[key]),'\n'printdictionary = corpora.Dictionary(texts)#這個(gè)應(yīng)該是分詞后的結(jié)果,Dictionary用來(lái)去重 corpus = [dictionary.doc2bow(text)for text in texts] print_dict(dict(dictionary.items())) print("------------------------------------------------") print("file numbers=",dictionary.num_docs) print("------------------------------------------------") #返回的結(jié)果中,全部都是list,可以看到,corpus下標(biāo)是0~8,表示文本數(shù)目是9個(gè) #返回的list中的元祖()中,是(id,在單個(gè)文本中出現(xiàn)該word的次數(shù))、 #而一個(gè)list中包含的tuple數(shù)量=分詞后word數(shù)量-重復(fù)的word數(shù)量 #舉例:['human', 'interface', 'computer','interface']這個(gè)文本的 #分詞后word數(shù)量是4個(gè),而由于interface重復(fù)了一次,所以tuple數(shù)量=4-1=3 # 所以最終對(duì)應(yīng)的corpus[0]輸出的list中是3個(gè)tuple,而不是4個(gè) print corpus[0] print corpus[1] print corpus[2] print corpus[3] print corpus[4] print corpus[5] print corpus[6] print corpus[7] print corpus[8] print("--------------------------------------------------") lsi=models.LsiModel(corpus)#輸入總文本的稀疏矩陣 print lsi#TfidfModel(num_docs=9, num_nnz=28),num_nnz是每個(gè)文件中不重復(fù)詞個(gè)數(shù)的和 corpus_lsi=lsi[corpus] query='human science good interface' #下面是把詢問(wèn)的問(wèn)題轉(zhuǎn)化為稀疏向量 print("--------------------------------------------------") vec_bow=dictionary.doc2bow(query.split()) print vec_bow vec_lsi=lsi[vec_bow] print vec_lsi#這個(gè)結(jié)果是把query的詞匯中,篩選出屬于dictionary的部分,然后分別計(jì)算tf-idf值 print("----------------以下三行代碼計(jì)算query和候選文本的相似度---------------------------------")index=similarities.MatrixSimilarity(corpus_lsi)#similarities是一個(gè)函數(shù)名,不要自己卵用 print "index=",index sims=index[vec_lsi] print "sims=",sims#輸出列表,元素?cái)?shù)量=文本數(shù)量 print("---------------------------") similarity=list(sims)#輸出列表,元素?cái)?shù)量=文本數(shù)量 print "similarity=",similarity print("----------------以上三行代碼計(jì)算query和候選文本的相似度----------------------------") store_path='/home/appleyuchi/coai_fudan/storefile.txt' sim_file=open(store_path,'w') for i in similarity:sim_file.write(str(i)+'\n') sim_file.close()

總結(jié)

以上是生活随笔為你收集整理的Gensim初步使用和详细解释(该代码只能处理英文,处理中文不可用该代码)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。