日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Go语言 中文分词技术使用技巧(一)

發布時間:2024/1/17 编程问答 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Go语言 中文分词技术使用技巧(一) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

分詞技術就是搜索引擎針對用戶提交查詢的關鍵詞串進行的查詢處理后根據用戶的關鍵詞串用各種匹配方法進行分詞的一種技術。

中文分詞(Chinese?Word?Segmentation)指的是將一個漢字序列(句子)切分成一個一個的單獨的詞,分詞就是將連續的字序列按照一定的規則重新組合成詞序列的過程。

現在分詞方法大致有三種:基于字符串配置的分詞方法、基于理解的分詞方法和基于統計的分詞方法。

今天為大家分享一個國內使用人數最多的中文分詞工具GoJieba,源代碼地址:GoJieba?,官方文檔:GoJieba官方文檔

官方介紹

  • 支持多種分詞方式,包括: 最大概率模式, HMM新詞發現模式, 搜索引擎模式, 全模式
  • 核心算法底層由C++實現,性能高效。
  • 無縫集成到?Bleve?到進行搜索引擎的中文分詞功能。
  • 字典路徑可配置,NewJieba(...string), NewExtractor(...string) 可變形參,當參數為空時使用默認詞典(推薦方式)

?

模式擴展

  • 精確模式:將句子精確切開,適合文本字符分析
  • 全模式:把短語中所有的可以組成詞語的部分掃描出來,速度非???#xff0c;會有歧義
  • 搜索引擎模式:精確模式基礎上,對長詞再次切分,提升引擎召回率,適用于搜索引擎分詞

?

主要算法

  • 前綴詞典實現高效的詞圖掃描,生成句子中漢字所有可能出現成詞情況所構成的有向無環圖(DAG)
  • 采用動態規劃查找最大概率路徑,找出基于詞頻最大切分組合
  • 對于未登錄詞,采用漢字成詞能力的HMM模型,采用Viterbi算法計算
  • 基于Viterbi算法做詞性標注
  • 基于TF-IDFTextRank模型抽取關鍵詞

編碼實現

package mainimport ("fmt""github.com/yanyiwu/gojieba""strings" )func main() {var seg = gojieba.NewJieba()defer seg.Free()var useHmm = truevar separator = "|"var resWords []stringvar sentence = "萬里長城萬里長"resWords = seg.CutAll(sentence)fmt.Printf("%s\t全模式:%s \n", sentence, strings.Join(resWords, separator))resWords = seg.Cut(sentence, useHmm)fmt.Printf("%s\t精確模式:%s \n", sentence, strings.Join(resWords, separator))var addWord = "萬里長"seg.AddWord(addWord)fmt.Printf("添加新詞:%s\n", addWord)resWords = seg.Cut(sentence, useHmm)fmt.Printf("%s\t精確模式:%s \n", sentence, strings.Join(resWords, separator))sentence = "北京鮮花速遞"resWords = seg.Cut(sentence, useHmm)fmt.Printf("%s\t新詞識別:%s \n", sentence, strings.Join(resWords, separator))sentence = "北京鮮花速遞"resWords = seg.CutForSearch(sentence, useHmm)fmt.Println(sentence, "\t搜索引擎模式:", strings.Join(resWords, separator))sentence = "北京市朝陽公園"resWords = seg.Tag(sentence)fmt.Println(sentence, "\t詞性標注:", strings.Join(resWords, separator))sentence = "魯迅先生"resWords = seg.CutForSearch(sentence, !useHmm)fmt.Println(sentence, "\t搜索引擎模式:", strings.Join(resWords, separator))words := seg.Tokenize(sentence, gojieba.SearchMode, !useHmm)fmt.Println(sentence, "\tTokenize Search Mode 搜索引擎模式:", words)words = seg.Tokenize(sentence, gojieba.DefaultMode, !useHmm)fmt.Println(sentence, "\tTokenize Default Mode搜索引擎模式:", words)word2 := seg.ExtractWithWeight(sentence, 5)fmt.Println(sentence, "\tExtract:", word2)return }

運行結果

go build -o gojieba time ./gojieba 萬里長城萬里長 全模式:萬里|萬里長城|里長|長城|萬里|里長 萬里長城萬里長 精確模式:萬里長城|萬里|長 添加新詞:萬里長 萬里長城萬里長 精確模式:萬里長城|萬里長 北京鮮花速遞 新詞識別:北京|鮮花|速遞 北京鮮花速遞 搜索引擎模式: 北京|鮮花|速遞 北京市朝陽公園 詞性標注: 北京市/ns|朝陽/ns|公園/n 魯迅先生 搜索引擎模式: 魯迅|先生 魯迅先生 Tokenize Search Mode 搜索引擎模式: [{魯迅 0 6} {先生 6 12}] 魯迅先生 Tokenize Default Mode搜索引擎模式: [{魯迅 0 6} {先生 6 12}] 魯迅先生 Extract: [{魯迅 8.20023407859} {先生 5.56404756434}]real 0m1.746s user 0m1.622s sys 0m0.124s

?

性能評測

語言源碼耗時
C++版本CppJieba7.5 s
Golang版本GoJieba9.11 s
Python版本Jieba88.7 s

計算分詞過程的耗時,不包括加載詞典耗時,CppJieba性能是GoJieba的1.2倍。CppJieba性能詳見jieba-performance-comparison,GoJieba由于是C++開發的CppJieba,性能方面僅次于CppJieba,如果追求性能還是可以考慮的。

?

總結

以上是生活随笔為你收集整理的Go语言 中文分词技术使用技巧(一)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。