日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

jieba分词错误_如何掌握分词技术,你需要学会这些

發(fā)布時間:2024/10/8 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 jieba分词错误_如何掌握分词技术,你需要学会这些 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

1.導語:

本周對自然語言處理的分詞技術進行了學習。本文針對分詞技術的進行了全視角的概覽,目標是掌握什么是分詞技術、為什么需要分詞技術和如何使用分詞技術。后續(xù)將分不同篇幅對其中內容進行深挖和講解。文章結構如下(全文閱讀時間大約10分鐘):

2.簡介:

首先,簡單介紹一下自然語言處理技術(簡稱NLP),是人工智能領域中一個重要的方向,主要研究如何讓人類和計算機之間,能夠使用人類能夠理解的語言進行有效溝通,其涵蓋語言學、計算機科學、數(shù)學等多種交叉學科。在現(xiàn)如今人工智能技術迅速發(fā)展時期,AI技術逐步從感知智能朝認知智能大跨步邁進,NLP技術或許是人類實現(xiàn)強人工智能的關鍵所在。

什么是分詞技術?分詞技術屬于自然語言處理技術范疇,分詞就是將句子中的詞語劃分出來的技術,人能夠知道哪些是詞語,如何讓計算機能夠理解和劃分,其處理過程就是分詞。當然,分詞只是一種工具,場景不同,要求也不同。

為什么需要分詞技術?因為許多自然語言處理技術都會圍繞詞語展開,例如情感分析、問答模型等;分詞效果直接影響上層技術的效果;并且,詞語是最小粒度有意義的語言成分;英文往往不需要分詞,但中文需要,因為中文在基本文法上有其特殊性,主要體現(xiàn)在:1.英文以空格作為天然分隔符,中文詞語間沒有分隔2.古文詞通常是單個漢字,而現(xiàn)在漢語雙字多字詞比較多3.詞和詞組邊界模糊

3.技術難點

到目前為止,中文分詞技術仍存在三大難題未完全突破:1.分詞的規(guī)范:字和詞的界限往往很模糊,并沒有一個公認、權威的標準,會有很多不同主觀上的分詞差異2.歧義詞的切分,歧義詞的情況分為:交集型歧義、組合型歧義和混合型歧義。另外,更頭痛的情況就是真歧義,即使是人都無法判斷的情況3.未登錄詞識別,就是新詞的意思,如人名、地名、網絡用詞等等

4.分詞算法概述

4.1算法中的數(shù)據(jù)結構

在展開算法實現(xiàn)之前,先來講講算法中提到的數(shù)據(jù)結構:一個是詞典,一個是詞圖。

詞典一般可以用鏈表或數(shù)組實現(xiàn),更高級的詞典還有Trie樹和AC自動機等,例如在HanLp的源碼中用戶自定義詞典的識別是用的AC自動機實現(xiàn)的(需要了解Trie樹、KMP算法、AC自動機可以在后續(xù)的推文中學習)。

圖作為一種常見的數(shù)據(jù)結構,其存儲方式一般有兩種:鄰接矩陣和鄰接表。所謂矩陣其實就是二維數(shù)組,所謂鄰接矩陣存儲結構,就是每個頂點用一個一維數(shù)組存儲每條邊的信息,就能用矩陣表示圖中各頂點之間的鄰接關系。

鄰接表,存儲方法跟樹的子鏈表示法相類似,是一種順序分配和鏈式分配相結合的存儲結構。

4.2.分詞算法簡介

現(xiàn)有的分詞算法,大體上可以分為如下幾類:1.基于規(guī)則的分詞算法 2.基于統(tǒng)計的分詞算法 3.基于語義的分詞算法 4.基于理解的分詞算法(該部分內容在本期后續(xù)推文中會展開講解)

基于規(guī)則的分詞算法主要思想是按照一定的策略將待分析的漢字串與一個“充分大的”機器詞典中的詞條進行匹配。若在詞典中找到某個字符串,則匹配成功。該方法有三個要素,即分詞詞典、文本掃描順序和匹配原則。
優(yōu)點是簡單,容易實現(xiàn)。缺點是:匹配速度慢;存在交集型和組合型歧義切分問題;詞本身沒有一個標準的定義,沒有統(tǒng)一標準的詞集;不同詞典產生的歧義也不同;缺乏自學習的智能性。

基于統(tǒng)計的分詞算法的主要核心是詞是穩(wěn)定的組合,因此在上下文中,相鄰的字同時出現(xiàn)的次數(shù)越多,就越有可能構成一個詞。因此字與字相鄰出現(xiàn)的概率或頻率能較好地反映成詞的可信度。可以對訓練文本中相鄰出現(xiàn)的各個字的組合的頻度進行統(tǒng)計,計算它們之間的互現(xiàn)信息。互現(xiàn)信息體現(xiàn)了漢字之間結合關系的緊密程度。當緊密程 度高于某一個閾值時,便可以認為此字組可能構成了一個詞。該方法又稱為無字典分詞。
實際運用中會結合基于規(guī)則的分詞方法,不僅發(fā)揮詞典匹配的速度快的優(yōu)勢,又結合無詞典分詞能夠結合上下文識別、消歧的優(yōu)勢。

基于語義的分詞算法引入了語義分析,對自然語言自身的語言信息進行更多的處理。

基于理解的分詞算法,是通過讓計算機,模擬人對句子的理解,達到識別詞組的效果。基本思想是在分詞的同時進行句法、語義的分析,利用句法和語義信息來處理歧義現(xiàn)象。通常包含三部分:分詞子系統(tǒng)、句法語義子系統(tǒng)、總控部分。在總控部分的協(xié)調下,分詞子系統(tǒng)可以獲得有關詞、句子等的句法和語義信息,來對分詞歧義進行判斷,模擬人對句子的理解過程。目前基于理解的分詞方法主要有專家系統(tǒng)分詞法和神經網絡分詞法等。

5.python工具

最后介紹一些常用的python分詞庫(該部分內容在本期后續(xù)推文中會展開講解如何使用):

1.jieba:專用于分詞的python庫,分詞效果好.支持三種分詞模式:精準模式、全模式和搜索引擎模式;并且支持繁體分詞;可以自定義詞典。它主要使用的分詞算法是基于統(tǒng)計的分詞算法:
a.基于前綴詞典實現(xiàn)高效的詞圖掃描,生成句子中漢字所有可能成詞情況所構成的有向無環(huán)圖(DAG)
b.采用動態(tài)規(guī)劃查找最大概率路徑,找出基于詞頻的最大切分組合c.對未登錄詞,采用基于漢字成詞能力的HMM模型,使用Viterbi算法Github地址:https://github.com/fxsjy/jieba

2.THULAC:由清華大學自然語言處理與社會人文計算實驗室研制推出的一套中文詞法分析工具包,具有中文分詞和詞性標注功能。THULAC具有如下幾個特點:
a.能力強。利用集成的目前世界上規(guī)模最大的人工分詞和詞性標注中文語料庫(約含5800萬字)訓練而成,模型標注能力強大。b.準確率高。該工具包在標準數(shù)據(jù)集Chinese Treebank上分詞的F1值可達97.3%,詞性標注的F1值可達到92.9%,與該數(shù)據(jù)集上最好方法效果相當。c.速度較快。同時進行分詞和詞性標注速度為300KB/s,每秒可處理約15萬字。只進行分詞速度可達到1.3MB/s.Github地址:https://github.com/thunlp/THULAC-Python

3.pkuseg:由北京大學語言計算與機器學習研究組研制推出的一套全新的中文分詞工具包。具有如下幾個特點:
a.分詞準確率。相比于其他的分詞工具包,該工具包在不同領域的數(shù)據(jù)上都大幅提高了分詞的準確度。根據(jù)測試結果,pkuseg分別在示例數(shù)據(jù)集(MSRA和CTB8)上降低了79.33%和63.67%的分詞錯誤率。b.多領域分詞。該分詞包訓練了多種不同領域的分詞模型。根據(jù)待分詞的領域特點,用戶可以自由地選擇不同的模型。c.支持用戶自訓練模型。支持用戶使用全新的標注數(shù)據(jù)進行訓練。Github地址:https://github.com/lancopku/PKUSeg-python

4.FoolNLTK:根據(jù)該項目所述,這個中文工具包的特點有如下幾點:
a.可能不是最快的開源中文分詞,但很可能是最準的開源中文分詞b.基于 BiLSTM 模型訓練而成c.包含分詞,詞性標注,實體識別, 都有比較高的準確率d.用戶自定義詞典Github地址:https://github.com/rockyzhengwu/FoolNLTK

5.LTP:語言技術平臺(Language Technology Platform,LTP)是哈工大社會計算與信息檢索研究中心歷時十年開發(fā)的一整套中文語言處理系統(tǒng)。LTP制定了基于XML的語言處理結果表示,并在此基礎上提供了一整套自底向上的豐富而且高效的中文語言處理模塊(包括詞法、句法、語義等6項中文處理核心技術),以及基于動態(tài)鏈接庫(Dynamic Link Library, DLL)的應用程序接口、可視化工具,并且能夠以網絡服務(Web Service)的形式進行使用。GitHub地址:https://github.com/HIT-SCIR/pyltptp
另外運行的時候需要下載模型,模型還比較大,下載地址:http://ltp.ai/download.html

6.SnowNLP: Simplified Chinese Text Processing,可以方便的處理中文文本內容,是受到了 TextBlob 的啟發(fā)而寫的,由于現(xiàn)在大部分的自然語言處理庫基本都是針對英文的,于是寫了一個方便處理中文的類庫,并且和 TextBlob 不同的是,這里沒有用 NLTK,所有的算法都是自己實現(xiàn)的,并且自帶了一些訓練好的字典。GitHub 地址:https:http://github.com/isnowfy/snownlp

作者原創(chuàng),請勿替換文字

公眾號:語言智能體

總結

以上是生活随笔為你收集整理的jieba分词错误_如何掌握分词技术,你需要学会这些的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。