新聞中心
最近一段時間Python已經(jīng)成為數(shù)據(jù)科學(xué)行業(yè)中大火的編程語言,今天技術(shù)學(xué)派收集了一些較為高效的語言處理Python庫。下面分享給大家。

我們提供的服務(wù)有:成都做網(wǎng)站、成都網(wǎng)站制作、成都外貿(mào)網(wǎng)站建設(shè)、微信公眾號開發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認證、孟州ssl等。為近1000家企事業(yè)單位解決了網(wǎng)站和推廣的問題。提供周到的售前咨詢和貼心的售后服務(wù),是有科學(xué)管理、有技術(shù)的孟州網(wǎng)站制作公司
1.NLTK
NLTK是構(gòu)建Python程序以處理人類語言數(shù)據(jù)的領(lǐng)先平臺。它提供了易于使用的界面,以及用于分類、標(biāo)記化、詞干化、標(biāo)記、分析和語義推理的一套文本處理庫。用于工業(yè)強度NLP庫的包裝器。
項目地址:http://www.nltk.org/
2.Pattern
Pattern是Python編程語言的Web挖掘模塊。它多有用于數(shù)據(jù)挖掘、自然語言處理、機器學(xué)習(xí)網(wǎng)絡(luò)分析和
項目地址:https://pypi.org/project/pattern3/3.0.0/
3.Jieba
“結(jié)巴”中文分詞:做***的 Python 中文分詞組件。精確模式,試圖將句子最精確地切開,適合文本分析;全模式,把句子中所有的可以成詞的詞語都掃描出來, 速度非???,但是不能解決歧義;搜索引擎模式,在精確模式的基礎(chǔ)上,對長詞再次切分,提高召回率,適合用于搜索引擎分詞。
項目地址:https://github.com/fxsjy/jieba
4.TextBlob
TextBlob是一個用于處理文本數(shù)據(jù)的Python庫。它提供了一個簡單的API用于常見的自然語言處理(NLP)任務(wù),如詞性標(biāo)注,名詞短語提取,情感分析,分類,翻譯等。
項目地址:http://textblob.readthedocs.io/en/dev/
5.SnowNLP
SnowNLP是一個python寫的類庫,可以方便的處理中文文本內(nèi)容,是受到了TextBlob的啟發(fā)而寫的,由于現(xiàn)在大部分的自然語言處理庫基本都是針對英文的,于是寫了一個方便處理中文的類庫,并且和TextBlob不同的是,這里沒有用NLTK,所有的算法都是自己實現(xiàn)的,并且自帶了一些訓(xùn)練好的字典。注意本程序都是處理的unicode編碼,所以使用時請自行decode成unicode。
項目地址:https://github.com/isnowfy/snownlp
6.TextGrocery
TextGrocery是一個基于LibLinear和結(jié)巴分詞的短文本分類工具,特點是高效易用,同時支持中文和英文語料。
項目地址:https://github.com/2shou/TextGrocery
網(wǎng)站欄目:6個高效的語言處理Python庫,你用過幾個?
標(biāo)題路徑:http://fisionsoft.com.cn/article/dhsciod.html


咨詢
建站咨詢
