《Natural Language Processing with Python》介绍了如何使用Python进行自然语言处理。读者可以学习如何处理文本数据、分词、词性标注、命名实体识别等技术。通过本书的指导,读者可以掌握NLP的基础知识,并且可以通过实践项目加深理解。这本书对于想要学习NLP的初学者来说是一本很好的入门指南。
Natural Language Processing with Python读后感第一篇
结合Python的语言特性,循序渐进介绍了很多自然语言处理方面的知识,以及如何使用nltk进行NLP。再次体会到Python在文本处理方面有着很多先天优势。
不过,如果Python较为熟悉,这本书的很多章节可以略过。
1/3页Natural Language Processing with Python读后感第二篇
记得2007年上半年,最初读到这本书的时候还是草稿,用了整个一个暑假来仔细研究这本书,现在已经和以前的有很大不同了!
如果你要是自然语言学或语言信息处理相关专业的学生,又对python与nltk感兴趣的话,就看这本书吧,可以当做入门读物来看,整本书即涉及到了语料库的操作,也对传统的基于规则的方法有所涉及。全书包括了分词(tokenization)、词性标注(POS)、语块(Chunk)标注、句法剖析与语义剖析等方面,是nlp中不错的一本实用教程。
当然缺点还是有的。算是鸡蛋挑骨头吧。首先、对理论介绍不够,这可能与本书实用性很强的写作风格有关,如果你要想了解更多的理论,可以看专门讲理论的书籍;其次、对中文介绍不多,bird好像是澳洲人……所以,如果各位要是想为中文信息处理做贡献的话,还是在看本书的同时,看看中文的paper吧,网上资料很多,不多说了;另外,这本书可能并不能涉及到NLTK中的全部模块与语料,所以在研究时,可借助NLTK的网站文档来学习。
这本书最早是作为NLTK的在线教程出现的,每次都随着NLTK的变化来改变,所以与NLTK关系很是“暧昧”,呵呵。总之,这本书可以说是学习NLTK的不二之选!
2/3页Natural Language Processing with Python读后感第三篇
粗略的看了一遍,最后几章几乎就是过了一眼。
有很多知识是暂时看不懂,过一段时间需要重读一遍。
没有提到中文的处理。不过大体的流程和原理应该是差不多的,书里提到了以下的技术,中文处理应该也同样需要,把看到大概的内容记录如下
1.Tokenize
2.Tagging,也就是给出词性标注,名词,动词,介词,形容词等等
这里提到了几种方法
简单的一种就是根据构词规则来做,比如ing结尾是动名词,ed结尾是动词过去式,es结尾是名词复数,等等,当然这样有不少缺陷。
也一种方法叫N-Gram Tagging,依据相连词的词性来确定,N=2,那就是2-gram,也叫bigram,比如两个句子 I read the book。I book the room。想要确定两个book的词性,通过学习发现在限定词后的book经常是名词,而在人称代词后的book经常是动词,于是就能区分这两个book的词性。
3.用文本的Features来做Classification
这一章里有个例子,统计情态动词的数量来区分文章的种类,发现
will使用频率最高的news,could用得最多的是romance,science这些词都相对比较少
4.IE,Information Extraction,主要是抽取非结构化文本中的信息组成结构化的信息
这里主要做的是Entity Recognition,处理的过程叫Chunking,然后再是Relation Recognition。
把标注好词性的token根据一些语法规则拼成更大单元的Chunk,有的是名词短语Noun Phrase Chunking,有的是动词 Verb Phrase Chunking,如果是名字还要做分类:人名,地点,时间,机构等,再用动词短语来确定他们之间的关系
后面的几章我没有再详细看了
3/3页