新書推薦:
《
非言语沟通经典入门:影响人际交往的重要力量(第7版)
》
售價:HK$
123.1
《
山西寺观艺术壁画精编卷
》
售價:HK$
1680.0
《
中国摄影 中式摄影的独特魅力
》
售價:HK$
1097.6
《
山西寺观艺术彩塑精编卷
》
售價:HK$
1680.0
《
积极心理学
》
售價:HK$
55.8
《
自由,不是放纵
》
售價:HK$
54.9
《
甲骨文丛书·消逝的光明:欧洲国际史,1919—1933年(套装全2册)
》
售價:HK$
277.8
《
剑桥日本戏剧史(剑桥世界戏剧史译丛)
》
售價:HK$
201.6
編輯推薦:
从新闻、讲话,到社交媒体上非正式的聊天,自然语言是*丰富、且尚未充分利用的数据源之一。不但数据源源不断,在使用环境中还在不断调整、变化;还包含了很多传统数据源未能传达的信息。打开自然语言宝藏的钥匙,就是基于文本分析的创造性应用。这本实战指南介绍了从数据科学家角度如何建立语言感知产品并有效应用机器学习。您将学到如何用Python实现健壮、可重复和可扩展的文本分析,包括上下文特征和语言特征工程、向量化、分类、主题建模、实体解析、图分析和可视化操作。在本书的*后,您将获得解决众多复杂现实问题的实用方法。
內容簡介:
预处理并将文本向量化成高维特征表示。执行文档分类和主题建模。通过可视化诊断指导模型选择过程。提取关键短语、命名实体和图结构,实现文本数据推断。建立对话框架,实现聊天机器人和语言驱动交互。用Spark扩展处理能力,用神经网络实现对更复杂模型的支持。
關於作者:
Benjamin Bengfort是一位专门研究分布式系统、机器学习及其他相关技术的计算机科学家。Rebecca Bilbro是一名数据科学家和Python程序员,致力于研究机器学习工作流的可视化诊断。Tony Ojeda是District Data Labs的创始人和CEO,专注于商业策略应用分析、优化、预测服务,以及开源工具使用课程。陈光,北京邮电大学副教授,主要研究方向为机器学习和自然语言处理。
目錄 :
目录
前言 1
第1章 语言与计算 13
数据科学范式 14
语言感知数据产品 .16
语言即数据 21
小结 .29
第 2 章 构建自定义语料库 31
语料库是什么? .32
语料库数据管理 .35
语料库读取器 39
小结 .49
第3章 语料库预处理与处置 50
分解文档.50
语料库的转换 60
小结 .67
第4章 文本向量化和转换流水线 68
空间中的词 69
Scikit-Learn API .81
流水线 .88
小结 .93
第5章 面向文本分析的文本分类 95
文本分类.96
构建文本分类应用 .99
小结 .110
第6章 文本相似性聚类 . 112
文本上的无监督学习 112
文档相似性聚类 .114
文档主题建模 127
小结 .139
第7章 上下文感知文本分析 140
基于语法的特征提取 141
n-Gram特征提取 147
n-Gram语言模型 155
小结 .165
第8章 文本可视化 166
可视化特征空间 .167
模型诊断.185
可视化操纵 193
小结 .196
第9章 文本的图分析 .198
图计算与分析 200
从文本中抽取图 .204
实体解析.216
小结 .221
第10章 聊天机器人 223
对话基础.224
礼貌对话规则 231
有趣的问题 239
学习帮助.250
小结 .257
第11章 利用多处理和Spark扩展文本分析259
Python多处理 .260
Spark集群计算 271
小结 .289
第12章 深度学习与未来 .291
应用神经网络 292
神经网络语言模型 .292
情感分析.303
未来(几乎)已来 .309
词汇表 311
內容試閱 :
我们生活在一个充满各种各样数字助理的世界,这使我们能与其他人以及大量的信息资源建立联系。这些智能设备的部分吸引力,在于它们不仅能传达信息;在一定程度上,它们也能理解信息,将大量数据聚合、过滤和汇总,处理成易于理解的形式,在高层次上促进人与人的交互。机器翻译、问答系统、语音识别、文本摘要,以及聊天机器人等应用,正成为我们计算生活中不可或缺的一部分。
如果已经浏览过本书,那么你可能会和我们一样,对将自然语言理解组件包含在更广泛的应用和软件中的可能性感到兴奋。语言理解组件建立在现代文本分析框架之上:结合了字符串操作、词汇资源、计算语言学和机器学习算法等技术、方法的工具包,用来在语言数据和机器可理解形式之间进行相互转换。不过,在我们开始讨论这些方法和技术之前,明确这套框架的挑战和机遇,以及为什么现在讨论这些正当其时这两个问题非常重要。
典型的美国高中毕业生已经记住了大约60000 个单词和数千个语法概念,足以在专业环境中进行交流。这看起来可能很多,但是想想看,写个简短的Python 脚本,可以快速访问在线词典里任何术语的定义、词源和用法,又是多么微不足道。实际上,美国人日常实践中使用的各种语言概念,仅仅是牛津词典的十分之一,也只有目前谷歌识别范围的5%。
然而,能随时访问规则和定义,显然还不足以进行文本分析。如果是这样,Siri 和Alexa 就已经能完全理解我们,谷歌也可以只返回少量搜索结果,我们就可以马上和世界上讲任何语言的人聊天。为什么人类可以从很小的时候(在他们远未积累到成年人的词汇量之前)就能流畅地完成上述任务?而已有的计算版本却远不能与之匹敌?自然语言不仅仅需要死记硬背,显然,仅是确定性计算技术是不够的。
自然语言的计算挑战
自然语言不是用规则定义的,而是通过使用来定义的,只有通过逆向工程才能计算。在很大程度上,我们能决定使用的词具体什么含义,尽管这种造义只能通过协同才能完成。将crab这个词从海洋动物延伸到脾气乖戾的人,或采用特定侧方运动形式的人,需要发言者 作者和听众 读者在交流发生时对词的含义达成一致。因此,语言通常会受到人群和地域限制,那些和我们有过类似生活经历的人,往往更容易和我们达成对含义的一致理解。
与正式语言必须面向特定领域不同,自然语言强调一般性和通用性。我们用同一个词来订购海鲜午餐,写一首诗表达不满情绪,讨论天文并聊聊星云。为了捕捉各种话语中表达的程度,语言必须是冗余的。冗余带来了挑战,我们不能(也没有)为每种关联指定特别的文字符号,在默认情况下每个符号都不明确。词汇歧义和结构歧义是人类语言的重要成果;模糊不仅能够使我们创造新的想法,还可以让具有不同经历的人跨越国界和文化进行交流,尽管偶然的误会几乎无法避免。
语言数据:词条和词
为了充分挖掘以语言形式编码的数据,我们有必要重新思考,认为语言并非直观和自然的,而是随意和模糊的。文本分析的单位是词条(token),一个表示文本的编码字节串。相对应的,词(words)是表示意义的符号,能将文字结构或语言结构映射到声音元素和视觉元素。词条不是词(虽然做到只见词条不见词很难)。考虑词条crab,如图P-1 所示。该词条表示词义crab-n1,即第一个名词定义,可食用的甲壳类动物,生活在海边,长有可以夹合的钳子。
所有这些其他概念会以某种形式附加在这个符号上,但符号完全是随意的;对希腊的读者来说,类似的映射表达了略有差别的内涵,但意义基本保持不变。这是因为词没有固定的、普遍的、不受文化和语言等语境影响的意义。英语的读者习惯于适应性单词形式,通过增加前缀、后缀来改变时态、性别等。另外,中国的读者能识别很多由顺序决定意义的象形文字。
冗余、含糊、带有特定角度,意味着自然语言是动态的,通过快速演进来适应当下的人类体验。现在,我们听说关于表情符号的语言学研究已经可以翻译白鲸可能也不觉得惊讶。注1 就算我们能系统定义表情符号使用的语法,等我们完成,语言本身也已经变了哪怕是表情符号语言!例如,就在我们开始写这本书的时候,手枪的表情符号就已经从武器变成了玩具(至少在智能手机上显示时是这样),这反映了我们看待和使用该符号时文化层面的转变。
除了适应语言的新符号和结构,还要适应新定义、新的上下文和用法。battery一词在电子时代意义发生了改变,表示将化学能转化为电能的储存装置。但是从Google Books Ngram Viewer 注2 上可以看到,19 世纪末20 世纪初,battery更为广泛地用作截然不同的含义,表示一系列相互连接的机器或强大的枪支装置。语言只有放在特定的上下文里才能被准确理解,这个上下文除了前后文字以外还包括所处的时间范围。准确识别单词含义需要的计算远比查字典复杂得多。
机器学习
自然语言的特殊性在胜任人类交流工具的同时,也让它很难用确定规则来进行解析。人类在语言理解方面的灵活性,决定了虽然只用到60000 个符号,我们却可以在语言即时理解方面远远超过计算机。因此,在软件环境中,我们需要具有同样模糊性和灵活性的计算技术,统计机器学习是目前文本分析领域的最新技术。虽然自然语言处理的应用几十年前就有了,但因为有了机器学习才得以实现之前无法想象的一定程度的灵活性和响应能力。
机器学习的目标是将数据拟合到某个模型,创建现实世界的表示,该表示能基于发现的模式做出决策,生成对新数据的预测。实际上,这是通过选择符合输入数据与目标数据间关系的模型族来实现的,该模型族确定某种包含参数和特征的形式,然后用优化程序来最小化模型对训练数据的误差。在训练好的模型上引入新数据,就可以进行预测,返回标签、概率、归属或具体值。面临的最大挑战,是在准确学习已知数据模式和形成良好泛化能力之间取得平衡,这样模型才能在没见过的数据上表现良好。
很多语言类应用不是单一的机器训练模型,而是多个相互联系、相互影响的模型。模型可以用新数据重新训练、面向新的决策空间,甚至对每个用户进行定制,以便在输入新信息、或应用各方面随时间变化时,可以继续正常使用。在应用程序背后,各个相互竞争的模型可以竞争、衰退,并最终消亡。这意味着机器学习应用可以实现生命周期管理,通过日常维护和对工作流的监控,来实现和语言相关的动态性和局部特性。
文本分析工具
由于文本分析主要是应用机器学习技术,因此需要具有丰富的科学、数字计算库的语言。针对文本机器学习,Python 有一组强大的工具集,包括Scikit-Learn、NLTK、Gensim、spaCy、NetworkX 和Yellowbrick。
Scikit-Learn 是 SciPy(Scientific Python)的扩展,提供通用机器学习API。 Scikit-Learn 构建于Cython 之上,基于高性能C 语言库,如LAPACK、LibSVM、Boost 等,兼具高性能和易用性,最适合分析中小型数据集。Scikit-Learn 可用于开源和商业项目,其为回归、分类、聚类和降维模型提供了统一界面,同时提供了交叉验证和超参数调整的实用工具。
NLTK,自然语言工具集,由学术界专家用 Python 编写,称得上是NLP内置电池级资源。最早是面向教学的NLP 工具集,包含语料库、词汇资源、语法、语言处理算法和预训练模型,可以帮助Python 程序员快速开始处理各种语言的文本数据。
Gensim 是个强大、高效、无障碍的工具库,专注于文本无监督语义建模。最初设计用来探索文档间的相似性(生成相似性),目前开放了基于潜在语义技术的主题建模方法,也包括其他无监督库,如word2vec。
spaCy 将学术领域最先进技术封装成简单易用的 API,提供产品级语言处理能力。特别是,spaCy 专注于面向深度学习的文本预处理,以及用大量文本构建信息提取系统或自然语言理解系统。
NetworkX 是全面的图分析包,用于生成、序列化、分析和操纵复杂网络。虽然不是专门的机器学习或文本分析库,但图数据结构能对复杂关系进行编码,图算法可以遍历图或在其中发现意义,是文本分析工具集不可或缺的一部分。
Yellowbrick 是一套视觉诊断工具,用于分析和解释机器学习工作流。通过扩展Scikit-Learn API,Yellowbrick 提供了直观、易于理解的特征选择、建模和超参数优化过程的可视化,引导模型选择过程找到最有效的文本数据模型。
本书的主要内容
本书中我们专注于用Python 库进行应用机器学习的文本分析。本书侧重面向应用,意味着我们不会关注语言学或统计模型的学术内涵,而是关注如何在软件应用中用文本训练模型的有效部署。
我们所说的文本分析模型与机器学习工作流直接相关,找到由特征、算法和超参数组成的模型的搜索过程,使之能很好地匹配训练数据,并对未知数据生成最佳估计。该工作流从训练数据集的构建和管理开始,该数据集也叫做文本分析语料库。然后,我们将探索特征提取和预处理方法,进而将文本重组成机器学习可以理解的数字数据。基于掌握的一些基本特征,我们会探索文本分类和文本聚类技术,并对本书前几章进行总结。
之后的章节侧重于扩展能实现更丰富功能的模型,并创建文本感知应用。我们首先探索如何将上下文嵌入得到特征,然后对文本进行可视化解释,以指导后续的模型选择过程。接下来,我们将研究如何使用图分析技术,分析从文本中提取的复杂关系。然后,我们转而探索会话代理,并加深我们对文本句法和语义分析的理解。我们用基于多进程和Spark 的可扩展文本分析的实践讨论来结束全书,最后,我们将探讨文本分析的下一阶段:深度学习。
本书的读者对象
本书面向有兴趣将自然语言处理和机器学习应用于其软件开发工具集的Python 程序员。我们不要求读者具有特殊的学术背景或数学知识,而是专注于工具和技,避免冗长的解释。本书中我们主要分析英语语言,因此了解基本的语法知识,如名词、动词、副词和形容词如何相互关联,对理解本书是有帮助的。对从未接触过机器学习和语言学,但对Python 编程有较深理解的读者,也不会对我们提到的概念感到不知所措。
使用示例代码和GitHub 代码库
本书中的示例代码旨在描述如何编写Python 代码,以执行特定任务。由于面向读者,所以代码比较简洁,通常省略执行时所需的关键语句,例如,从标准库导入的声明。此外,代码通常基于本书其他部分或章节中的代码构建,有时需要稍加修改,才能在新的场景下工作。例如,我们可以按如下方式定义一个类:
class Thingobject:
def __init__self, arg:
self.property = arg
这个类定义用于描述类的基本属性,并设置关于实现细节的后续讨论的大体框架。稍后,我们可以向类中添加方法,如下所示:
...
def methodself, *args, **kwargs:
return self.property
请注意代码段开头的省略号,表示这是前一个代码段中类定义的延续。这意味着简单地复制和粘贴示例代码段可能无法运行。重要的是,代码可能会对存储在磁盘上的数据进行操作,而数据位于Python 程序执行时可访问的位置。我们尽量保证通用,但无法考虑所有操作系统和数据源的情况。为了给可能想要运行本书中示例的读者提供支持,我们在GitHub 代码库中保存了完整的可执行示例。这些示例可能与书中略有不同,但在任何系统上都应该可以用Python 3 轻松执行。另外,请注意,代码库会保持更新,请查看README 了解发生的任何改动。你当然可以分支存储并修改代码,以便在自己的环境中运行,我们强烈建议这样做!
排版约定
本书使用如下的排版约定:
斜体
表示新术语、URL、email 地址、文件名和文件扩展名。
等宽字体(constant width)
表示程序片段,以及书中出现的变量、函数名、数据库、数据类型、环境变量、语句和关键字等。
加粗等宽字体(constant width bold)
表示应该由用户输入的命令或其他文本。
等宽斜体(constant width italic)
表示应该由用户输入的值或根据上下文确定的值替换的文本。
使用代码示例
补充材料 代码示例、练习等 可在这里下载:https:github.comfoxbookatap。
本书的目的是帮助你完成工作。一般来说,你可以在自己的程序或者文档中使用本书附带的示例代码。你无需联系我们获得使用许可,除非你要复制大量的代码。例如,使用本书中的多个代码片段编写程序就无需获得许可。但以CD-ROM 的形式销售或者分发OReilly 书中的示例代码则需要获得许可。回答问题时援引本书内容以及书中示例代码,无需获得许可。在你自己的项目文档中使用本书大量的示例代码时,则需要获得许可。
我们不强制要求署名,但如果你这么做,我们深表感激。署名一般包括书名、作者、出版社和书号。例如:Applied Text Analysis with Python by Benjamin Bengfort, Rebecca Bilbro, and Tony Ojeda OReilly. 978-1-491-96304-3。
本书的BibTex 引用信息如下:
@book{
title = {Applied {{Text Analysis}} with {{Python}}},
subtitle = {Enabling Language Aware {{Data Products}}},
shorttitle = {Applied {{Text Analysis}} with {{Python}}},
publisher = {{O''Reilly Media, Inc.}},
author = {Bengfort, Benjamin and Bilbro, Rebecca and Ojeda, Tony},
month = jun,
year = {2018}
}
如果你觉得自身情况不在合理使用或超出上述许可范围内,请通过邮件和我们联系,地址是:permissions@oreilly.com。
OReilly Safari
Safari(以前叫做Safari Books Online)是一个会员制的培训和参考平台,面向企业、政府、教育工作者和个人。会员可访问来自250 多家出版商的数千本书籍、培训视频、学习路径、互动教程和精选播放列表,包括O''Reilly Media,Harvard Business Review,Prentice Hall Professional,Addison-Wesley Professional,Microsoft Press,Sams,Que ,Peachpit Press,Adobe,Focal Press,Cisco Press,John Wiley & Sons,Syngress,Morgan Kaufmann,IBM Redbooks,Packt,Adobe Press,FT Press,Apress,Manning,New Riders,McGraw-Hill,Jones & Bartlett 和Course Technology 等。
更多信息,请访问 http:oreilly.comsafari。
联系我们
请把对本书的评价和问题发给出版社:
美国:
O''Reilly Media, Inc.
1005 Gravenstein Highway North
Sebastopol, CA 95472
中国:
北京市西城区西直门南大街2号成铭大厦C座807室(100035)
奥莱利技术咨询(北京)有限公司
本书有一个专属网页(http:bit.lyapplied-text-analysis-with-python),你在上面可以找到图书的相关信息,包括勘误表、示例代码,以及其他信息。
对于本书的评论和技术性问题,请发送电子邮件到:bookquestions@oreilly.com。
要了解更多 O''Reilly 图书、培训课程、会议和新闻的信息,请访问以下网站:http:www.oreilly.com。
我们的Facebook:http:facebook.comoreilly。
我们的Twitter:http:twitter.comoreillymedia。
我们的YouTube:http:www.youtube.comoreillymedia。
致谢
感谢我们的技术评审员,他们在第一稿花费了大量时间和精力,为本书提供了反馈,这些都极大地影响了本书。 Dan Chudnov 和Darren Cook 提供了出色的技术反馈,帮我们保持在正常的工作轨道上,Nicole Donnelly 提供了新的视角,使我们能够为读者更好地完善内容。我们还要感谢LevKonstantinovskiy 和Kostas Xirogiannopoulos,他们提供了学术方面的反馈,以确保我们的内容是最先进的。
永远微笑,不停鼓励我们的编辑Nicole Tache,我们说再多也难以表达谢意。她从一开始就引导了这个项目,相信我们,即使终点看起来遥不可及。她对我们以及我们写作过程的支持,她宝贵的反馈和及时的建议使本书得以诞生。我们的朋友和家人,没有你们的支持和鼓励,我们就无法开展工作。我们的父母,Randy 和Lily,Carla 和Griff,Tony 和Teres,你们给我们灌输了创造性思维、职业道德、技术能力和对学习的热爱,使本书成为可能。我们的爱人,Jacquelyn,Jeff 和Nikki,即使面对即将错过的最后期限,不得不在深夜和周末加班写作,你们坚定的决心也撑起了我们的世界。最后,我们的孩子,Irena,Henry,Oscar 和Baby Ojeda,希望有一天你们能看到这本书,然后想:哇,我们的父母在计算机还不能像普通人一样说话的时候就写出了这本书他们多大了?