100、基础文本分析模型之一:隐语义分析

本周我们分享了文本挖掘中的一个重要工具LDA(Latent Diriclet Allocation),这是一个出色的无监督学习的文本挖掘模型。 今天,我们沿着文本分析这一方向继续展开。我们首先回到一个最基础的问题,那就是文本分析的基础模型都有哪些,这...

AI技术内参

101、基础文本分析模型之二:概率隐语义分析

在上一篇的分享里,我们展开了文本分析这个方向,讨论了“隐语义分析”(Latent Semantic Indexing)这个模型。隐语义分析的核心是基于矩阵分解的代数方法。这种方法的好处自然是能够直接利用代数计算方法对文本进行分析,而短板则是无法很好地...

AI技术内参

102、基础文本分析模型之三:EM算法

周一我们分享的模型是“概率隐语义分析”(Probabilistic Latent Semantic Indexing),或者简称为PLSA,这类模型有效地弥补了隐语义分析的不足,在LDA兴起之前,成为了有力的文本分析工具。 不管是PLSA,还是LDA...

AI技术内参

103、为什么需要Word2Vec算法

至此,关于文本分析这个方向,我们已经介绍了 LDA(Latent Diriclet Allocation),这是一个出色的无监督学习的文本挖掘模型。还有“隐语义分析”(Latent Semantic Indexing),其核心是基于矩阵分解的代数方法...

AI技术内参

104、Word2Vec算法有哪些扩展模型

从上一期的分享开始,我们进入到文本分析的另外一个环节,那就是介绍一个最近几年兴起的重要文本模型,Word2Vec。这个模型对文本挖掘、自然语言处理等很多领域都有重要影响。我们讨论了Word2Vec模型的基本假设,主要是如何从离散的词包输入获得连续的词...

AI技术内参

105、Word2Vec算法有哪些应用

周一,我们分享了三个比较有代表意义的Word2Vec的扩展模型,主要有两种思路,从词的上下文入手重新定义上下文,或者对完全不同的离散数据进行建模。 今天,我们来看一看Word2Vec在自然语言处理领域的应用。如果我们已经通过SG模型、CBOW模型或者...

AI技术内参

106、序列建模的深度学习利器:RNN基础架构

前面我们介绍了一个重要的文本模型,Word2Vec,我们聊了这个模型的基本假设,模型实现,一些重要的扩展,以及其在自然语言处理各个领域的应用。 接下来,我们来讨论更加复杂的**基于深度学习的文本分析模型**。这些模型的一大特点就是更加丰富地利用了**...

AI技术内参

107、基于门机制的RNN架构:LSTM与GRU

这周,我们继续来讨论基于深度学习的文本分析模型。这些模型的一大特点就是更加丰富地利用了文字的序列信息,从而能够对文本进行大规模的建模。在上一次的分享里,我们聊了对序列建模的深度学习利器“递归神经网络”,或简称RNN。我们分析了文本信息中的序列数据,了...

AI技术内参

108、RNN在自然语言处理中有哪些应用场景

周一我们进一步展开了RNN这个基本框架,讨论了几个流行的RNN模型实现,从最简单的RNN模型到为什么需要“门机制”,再到流行的LSTM和GRU框架的核心思想。 今天,我们就来看一看RNN究竟在自然语言处理的哪些任务和场景中有所应用。 简单分类场景我们...

AI技术内参

109、对话系统之经典的对话模型

在文本分析这个重要的环节里,我们已经分享了Word2Vec模型,包括模型的基本假设、模型实现以及一些比较有代表意义的扩展模型。我们还讨论了基于深度学习的文本分析模型,特别是对序列建模的深度学习利器RNN,包括RNN的基本框架,流行的RNN模型实现,以...

AI技术内参
191011121317