GitHub Projects Collection
Sentence ClassificationCNN sentence classification for sentiment analysishttps://github.com/yoonkim/CNN_sentence.gitKim, Yoon. “Convolutional neural networks for sentence classification.” arXiv prepri
Sentence ClassificationCNN sentence classification for sentiment analysishttps://github.com/yoonkim/CNN_sentence.gitKim, Yoon. “Convolutional neural networks for sentence classification.” arXiv prepri
Ridge Regression 岭回归式子3.41 $\hat{\beta^{ridge}}=argmin_{\beta}\{\sum_1^N (y_i-\beta_0-\sum_{j=1}^p x_{ij}\beta_j)^2 + \lambda \sum_{j=1}^p \beta_j^2\}$ 其中的$\lambda$是用来控制shrinkage的量的。这种用参数的二次型来控制预测出来的
推荐的一个关于深度学习的参考资料声明这个文章的内容转载自a link Deep Learning Papers Reading Roadmap If you are a newcomer to the Deep Learning area, the first question you may have is “Which paper should I start reading from?”
《Deep Learning》by LeCun&Bengio&Hinton介绍这是自然杂志上的一篇关于深度学习的论文,主要讲了深度学习如何替代传统的机器学习方法来实现人工智能的系统。 而文章的三个作者都是DL领域的鼻祖级人物。 有监督的学习“浅层”的分类器在面对一个分辨图片中狼的种类的任务的时候,可能会因为狼在图片中的位置、姿势相近而导致分类错误。这也是为什么一个“浅层”的分类器需
Hopefield网络简介Hopefield网络是一个非同步的神经网络,是一个异步的,跟BP网络不同。同时它分为两种类型,离散型和连续型。 同步与异步网络正确设计一个递归神经网络的问题在于所有计算元素之间的充分的同步。在MP模型的网络中,我们假设每个计算元素被激活都需要消耗一定的时间。这里将要讨论的是没有全局同步的神经网络。计算节点会在不同的时间被激活,并且会在一定的时间后提供计算,这个网络是随机
神经网络5.1 神经元模型M-P神经元模型:$y=f(\sum_{i=1}^{n}w_i x_i - \theta)$ 最后还需要一个激活函数来处理并产生神经元的输出。因为以阶跃函数作为激活函数的话,其具有不连续、不光滑等不太好的性质,因此通常使用Sigmoid函数作为激活函数。它把可能在较大范围内变化的输入值挤压到(0,1)输出值范围内,因此有时也称为挤压函数(squashing functio
Introduction本来是在看一些关于NLP的一本老教材,但是鉴于现在组里RNN、CNN满天飞,忍不住先来窥探一下Deep Learning在NLP一些传统问题上有什么魔法。 The neural word embedding approach的优势相比于LSA方法,neural word embeddings 可以变得更有意义,通过对一个或多个任务增加监督。 无监督的词向量学习主要思想:一个