分类:: Machine Learning

0

Monte Carlo Methods

Sampling and Monte Carlo MethodsWhy Sampling蒙特卡洛方法主要是为了计算出积分或者某些目标的近似值,通过随机采样的方式,这种在可求导的情况下可以提高计算速度。比如说用minibatch的方式来估计training loss。除此之外,有些时候还需要我们去估计intractable的值。 Basics of Monte Carlo Sampling$$s =

0

Reinforcement Learning

入门Environment是确定的,还有一个Replay Memory来保存已被观测到的状态转移他们的目标是训练一个discounted并且cumulative的Reward函数。他让更久之后的reward的重要性降低。 Q-learning的主要思想是,如果我们有了一个Q函数 $Q^*: State \times Action \rightarrow \mathbb{R}$那么我们就能够知道我们

0

EM算法

EM算法的全称是Expectation Maximization algorithm。它主要是为了解决存在隐变量Z的情况下如何去估计$P(Y|\theta)$。在实际中可能是对模型做极大思然估计,也可能是做极大后验概率的估计。资料来自李航的小蓝书的第九章,EM算法及其推广,因为在VAE模型中,如何去估计参数,也是参照了EM算法的思想。去优化对数似然函数的一个下界。 三硬币模型首先先看Bernoul

0

Support Vector Machine

第七章 支持向量机7.1线性可分支持向量机与硬间隔最大化7.1.1线性可分支持向量机一般的,当训练数据集线性可分时,存在无穷个分离超平面可将两类数据正确分开。感知机利用误分类最小的策略,求得分离超平面,不过这时的解有无穷多个,线性可分支持向量机利用间隔最大化求最优分离超平面,这时,解时唯一的。 定义7.1(线性可分支持向量机) 超平面 $w^{*} \cdot x+b^{*}=0$ 决策函数 $