分类 算法 下的文章
卷积核卷积核就是图像处理时,给定输入图像,输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核。又称滤波器。卷积核计算全连接层全连接层 Fully Connected Layer 一般位于整个卷积神经网络的最后,负责将卷积输出的二维特征图转化成一维的一个向量,由此实现了端到端的学习过程(即:输入一张图像或一段语音,输出一个向量或信息)。全连接层的每一个结点都与上一层的所有结点相连因而称之为全连接层。由于其全相连的特性,一般全连接层的参数也是最多的。主要作用全连接层的主要作用就是将前层(卷积、池化等层)计算得到的特征空间映射样本标记空间……
什么是lstm,bilstmlstm:是rnn的一种,针对有序的数据,有对数据信息长短记忆的功能bilstm:是前向lstm和后项lstm的组合为什么要lstm, bilstmlstm: 其可以更好的捕获较长距离的依赖关系,通过训练过程可以学到记忆哪些信息和遗忘哪些信息; 举个例子,“我不觉得他好”,“不”字是对“好”的否定,既该句子的情感分析为贬义。bilstm: lstm建模存在一个问题,无法编码从后向前的信息,而bilstm可以;举个例子,“这个餐厅脏的不行,没有隔壁好”,“不行”是修饰“脏”的程度的,只有bilstm模型才能更好的捕获双向语义。lstm原理详细计算过程Bilstm原理
一、BIO 三位标注 (B-begin,I-inside,O-outside)B-X 代表实体X的开头, I-X代表实体的结尾 O代表不属于任何类型的其中,“B-X”表示此元素所在的片段属于X类型并且此元素在此片段的开头,“I-X”表示此元素所在的片段属于X类型并且此元素在此片段的中间位置,“O”表示不属于任何类型。二、BMES 四位序列标注法B表示一个词的词首位值,M表示一个词的中间位置,E表示一个词的末尾位置,S表示一个单独的字词。我/S 是/S 广/B 东/M 人/E (符号标注,‘东’是‘广’和‘人’的中间部分,凑成‘广东人’这个实体)我/ 是/ 广东人/ (……
决策树在《统计学习方法》书中对决策树的模型有一个规范的回答。最顶端的是根节点,对样本所有的预测都是从根节点开始依次判断。每个圆形的都是一个用于判断的节点,每一个节点只对属性的其中一个特征进行判断,比如说上文的苹果,圆形节点要么判断颜色,要么判断硬度等等,总之只判断其中的一个特征。在判断节点中只保存告诉你该往哪走的信息,在判断节点中并没有有关结论的信息。矩形节点就是标记节点,在判断中走到矩形就可以认为预测过程结束,将矩形中的标签作为预测结果返回。那么在训练过程中构建这棵决策树的时候需要怎么做呢?就是一个一个特征属性依次比较过去然后建立分支吗?不是的,我们需要挑选最有代表性的特征。比如说苹果的……
K近邻K近邻 - 有监督 - 一种多类划分的模型(K近邻不像感知机只能划分两种类,K近邻是一种多类划分的模型)K近邻算法缺点:1、在预测样本类别时,待预测样本需要与训练集中所有样本计算距离,当训练集数量过高时(例如Mnsit训练集有60000个样本),每预测一个样本都要计算60000个距离,计算代价过高,尤其当测试集数目也较大时(Mnist测试集有10000个)。2、K近邻在高维情况下时(高维在机器学习中并不少见),待预测样本需要与依次与所有样本求距离。向量维度过高时使得欧式距离的计算变得不太迅速了。本文在60000训练集的情况下,将10000个测试集缩减为200个,整个过程仍然需要308……