1区,2区,3区,4区是sci期刊的分区,SCI期刊的分区有两种,一种是JCR的分区,另一个是中科院的分区,这两类分区很类似,都是分为4个区,分区的标准也都是期刊的影响因子,至于不同区的期刊的区别,很显然的区别就是这4个区是按照影响因子由高到低排序的,1区期刊是影响因子最高,学术价值最高,影响力最大的期刊,4区期刊就是4个区中影响因子最低的一类刊物。1区期刊不论是JCR分区的1区,还是中科院的1区,只要是1区期刊,都是国际上知名的学术期刊,这部分期刊发表难度是非常大的,也不是任何人都可以发表的,对于普通作者来说,是非常困难的,且不说文章难写,对作者身份职务可能都会有一定门槛,1区期刊是不适……

############################################################################### VIM CHEATSHEET (中文速查表) - by skywind (created on 2017/10/12)# Version: 20, Last Modified: 2018/02/24 14:30# https://github.com/skywind3000/awesome-cheatsheets###########################################################……

<div class="post-content" itemprop="text" style="height: auto !important;"> <div class="c-contents" style=""> <div class="contents-inner"> ……

忽有故人心上过,回首山河已是秋。两处相思同淋雪,此生也算共白头。忽有故人心上过,回首山河已入冬。他朝若是同淋雪,此生也算共白头。白头若是雪可替,世间何来伤心人。此时若有君在侧,何须淋雪作白头。

torchvision 是PyTorch中专门用来处理图像的库。这个包中有四个大类。torchvision.datasets 用来进行数据加载的,PyTorch团队在这个包中帮我们提前处理好了很多很多图片数据集。torchvision.models 提供已经训练好的模型,让我们可以加载之后,直接使用。我们可以直接使用如下代码来快速创建一个权重随机初始化的模型:import torchvision.models as modelsresnet18 = models.resnet18()alexnet = models.alexnet()squeezenet = models.squeezen……

卷积核卷积核就是图像处理时,给定输入图像,输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核。又称滤波器。卷积核计算全连接层全连接层 Fully Connected Layer 一般位于整个卷积神经网络的最后,负责将卷积输出的二维特征图转化成一维的一个向量,由此实现了端到端的学习过程(即:输入一张图像或一段语音,输出一个向量或信息)。全连接层的每一个结点都与上一层的所有结点相连因而称之为全连接层。由于其全相连的特性,一般全连接层的参数也是最多的。主要作用全连接层的主要作用就是将前层(卷积、池化等层)计算得到的特征空间映射样本标记空间……

什么是lstm,bilstmlstm:是rnn的一种,针对有序的数据,有对数据信息长短记忆的功能bilstm:是前向lstm和后项lstm的组合为什么要lstm, bilstmlstm: 其可以更好的捕获较长距离的依赖关系,通过训练过程可以学到记忆哪些信息和遗忘哪些信息; 举个例子,“我不觉得他好”,“不”字是对“好”的否定,既该句子的情感分析为贬义。bilstm: lstm建模存在一个问题,无法编码从后向前的信息,而bilstm可以;举个例子,“这个餐厅脏的不行,没有隔壁好”,“不行”是修饰“脏”的程度的,只有bilstm模型才能更好的捕获双向语义。lstm原理详细计算过程Bilstm原理

一、BIO 三位标注 (B-begin,I-inside,O-outside)B-X 代表实体X的开头, I-X代表实体的结尾 O代表不属于任何类型的其中,“B-X”表示此元素所在的片段属于X类型并且此元素在此片段的开头,“I-X”表示此元素所在的片段属于X类型并且此元素在此片段的中间位置,“O”表示不属于任何类型。二、BMES 四位序列标注法B表示一个词的词首位值,M表示一个词的中间位置,E表示一个词的末尾位置,S表示一个单独的字词。我/S 是/S 广/B 东/M 人/E (符号标注,‘东’是‘广’和‘人’的中间部分,凑成‘广东人’这个实体)我/ 是/ 广东人/ (……

决策树在《统计学习方法》书中对决策树的模型有一个规范的回答。最顶端的是根节点,对样本所有的预测都是从根节点开始依次判断。每个圆形的都是一个用于判断的节点,每一个节点只对属性的其中一个特征进行判断,比如说上文的苹果,圆形节点要么判断颜色,要么判断硬度等等,总之只判断其中的一个特征。在判断节点中只保存告诉你该往哪走的信息,在判断节点中并没有有关结论的信息。矩形节点就是标记节点,在判断中走到矩形就可以认为预测过程结束,将矩形中的标签作为预测结果返回。那么在训练过程中构建这棵决策树的时候需要怎么做呢?就是一个一个特征属性依次比较过去然后建立分支吗?不是的,我们需要挑选最有代表性的特征。比如说苹果的……