文章库ARTICLE COLUMN

  • 目标检测算法——YOLOV1解析

    目标检测算法——YOLOV1解析

    摘要:前言之前打算分析源码的,但是由于工作较忙就耽误了。直到红色框的网格处,我们发现有一只狗,这是标签为狗的类别数,为,为包含狗的物体框的中心坐标和宽高。在中只用物体框中心点所在的网格进行预测,因此红色框周围的网格的标签数据也全都是。 前言...

    DirtyMindDirtyMind 评论0 收藏0
  • 一文详解深度学习在命名实体识别(NER)中的应用

    一文详解深度学习在命名实体识别(NER)中的应用

    摘要:在的关键性基础任务命名实体识别,的研究中,深度学习也获得了不错的效果。简介又称作专名识别,是自然语言处理中的一项基础任务,应用范围非常广泛。 近几年来,基于神经网络的深度学习方法在计算机视觉、语音识别等领域取得了巨大成功,另外在自然语...

    DevTalkingDevTalking 评论0 收藏0
  • 美团深度学习系统的工程实践

    美团深度学习系统的工程实践

    摘要:在系统设计层面,由于其具有计算密集型的特性,所以与传统的机器学习算法在工程实践过程中存在诸多的不同。本文将介绍美团平台在应用深度学习技术的过程中,相关系统设计的一些经验。为此,目前业界针对深度学习训练的加速,提出了各种各样的解决方案。...

    awokezhouawokezhou 评论0 收藏0
  • 【DL-CV】浅谈GoogLeNet(咕咕net)

    【DL-CV】浅谈GoogLeNet(咕咕net)

    摘要:靓文推荐以上介绍的就是最原始最开始的,也叫,年提出的。在经过多年的改进后也有几个延伸版本了如使用了的版本,借鉴了的版本,这里也不再细讲,只推荐几篇我认为比较好的靓文各层的详细设定及其延伸版本更多自寻 咕了一个多月后终于重新变成人,今天...

    figofuturefigofuture 评论0 收藏0
  • 达观数据桂洪冠:一文详解知识图谱关键技术与应用

    达观数据桂洪冠:一文详解知识图谱关键技术与应用

    摘要:本文根据达观数据桂洪冠在达观杯文本智能处理挑战赛期间的技术直播分享整理而成,内容略有删减。达观数据成立于年,也可以把这个属性表示成一个三元组,就是达观数据,,年。知识图谱实际上是有望能够消除人类的自然语言跟深度学习黑盒之间的语义鸿沟。...

    BearyChatBearyChat 评论0 收藏0
  • OCR如何读取皱巴巴的文件?深度学习在文档图像形变矫正的应用详解

    OCR如何读取皱巴巴的文件?深度学习在文档图像形变矫正的应用详解

    摘要:随着深度学习的兴起,有学者提出用深度学习相关算法对扭曲文档图像进行矫正。考虑到实际业务的复杂性,传统方法无法胜任,因此本文结合深度学习语义分割领域的相关知识,针对现有方法的不足提出优化方案,实现扭曲文档的矫正。 一、背景 随着集团业务...

    hzxhzx 评论0 收藏0
  • 有了Python,我能叫出所有猫的名字

    有了Python,我能叫出所有猫的名字

    摘要:直到一天,一只凭空出现的机器猫识破了我的真身,她叫阿尔法猫。我问她怎么会知道我的名字,她说,因为有,她能叫出所有猫的名字。从今往后,我决定隐藏自己的真名,化名猫,开启学习求知探索利用的旅程。 话说,当年我刚来地球的时候,小心翼翼地伪装...

    ChaoChao 评论0 收藏0
  • 达观数据:深度学习来一波,受限玻尔兹曼机原理及在推荐系统中的应用

    达观数据:深度学习来一波,受限玻尔兹曼机原理及在推荐系统中的应用

    摘要:本文选取了达观推荐系统众多推荐算法的其中之一受限玻尔兹曼机,,进行详细介绍。主要包括三部分介绍的数学原理在推荐系统中的应用。这就是受限玻尔兹曼机中受限二字的本意。 深度学习相关技术近年来在工程界可谓是风生水起,在自然语言处理、图像和视...

    kelkel 评论0 收藏0
  • 【DL-CV】批量归一化(BN算法)

    【DL-CV】批量归一化(BN算法)

    摘要:为了解决这个问题出现了批量归一化的算法,他对每一层的输入进行归一化,保证每层的输入数据分布是稳定的,从而加速训练批量归一化归一化批,一批样本输入,,个样本与激活函数层卷积层全连接层池化层一样,批量归一化也属于网络的一层,简称。 【DL-C...

    aaronaaron 评论0 收藏0
  • 机器如何“猜你喜欢”?深度学习模型在1688的应用实践

    机器如何“猜你喜欢”?深度学习模型在1688的应用实践

    摘要:整个猜你喜欢的框架如图。这也是我们目前猜你喜欢线上在用的模型。猜你喜欢使用的数据特征体系如下图中滑窗期指目标前天的行为窗口。 一、背景 showImg("https://segmentfault.com/img/bVbgwJz?w=694&h=279"); 猜你喜欢是推荐领域极其经典的一个场景,...

    AshinAshin 评论0 收藏0
  • 信息论(一):概述

    信息论(一):概述

    摘要:香农信息概率信息信息是事物运动状态或存在方式的不确定性描述。信息论研究的对象目的和内容信息论研究的对象通信系统模型信源产生消息和消息序列的源。信道编码器信道纠错编码,提高信息传输的可靠性。信宿消息传送的对象。 1. 什么是信息 1.1 在通信...

    justjavacjustjavac 评论0 收藏0
  • 【DL-CV】正则化,Dropout

    【DL-CV】正则化,Dropout

    摘要:下面介绍这两种方法正则化正则化通过在损失函数上加上正则化损失来实现,根据正则化损失定义的不同,正则化又能分为好几种。正则化正则化是另一个常用的正则化方法,即对于网络中每个权重值,向损失函数增加一个作为其正则化惩罚,其中是正则化强度。 ...

    RyanQRyanQ 评论0 收藏0
  • 一文理解拉格朗日对偶和KKT条件

    一文理解拉格朗日对偶和KKT条件

    摘要:并不一定要用拉格朗日对偶。支持向量机实现非线性的方法的数学本质是升维,升维升到无穷维则无法表达所以还是使用拉格朗日对偶方法更好一点。 一. 最优化问题求解 1. 等式约束的极值求法 $$ egin{gather*} underset{t}{min} f(t) ; s.t.; h_i(t)=0,i=1...

    GitCafeGitCafe 评论0 收藏0
  • 【DL-CV】更高级的参数更新/优化(一)

    【DL-CV】更高级的参数更新/优化(一)

    摘要:对所有参数更新时应用同样的学习率梯度由许多偏导数组成,对应着各个参数的更新。对于偏导数大的,我们希望配个小的学习率给他对于偏导数小的,我们希望配个大的学习率给他,这样各个参数都能获得大致相同的更新幅度,提高网络的健壮性。 后续【DL-CV...

    Code4AppCode4App 评论0 收藏0
  • 【DL-CV】更高级的参数更新/优化(二)

    【DL-CV】更高级的参数更新/优化(二)

    续【DL-CV】更高级的参数更新(一) 【DL-CV】正则化,Dropout【DL-CV】浅谈GoogLeNet(咕咕net) Adagrad 全名 Adaptive gradient algorithm ,翻译过来就是适应梯度算法,该算法能根据梯度中偏导数的大小给不同的偏导数以不同的学习率,偏导数大(小...

    Big_fat_catBig_fat_cat 评论0 收藏0
  • 信息论(二):随机变量的信息度量

    信息论(二):随机变量的信息度量

    摘要:信息与信源信源发出的消息在未收到前是不确定的随机过程,可以用随机变量描述,或者说用一个样本空间及其概率测度来描述信源。离散信源可用离散型随机变量来表示,信源常记作,例如,天气预报。当事件发生后,表示该事件提供的信息量。 1.信息与信源 ...

    masturbatormasturbator 评论0 收藏0
  • 深度学习-初识

    深度学习-初识

    摘要:深度学习这几年很火,所以,从今天起涉足深度学习,为未来学习,注本博文为慕课课程学习笔记。用完后,可以通过发出以下命令来停用此环境提示符将恢复为您的默认提示符由所定义。本机器激活命令使用安装多层神经网络的实战神经元的实现 深度学习这几年...

    JackwooJackwoo 评论0 收藏0
  • 阿里副总裁玄难:藏经阁计划首次在阿里应用落地

    阿里副总裁玄难:藏经阁计划首次在阿里应用落地

    摘要:在全国知识图谱与语义计算大会上,阿里巴巴集团副总裁藏经阁计划阿里负责人墙辉玄难宣布藏经阁计划首次在阿里应用落地,以及首次披露大规模知识构建技术细节,并从三个方面进行了解读。 2018年4月,阿里联合清华大学、浙江大学、中科院自动化所、中科...

    AaronYuanAaronYuan 评论0 收藏0
  • 【DL-CV】卷积神经网络

    【DL-CV】卷积神经网络

    摘要:神经网络的补充前篇后篇数据预处理权重初始化经典神经网络搞明白后,我们接下来看看他的变种,也是本系列的主角卷积神经网络。卷积神经网络一个普通的卷积神经网络由各种层按顺序堆叠而成,这些层主要分三类卷积层池化层和全连接层。 【DL-CV】神经网...

    warmchengwarmcheng 评论0 收藏0
  • 【DL-CV】数据预处理&权重初始化

    【DL-CV】数据预处理&权重初始化

    摘要:然后,小随机数初始化如是可以的函数是基于零均值和标准差的一个高斯分布,不过不是越小越好,权重初始化的太小的话计算出来的激活值会很小,在反向传播中就会得到很小的梯度,后果你知道的。 【DL-CV】卷积神经网路【DL-CV】批量归一化(BN算法) 数...

    ShevaKuilinShevaKuilin 评论0 收藏0
  • 自学人工智能之数学篇,数学入门并不难

    自学人工智能之数学篇,数学入门并不难

    摘要:写本文的目的,希望结合众家之长,试图解决数学对机器学习入门的困扰。这里假设你上过大学的数学课,你就具备了机器学习的数学入门门槛了,之后的数学啃一啃是可以下来的。 写这篇文章很久想了很久,到底该怎么写? 关于数学与机器学习的关系,观点很...

    PingCAPPingCAP 评论0 收藏0
  • 【DL-CV】【深度学习-计算机视觉】系列简介及入门推荐

    【DL-CV】【深度学习-计算机视觉】系列简介及入门推荐

    摘要:最后还是强调一下自学的重要性,深度学习及其分支都是一个大坑,知识量巨大,希望大家充分利用搜索引擎对已学知识点进行补充或解疑,观摩大佬们的代码,不要满足于这小小的系列 【DL-CV】计算机视觉前置了解 showImg("https://segmentfault.com/img/bV...

    sf190404sf190404 评论0 收藏0
  • 【DL-CV】计算机视觉前置了解

    【DL-CV】计算机视觉前置了解

    摘要:虽说都是些量少易懂的知识点,却主角般地贯穿着整个学习过程,而且作为从小白到学习者思维转换的桥梁,其必要性是肯定的。所以对于从未接触过深度学习的小白,强烈推荐了解,非小白可跳过图像分类首先来了解在计算机视觉领域上的图像指的是什么。 【DL...

    JochenJochen 评论0 收藏0
  • 【DL-CV】线性分类器

    【DL-CV】线性分类器

    摘要:每传递一层,就相当于执行一次线性分类器和激活函数,其输出可作为下一个线性分类器的输入继续往下传递。像这样多个线性分类器叠加起来,那种网络结构就成型了。 【DL-CV】计算机视觉前置了解【DL-CV】损失函数,SVM损失与交叉熵损失 神经网络的变种很...

    NusterCacheNusterCache 评论0 收藏0
  • 【DL-CV】损失函数,SVM损失与交叉熵损失

    【DL-CV】损失函数,SVM损失与交叉熵损失

    摘要:需要注意的是正则化损失并不是加在每个数据的损失上,而是加在所有一组训练集个数据损失的平均值上,这样我们得到最终的损失函数,是正则化强度。这不会影响损失函数的输出,自然也不会影响损失,但这一下解决了溢出问题。 【DL-CV】线性分类器【DL-CV...

    UsherChenUsherChen 评论0 收藏0
<