HsinJhao's Blogs

Be a Better Man and
Be Brave to Life


  • 首页

  • 关于

  • 标签

  • 分类

  • 归档

  • 搜索

KL散度(Kullback-Leibler Divergence)介绍及详细公式推导

发表于 2019-05-22 | 更新于 2019-05-26 | 分类于 Deep Learning , Math | 阅读次数:
本文字数: 11k | 阅读时长 ≈ 10 分钟

KL散度简介KL散度的概念来源于概率论和信息论中。KL散度又被称为:相对熵、互熵、鉴别信息、Kullback熵、Kullback-Leible散度(即KL散度的简写)。在机器学习、深度学习领域中,KL散度被广泛运用于变分自编码器中(Variational AutoEncoder,简称VAE)、EM算 ...

阅读全文 »

图像分割领域中的评价标准

发表于 2019-05-22 | 分类于 Deep Learning | 阅读次数:
本文字数: 433 | 阅读时长 ≈ 1 分钟

引言在图像分割领域中,需要对分割结果进行评价。评价之前一般需要先对分割后的每一类别进行二值化处理,然后与标签进行类别映射。另外,图像分割问题是一个有监督问题,即训练样本要求需要Ground Truth,对分割结果进行评价同样是基于Ground Truth来展开的。 评价指标评价指标有以下几类: D ...

阅读全文 »

利用hexo和github搭建个人博客的辛酸之路

发表于 2019-05-16 | 更新于 2019-05-26 | 分类于 博客搭建 | 阅读次数:
本文字数: 7.5k | 阅读时长 ≈ 7 分钟

由于个人强迫症,希望将自己值得记录下来的东西通过一种合理的方式进行记录。于是选择了搭建个人博客的方式来实现。通过知乎和面向Google编程后发现利用hexo和github pages来搭建个人博客的方式,最适合我这种穷学生折腾。 搭建博客基本框架准备工作在搭建之间,需要先安装以下应用程序和注册相应 ...

阅读全文 »

Anaconda初体验(windows)

发表于 2019-05-16 | 更新于 2019-05-17 | 分类于 软件使用 | 阅读次数:
本文字数: 2.8k | 阅读时长 ≈ 3 分钟

前言由于之前的算法编写、调试等过程均在自己的电脑上运行,所以出于以下原因一直对Anaconda嗤之以鼻: 其存储空间有限,Anaconda会安装很多使用率很低的库; 本人有一种莫名的折腾的劲儿,喜欢精简而有效的原生python环境。 但最近为课题组在Windows Server 2019搭建 ...

阅读全文 »
HsinJhao

HsinJhao

“与恶龙缠斗过久,自身亦成为恶龙;凝视深渊过久,深渊将回以凝视。”
4 日志
4 分类
6 标签
Creative Commons
© 2019 HsinJhao | 21k | 19 分钟
由 Hexo 强力驱动 v3.8.0
|
主题 – NexT.Gemini v7.1.1