Classiczy

  • Home

  • About

  • Tags

  • Categories

  • Archives

目标检测:R-CNN

Posted on 10-12-2019 15:04:44 Edited on 23-02-2020 23:19:32 In 计算机视觉 , 深度学习 , 目标检测 Comments:

目标检测:R-CNN

最近实习的时候接触了目标检测类的任务,在使用这些算法的同时了解一下算法整体的流程和内容。作为RCNN算法系列的开山鼻祖,采用了CNN网络用于图像特征的提取,而不是之前的人工设定的特征提取。但是RCNN应该有很多细节都被后面的算法改进了(产生了一系列RCNN的算法)。所以这里只对算法的流程做一个大概的理解。

RCNN的基本流程

RCNN算法有4个步骤:

  1. 候选区域生成: 一张图像生成约2K个候选区域 (Selective Search 方法)
  2. 特征提取: 对每个候选区域,使用深度卷积网络提取特征
  3. 类别判断: 特征送入每一类的SVM 分类器,判别是否属于该类
  4. 位置精修: 使用回归器精细修正候选框位置
Read more »

光流法

Posted on 10-12-2019 11:55:46 Edited on 10-12-2019 19:57:22 In 计算机视觉 Comments:

光流法

在前两天看论文的时候看到了光流法(optical flow),之前只是听说过没有了解,所以现在了解一下。

简介

光流(Optical flow or optic flow)是关于视域中的物体运动检测中的概念。用来描述相对于观察者的运动所造成的观测目标、表面或边缘的运动。光流法在样型识别、计算机视觉以及其他影像处理领域中非常有用,可用于运动检测、物件切割、碰撞时间与物体膨胀的计算、运动补偿编码,或者通过物体表面与边缘进行立体的测量等等。

算法(Lucas–Kanade)

光流法有多种算法,似乎最常用的是Lucas–Kanade算法,它计算两帧在时间$t$到$t+\delta t$之间每个每个像素点位置的移动。由于它是基于图像信号的泰勒级数,这就是对于空间和时间坐标使用偏导数。

Read more »

Gravitational Laws of Focus of Attention的粗略理解

Posted on 08-12-2019 18:26:32 Edited on 09-12-2019 02:52:56 In 论文 Comments:

在最近的项目中需要获得用于注视点渲染的scan path,除了自己手动标记以外,老师还提供了eymol来自动生成,除了直接使用作者提供的代码外,还是要粗略的了解一下这个方法背后的想法。

下面节选自
‘Zanca D, Melacci S, Gori M. Gravitational Laws of Focus of Attention[J]. IEEE transactions on pattern analysis and machine intelligence, 2019.’

Read more »

循环神经网络

Posted on 06-12-2019 19:02:17 Edited on 27-02-2020 03:20:08 In 深度学习 Comments:

循环神经网络

基本的循环神经网络

它由输入层、一个隐藏层和一个输出层组成:
enter image description here

  • x是一个向量,它表示输入层的值
  • s是一个向量,它表示隐藏层的值(这里隐藏层面画了一个节点,你也可以想象这一层其实是多个节点,节点数与向量s的维度相同);
  • U是输入层到隐藏层的权重矩阵
  • o也是一个向量,它表示输出层的值;
  • V是隐藏层到输出层的权重矩阵
  • 循环神经网络的隐藏层的值s不仅仅取决于当前这次的输入x,还取决于上一次隐藏层的值s。权重矩阵 W就是隐藏层上一次的值作为这一次的输入的权重。
    Read more »

循环神经网络

Posted on 06-12-2019 19:02:17 Edited on 15-01-2020 00:24:18 In 深度学习 Comments:

循环神经网络

基本的循环神经网络

它由输入层、一个隐藏层和一个输出层组成:
enter image description here

  • x是一个向量,它表示输入层的值
  • s是一个向量,它表示隐藏层的值(这里隐藏层面画了一个节点,你也可以想象这一层其实是多个节点,节点数与向量s的维度相同);
  • U是输入层到隐藏层的权重矩阵
  • o也是一个向量,它表示输出层的值;
  • V是隐藏层到输出层的权重矩阵
  • 循环神经网络的隐藏层的值s不仅仅取决于当前这次的输入x,还取决于上一次隐藏层的值s。权重矩阵 W就是隐藏层上一次的值作为这一次的输入的权重。
    Read more »

Adaboost

Posted on 03-12-2019 22:12:40 Edited on 04-12-2019 05:13:28 In 集成学习 Comments:

Adaboost

假设我们的训练集样本是

训练集的在第k个弱学习器的输出权重为

Read more »

集成学习

Posted on 03-12-2019 21:36:12 Edited on 04-12-2019 04:50:10 In 集成学习 Comments:

Boosting

enter image description here
从图中可以看出,Boosting算法的工作机制是首先从训练集用初始权重训练出一个弱学习器1,根据弱学习的学习误差率表现来更新训练样本的权重,通过之前弱学习器1学习误差率高的训练样本点的权重变高的方法,使得这些误差率高的点在后面的弱学习器2中得到更多的重视。然后基于调整权重后的训练集来训练弱学习器2.,如此重复进行,直到弱学习器数达到事先指定的数目T,最终将这T个弱学习器通过集合策略进行整合,得到最终的强学习器。

Read more »
1234…6
Classiczy

Classiczy

39 posts
16 categories
19 tags
GitHub E-Mail Instagram Bilibili
© 2020 Classiczy
Powered by Hexo v3.9.0
|
Theme – NexT.Pisces v7.3.0
0%