ZJU_CVs Blog

CV Learning and Paper Reading.

Inductive Representation Learning on Large Graphs

1. Introduction 回顾GCN: 基本思想:把一个节点在图中的高维度邻接信息降维到一个低维的向量表示 假设一个无向图有$N$个节点,每个节点都有$D$维的特征,图的邻接矩阵记为$A$,节点的特征组成$N\cdot D$维矩阵记为$X$。则对于GCN网络而言,层与层之间的传播可以用如下公式表达: \[H^{(l+1)}=\sigma\left(\t...

Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks

因为最近在看few-shot和meta-learning,一些方法需要与域适应相结合,提升模型性能。其中域适应常用的方法是基于cycleGAN的应用和改进,因此在这里简单介绍一下cycleGAN 1. Introduction cycleGAN主要目的与pix2pix相似,都是用于image to image translation。与pix2pix不同的是: pi...

Missing Data Imputation with Adversarially-trained Graph Convolutional Networks

看到一篇基于图神经网络的数据缺失填充文章,做一下记录 1. Introduction 缺失数据插补(Missing data imputation, MDI)是用预测值代替缺失值的任务 本文利用图神经网络(GNNs)提出了一种通用的MDI框架 2. Method 首先使用欧式距离成对计算所有特征向量的相似矩阵,但每次仅使用两个向量...

Meta-Learning with Domain Adaptation for Few-Shot Learning under Domain Shift

1. Introduction 元学习是Few-shot learning的一种方法,模型学习如何学习一个有效的模型来进行few-shot learning。其主要思想是从一组训练任务中获得有效先验知识,然后用于执行 (few-shot) 测试任务。 但是现有的meta-learning work假设training task和test task都来自同...

Prototype Rectification for Few-Shot Learning

1. Introduction 传统的原型网络将support set中每个类的所有样本representation平均作为类的原型表示,通过query set 中的特征representation与support set中每个类别的原型representation进行欧式距离计算,在经过softmax得出最后所属的类别 本文认为简单的求平均会产生很大的bias,因此提出从intr...

Object-Part Attention Model for Fine-grained Image Classification

1. Introduction 解决问题:细粒度图像分类(Fine-grained Image Classification) 特点:类内差异大,类间差异小 现有方法:首先定位对象或部分(locate the objects or parts),然后区分图像属于那个子类别。但是有两个局限: 依赖大量人工标注数据 忽略对象与其他各部分之间以及这...

Handling Variable-Dimensional Time Series with Graph Neural Networks

1. Introduction 在IOT场景,涉及到多个传感器采集数据,会产生多传感器时间序列。现有的基于NN方法的多变量时间序列建模方法输入维数(即传感器数量)固定 但是在实际场景中,往往存在不同种类、不同数量传感器的多种组合,因此模型需要考虑不同(可变)的输入维度 2. Related Works 解决方案1: 变量维度的变化可以看作是缺...

Imbalance Problems in Object Detection

目标检测中不均衡问题总结

K. Oksuz, B. C. Cam, S. Kalkan, E. Akbas, “Imbalance Problems in Object Detection: A Review”, (under review), 2019.[preprint] Table of Contents Class Imbalance 1.1 Foreground-Background Class...

A Closer Look at Few-shot Classification

1. Introduction 文章对现有的FSL方法进行了总结和一致性的对比实验,并指出三点问题: 在base和novel classes之间存在有限域差异的情况下,减少类内差异的各种few-shot方法实际上并没有本质差别,通过单纯增加网络深度即可显著降低各个方法之间的性能差异 对于减少类内差异这点,基于距离的分类器baseline方法的性能就可以达到当前...

14 Different Types of Learning in Machine Learning

Machine learning is a large field of study that overlaps with and inherits ideas from many related fields such as artificial intelligence. The focus of the field is learning, that is, acquiring sk...