Mutual Information Neural Estimation
Mutual Information Neural Estimation在读完Prof. Tishby的利用 information bottleneck 来解释深度学习的文章,“Opening the black box of Deep Neural Networks via Informatio
Mutual Information Neural Estimation在读完Prof. Tishby的利用 information bottleneck 来解释深度学习的文章,“Opening the black box of Deep Neural Networks via Informatio
CRF介绍嘻嘻,这篇文章吧,就没啥可说的,关键想讲清楚,目前我也没这水平。但是 但是 但是!有一篇文章让我明白了不少,这里就放个链接,方便自己以后回顾https://zhuanlan.zhihu.com/p/104562658
有很多数据增强的方式,比如传统的对图像进行旋转裁剪等,这里介绍几种新的且在图像任务中比较有效的数据增强方式,例如Cutmix、Mixup以及FMix1
DeepLabelDistributionLearning本篇论文是之前的LDL方法的改进版本,讲述了耿鑫老师在提出LDL算法之后又做了哪些工作,并分析了LDL在处理图像问题中遇到的一些问题,最后提出了DLDL算法。有两篇相关论文,一个是对于DLDL定义讲述的论文,另一个是在AgeEstimatio
想系统且细致的看一下LLM及MLLM的工作,之前一直跟到了BLIP2,后面的就了解的不全面了。这一系列的文章会有一个章节进行扫盲,比如这个工作里提到的held-in和held-out之类的。开始开始!
从数学本质出发,生成模型本质上是一种概率模型。它的生成过程可以表达成为数学中的两个过程,计算样本的概率分布和从概率分布中采样。以最基本的无条件图像生成模型为例,我们需要构建出一个概率分布函数P(x),x为图像样本。它在x的像素空间中计算分布。在训练过程中,我们将x分为正负样本,正样本为现实世界中真实
Paint by Example: Exemplar-based Image Editing with Diffusion Models生成模型的效果总是很惊艳,但目前比较多的还是基于text prompt的图像生成。这段时间想到有没有方法对选中区域直接用给定的图进行inpaint,发现CVPR23
Large Language Model (LLM) 论文阅读最近LLM的论文几乎每天都会出来一篇新的,一些新出来的论文里面涉及的模块已经理解不了了哈哈,开一个坑也是让自己充充电本篇文章之后会作为一个相关文章的目录,方便回顾。一起主动拥抱新的技术吧~
模型量化学习资料整理模型的量化是深度学习模型落地不可或缺的一环,如何在边缘端让模型在尽量保证精度的同时,变得更小更快是一个挺有意思的问题。这周打算集中学习一下,本篇文章先记录一下质量较高的学习资料。nvidia int8 TRT量化 PPThttps://on-demand.gputechconf.