你好啊 🔥
心心念念的博客终于来了之前也写了几次博客停下来是因为那里有点吵闹只想找一个安静的地方记录下自己一路的成长不需要太多人看到就这样就好接下来,会在这里总结一下近5个月学习的内容,大致包含了深度学习,数据结构和算法【虽然也只是很浅显的一部分】。当然也会继续学习新知识,在这里总结和分享。那就这样开始吧🚀
心心念念的博客终于来了之前也写了几次博客停下来是因为那里有点吵闹只想找一个安静的地方记录下自己一路的成长不需要太多人看到就这样就好接下来,会在这里总结一下近5个月学习的内容,大致包含了深度学习,数据结构和算法【虽然也只是很浅显的一部分】。当然也会继续学习新知识,在这里总结和分享。那就这样开始吧🚀
想系统且细致的看一下LLM及MLLM的工作,之前一直跟到了BLIP2,后面的就了解的不全面了。这一系列的文章会有一个章节进行扫盲,比如这个工作里提到的held-in和held-out之类的。开始开始!
从数学本质出发,生成模型本质上是一种概率模型。它的生成过程可以表达成为数学中的两个过程,计算样本的概率分布和从概率分布中采样。以最基本的无条件图像生成模型为例,我们需要构建出一个概率分布函数P(x),x为图像样本。它在x的像素空间中计算分布。在训练过程中,我们将x分为正负样本,正样本为现实世界中真实
Paint by Example: Exemplar-based Image Editing with Diffusion Models生成模型的效果总是很惊艳,但目前比较多的还是基于text prompt的图像生成。这段时间想到有没有方法对选中区域直接用给定的图进行inpaint,发现CVPR23
Large Language Model (LLM) 论文阅读最近LLM的论文几乎每天都会出来一篇新的,一些新出来的论文里面涉及的模块已经理解不了了哈哈,开一个坑也是让自己充充电本篇文章之后会作为一个相关文章的目录,方便回顾。一起主动拥抱新的技术吧~
模型量化学习资料整理模型的量化是深度学习模型落地不可或缺的一环,如何在边缘端让模型在尽量保证精度的同时,变得更小更快是一个挺有意思的问题。这周打算集中学习一下,本篇文章先记录一下质量较高的学习资料。nvidia int8 TRT量化 PPThttps://on-demand.gputechconf.