
Towards Generalist Robot Policies: What Matters in Building Vision-Language-Action Models机器人领域的VLA逐渐火热,但是在快速发展的过程中还有很多没解决的问题,以及经过验证的结论,字节这篇类似empirical
想系统且细致的看一下LLM及MLLM的工作,之前一直跟到了BLIP2,后面的就了解的不全面了。这一系列的文章会有一个章节进行扫盲,比如这个工作里提到的held-in和held-out之类的。开始开始!
从数学本质出发,生成模型本质上是一种概率模型。它的生成过程可以表达成为数学中的两个过程,计算样本的概率分布和从概率分布中采样。以最基本的无条件图像生成模型为例,我们需要构建出一个概率分布函数P(x),x为图像样本。它在x的像素空间中计算分布。在训练过程中,我们将x分为正负样本,正样本为现实世界中真实
Paint by Example: Exemplar-based Image Editing with Diffusion Models生成模型的效果总是很惊艳,但目前比较多的还是基于text prompt的图像生成。这段时间想到有没有方法对选中区域直接用给定的图进行inpaint,发现CVPR23
Large Language Model (LLM) 论文阅读最近LLM的论文几乎每天都会出来一篇新的,一些新出来的论文里面涉及的模块已经理解不了了哈哈,开一个坑也是让自己充充电本篇文章之后会作为一个相关文章的目录,方便回顾。一起主动拥抱新的技术吧~