Unconditional Generation
Return of Unconditional Generation: A Self-supervised Representation Generation Method[1]
作者是来自MIT, CSAIL的Tianhong Li, Dina Katabi和何恺明。论文引用:Li, Tianhong et al. “Return of Unconditional Generation: A Self-supervised Representation Generation Method.” (2023).
对物体图像语义信息本质的理解,而不是停留在图像的模式、特征上,增强泛化性。由小到大,由细微到广大、从局部到整体的去理解、去学习特征表示。
Key Words
- unconditional generation with unlabeled data.
- self-supervised encoder: MoCov3 ViT-B
- Representation Generation: RDM 12-block, 1536-hid-dim for 100 epochs
- Image generation: MAGE-B for 200 epochs
- Representation-Conditioned Generation(RCG)
- generate semantic representations in the representation space ### 总结
生成模型作为无监督方法发展了很长时间,重要的工作如GAN、VAE和Diffusion Model。这些基础方法聚焦于数据的概率分布,不依赖于人类标注的availability。这个问题经常归类为无条件的生成(unconditional generation),是追求利用大量的无标注数据来学习复杂的分布。缩小有条件和无条件的生成是一个有价值的问题。释放出大规模的无标注数据的能量是必须的一步。