Bye April
再见,四月
在4月中旬,自己学会了蛙泳,感觉真的好棒,从3月开始,基本每周去一次游泳馆,室友带我游了一次之后,后面虽然,呛了好多次水,喝了很多水😹;但是,在4月初的某个周六,自己下水,一下子就找到感觉了,第一次,差一点能游到对岸;后面每次有进步:能够一口气游到对岸;中间小歇几分钟,就能够游一个来回。感觉很棒!!!技能+1😁
另外,听到了很好听的专辑,真的上头!!🎶🎸
五月
多读Paper,多去Coding💻!继续加油!!
在4月中旬,自己学会了蛙泳,感觉真的好棒,从3月开始,基本每周去一次游泳馆,室友带我游了一次之后,后面虽然,呛了好多次水,喝了很多水😹;但是,在4月初的某个周六,自己下水,一下子就找到感觉了,第一次,差一点能游到对岸;后面每次有进步:能够一口气游到对岸;中间小歇几分钟,就能够游一个来回。感觉很棒!!!技能+1😁
另外,听到了很好听的专辑,真的上头!!🎶🎸
多读Paper,多去Coding💻!继续加油!!
作者是来自MSRA的Ze Liu, Yutong Lin, Yue Cao, Han Hu, Yixuan Wei, Zheng Zhang, Stephen Lin, Baining Guo.论文引用[1]:Liu, Ze et al. “Swin Transformer: Hierarchical Vision Transformer using Shifted Windows.” 2021 IEEE/CVF International Conference on Computer Vision (ICCV) (2021): 9992-10002.
MViT的作者是来自FAIR和 UC Berkeley的Haoqi Fan, Bo Xiong, Karttikeya Mangalam, Yanghao Li, Zhichegn Yan, Jitendra, Malik, Christoph Feichtenhofer。MViTv2的作者也是他们,多了Chao-Yuan Wu. 论文引用[1]:Fan, Haoqi et al. “Multiscale Vision Transformers.” 2021 IEEE/CVF International Conference on Computer Vision (ICCV) (2021): 6804-6815. [2]:Li, Yanghao et al. “MViTv2: Improved Multiscale Vision Transformers for Classification and Detection.” 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (2021): 4794-4804.
匈牙利算法又称为KM算法,可以在 \(O(n^3)\) 的时间复杂度内解决二分图最大匹配问题。考虑到二分图中的两个集合中的点并不总是相同,为了能应用KM算法解决二分图的最大权匹配,需要先做如下处理:将两个集合中点数比较少的补点,使得两边点数相同,再将不存在的边权重设为0,这种情况下,问题就转换成 最大权完美匹配问题,从而能应用KM算法求解。是一种在多项式时间内求解任务分配问题的组合优化算法,并推动了后来的原始对偶方法,美国数学家哈罗德库恩于1955年提出该算法,之所以被称作匈牙利算法,是因为算法很大一部分是基于以前匈牙利数学家柯尼格德内什和艾盖瓦里耶内的工作之上创建起来的。 詹姆斯芒克勒斯于1957年回顾了该算法,并发现它的时间复杂度为(强)多项式时间,此后该算法被称为库恩芒克勒斯算法/芒克勒斯分配算法,原始算法的时间复杂度为 \(O(n^4)\),但杰克爱德蒙斯与理查德卡普发现可以修改算法达到 \(O(n^3)\) 的时间复杂度。
匈牙利算法寻找最大匹配,就是通过不断寻找原有的匹配M的增广路径,因为找到一条M匹配的增广路径,就意味着一个更大的匹配M',其恰好比M多一条边。
对于图来说,最大匹配不是唯一的,但是最大匹配的大小是唯一的。
作者是来自清华、HKUST、CUHKsz、IDEA研究院和MSRR的Shilong Liu, Zhaoyang Zeng, Tianhe Ren等人。论文引用[1]:
作者是来HKUST(Guangzhou)、HKUST、清华、IDEA研究院的Hao Zhang, Feng Li, Shilong Liu, Lei Zhang, Hang Su, Jun Zhu, Lionel M.Ni, Heung-Yeung Shum.论文引用[1]:Zhang, Hao et al. “DINO: DETR with Improved DeNoising Anchor Boxes for End-to-End Object Detection.” ArXiv abs/2203.03605 (2022): n. pag.
作者是来自MSRA、USTC、HUST、THU的Ze Liu, Jia Ning, Yue Cao, Yixuan Wei,Zheng Zhang, Stephen Lin, Han Hu。论文引用[1]:Liu, Ze et al. “Video Swin Transformer.” 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (2021): 3192-3201.
作者是来自Google Research的Anurag Arnab, Mostafa Dehghani, Georg, Heigold, Chen Sun, Mario Lucic, Cordelia Schmid。论文引用[1]:Arnab, Anurag et al. “ViViT: A Video Vision Transformer.” 2021 IEEE/CVF International Conference on Computer Vision (ICCV) (2021): 6816-6826.
https://zhuanlan.zhihu.com/p/525276061
https://www.cnblogs.com/cy0628/p/13921725.html
https://mp.weixin.qq.com/s/7JjRGgg1mKlIRuSyPC9tmg
https://blog.csdn.net/hxxjxw/article/details/120835884
Pytorch中文翻译的网站:https://pytorch.ac.cn/docs/stable/index.html
https://developer.baidu.com/article/detail.html?id=2995518
https://pytorch.panchuang.net/EigthSection/torchScript/
https://www.cnblogs.com/wxkang/p/17133460.html
,各种注意力机制https://www.cnblogs.com/Fish0403/p/17221430.html
,
SE和CBAMhttps://cloud.tencent.com/developer/article/1776357
,
Vision Transformer的综述pip install torchinfo
,能够查看网络模型的输入输出,尺寸,参数量等各类型的指标,方便理解模型。这是一个openmmlab中算法的一些教程和学习资料,介绍的还不错
这个是百度PaddlePaddle的资料: