搜索算法 695、岛屿的最大面积 此题是十分标准的搜索题,我们可以拿来练手深度优先搜索。一般来说,深度优先搜索类型 的题可以分为主函数和辅函数,主函数用于遍历所有的搜索位置,判断是否可以开始搜索,如果 可以即在辅函数进行搜索。辅函数则负责深度优先搜索的递归调用。 12345678910111213141516171819202122class Solution: def maxAreaOf 2022-11-30 LeetCode
二分查找 69、x的平方根 12345678910111213class Solution: def mySqrt(self, x: int) -> int: if x == 0: return 0 left, right, ans = 0, x, -1 while left <= right: m 2022-11-29 LeetCode
贪心 455、分发饼干 因为饥饿度最小的孩子最容易吃饱,所以我们先考虑这个孩子。为了尽量使得剩下的饼干可 以满足饥饿度更大的孩子,所以我们应该把大于等于这个孩子饥饿度的、且大小最小的饼干给这 个孩子。满足了这个孩子之后,我们采取同样的策略,考虑剩下孩子里饥饿度最小的孩子,直到 没有满足条件的饼干存在。 123456789101112class Solution: def findCo 2022-11-22 LeetCode
MaxViT 论文:MaxViT: Multi-Axis Vision Transformer 发表在ECCV 2022 Motivation 研究发现,如果没有广泛的预训练,ViT在图像识别方面表现不佳。这是由于Transformer具有较强的建模能力,但是缺乏归纳偏置,从而导致过拟合。其中一个有效的解决方法就是控制模型容量并提高其可扩展性,在参数量减少的同时得到性能的增强,如Twins、L 2022-11-16 Deep Learning cv
MAXIM 论文:MAXIM: Multi-Axis MLP for Image Processing 摘要 文章提出了一种基于多轴MLP的底层图像处理任务的架构:MAXIM。MAXIM使用U-net的结构。具体来说,MAXIM包含两个基于MLP的块:一个多轴门控MLP(multi-axis gated MLP),可以在局部/全局视觉信息上进行充分的空间混合;一个交叉门控块(cross-g 2022-11-14 Deep Learning cv
gMLP 论文:Pay Attention to MLPs 摘要 Transformer已经成为深度学习中最重要的架构创新之一,并在过去几年中实现了许多突破。本文提出一个简单的网络架构,gMLP,based on MLPs with gating。并表明它在关键语言和视觉应用程序中可以像Transformer一样执行,比较结果表明自注意力对于vision Transformer并不重要 2022-11-11 Deep Learning cv
RepMLP 论文:RepMLPNet: Hierarchical Vision MLP with Re-parameterized Locality 这篇看不懂啊啊啊啊啊啊啊啊啊 就随便贴一个源码上来 模型图 源代码 12345678910111213141516171819202122232425262728293031323334353637383940414243444546 2022-11-10 Deep Learning cv
Mlp-mixer 论文:MLP-Mixer: An all-MLP Architecture for Vision Mixer Architecture MLP-Mixer主要包括三部分:Per-patch Fully-connected、Mixer Layer、分类器。 其中分类器部分采用传统的全局平均池化(GAP)+ 全连接层(FC)+ Softmax 的方式构成,故不进行更多介绍,下面主 2022-11-07 Deep Learning cv
CoAtNet 论文:CoAtNet: Marrying Convolution and Attention for All Data Sizes 模型 融合convolution和self-attention 对于卷积,我们主要关注 MBConv 块 ,它采用深度卷积来捕获空间交互。 这种选择的一个关键原因是 Transformer 和 MBConv 中的 FFN 模块都采用了“反向瓶颈 2022-11-06 Deep Learning cv
Masked_Autoencoder(MAE) 论文:Masked Autoencoders Are Scalable Vision Learners 模型图 Approach Masking MAE使用了ViT的方法,将图片分割成一个个小块,然后在这些小块中随机、均匀地选取一部分保留,剩下的全部遮蔽。作者强调了要遮蔽大量的像素块(约75%),从而减少像素块之间的冗余信息,使整个任务更具有挑战性,迫使模型去学习图像的全局特征 2022-11-05 Deep Learning cv