泉州最专业微信网站建设开发,搜索引擎优化培训班,h5页面制作网站,爱空间家装公司电话介绍
PASSL 是一个基于 PaddlePaddle 的视觉库#xff0c;用于使用 PaddlePaddle 进行最先进的视觉自监督学习研究。PASSL旨在加速自监督学习的研究周期#xff1a;从设计一个新的自监督任务到评估所学的表征。
PASSL 主要特性#xff1a; 自监督前沿算法实现 PASSL 实现了…
介绍
PASSL 是一个基于 PaddlePaddle 的视觉库用于使用 PaddlePaddle 进行最先进的视觉自监督学习研究。PASSL旨在加速自监督学习的研究周期从设计一个新的自监督任务到评估所学的表征。
PASSL 主要特性 自监督前沿算法实现 PASSL 实现了多种前沿自监督学习算法包括不限于 SimCLR、MoCo(v1)、MoCo(v2)、MoCo-BYOL、CLIP、BYOL、BEiT。同时支持有监督分类训练。 模块化设计 易于建立新的任务和重用其他任务的现有组件 (Trainer, models and heads, data transforms, etc.)
️ PASSL 的最终目标是利用自监督学习为下游任务提供更合适的预训练权重同时大幅度降低数据标注成本。
模型库
Self-Supervised Learning Models
PASSL 实现了一系列自监督学习算法更具体的使用文档请参阅 Document
EpochsOfficial resultsPASSL resultsBackboneModelDocumentMoCo20060.660.64ResNet-50downloadTrain MoCoSimCLR10064.565.3ResNet-50downloadTrain SimCLRMoCo v220067.767.72ResNet-50downloadTrain MoCoMoCo-BYOL30071.5672.10ResNet-50downloadTrain MoCo-BYOLBYOL30072.5071.62ResNet-50downloadTrain BYOLPixPro10055.1(fp16)57.2(fp32)ResNet-50downloadTrain PixProSimSiam10068.368.4ResNet-50downloadTrain SimSiamDenseCL20063.6263.37ResNet-50downloadTrain PixProSwAV10072.172.4ResNet-50downloadTrain SwAV Benchmark Linear Image Classification on ImageNet-1K. Classification Models
PASSL 实现了视觉 Transformer 等具有影响力的图像分类算法并提供了相应的预训练权重。旨在支持自监督、多模态、大模型算法的建设和研究。更多使用细节请参阅 Classification_Models_Guide.md
DetailTutorialViT/PaddleEduSwin Transformer/PaddleEduCaiTconfigPaddleFleetT2T-ViTconfigPaddleFleetCvTconfigPaddleFleetBEiTconfigunofficialMLP-MixerconfigPaddleFleetConvNeXtconfigPaddleFleet PASSL 提供了详细的算法剖析具体请参阅 Tutorial。
安装
请参阅 INSTALL.md 进行安装
快速开始
请参阅 GETTING_STARTED.md 了解 PASSL 的基本用法
Awesome SSL
自监督学习 (Self-Supervised Learning, SSL) 是一个发展十分迅速的领域这里列出一些具有影响力的 Paper 供研究使用。PASSL 会争取实现具有应用潜力的自监督算法
Masked Feature Prediction for Self-Supervised Visual Pre-Training by Chen Wei, Haoqi Fan, Saining Xie, Chao-Yuan Wu, Alan Yuille, Christoph Feichtenhofer.Masked Autoencoders Are Scalable Vision Learners by Kaiming He, Xinlei Chen, Saining Xie, Yanghao Li, Piotr Dollár, Ross Girshick.Corrupted Image Modeling for Self-Supervised Visual Pre-Training by Yuxin Fang, Li Dong, Hangbo Bao, Xinggang Wang, Furu Wei.Are Large-scale Datasets Necessary for Self-Supervised Pre-training? by Alaaeldin El-Nouby, Gautier Izacard, Hugo Touvron, Ivan Laptev, Hervé Jegou, Edouard Grave.PeCo: Perceptual Codebook for BERT Pre-training of Vision Transformers by Xiaoyi Dong, Jianmin Bao, Ting Zhang, Dongdong Chen, Weiming Zhang, Lu Yuan, Dong Chen, Fang Wen, Nenghai Yu.SimMIM: A Simple Framework for Masked Image Modeling by Zhenda Xie, Zheng Zhang, Yue Cao, Yutong Lin, Jianmin Bao, Zhuliang Yao, Qi Dai, Han Hu.