fuhao7i Blog

[我还很年轻,吃苦趁现在!]

Dali工具箱🕶4—— DD——DaliDetetion

"更好的帮你完成深度学习任务"

0. 配置文件 configs 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 model= dict( type= 'Classification' # 或者是‘_base/Faster_RCNN.py’ backbone= dict( 'Conv'= dict(input_channels= 3, out_channels=16...

Dali工具箱🕶3——torch.transform( Pipline ) 进行数据增广

"transform, 尺寸调整, 数据增强"

#

Dali杂货铺🐰8——PyTorch 保存,加载和查看训练好的模型

"save, load, weights, 载入预训练权重"

1. 保存模型 1 torch.save(model.state_dict(),"./Double.pth") 2. 加载训练好的模型 1 2 3 4 # 创建模型 model=Net() # 加载预训练模型的参数 model.load_state_dict(torch.load("./Double.pth")) 3. 查看训练好的模型 1 2 3 4 5 import tor...

Dali杂货铺🐰7——Python 字典操作详解

"dict..."

1. update()方法 1 2 3 a = {'one': 1, 'two': 2, 'three': 3} a.update({'one':4.5, 'four': 9.3}) print(a) 输出: {'one': 4.5, 'two': 2, 'three': 3, 'four': 9.3}

Dali工具箱🕶2——Torch 数据集准备 Pipline

"transform to train.txt, Dataset, DataLoader, 预处理"

0. 生成train.txt 像一个文件夹代表一类的数据集,我们可以将它的文件名读取出来,按照{ 文件名;类别 }的格式将它们保存到train.txt文件中以供我们使用;同理,对于语义分割或目标检测的数据集,我们按照 { img;label } 的格式保存到train.txt文件中。 文件目录: 这里我们先从ImageNet数据集每个类别中随机抽取30%来作为训练集,剩下的...

Neural Network🦖4——损失,梯度的计算与反向传播

"神经网络优化,损失函数"

现代神经网络是一种非线性统计性数据建模工具。 1. 为什么需要激活函数? 激活函数可以给模型引入非线性的因素。 假若网络中全部是线性部件,那么线性的组合还是线性,与单独一个线性分类器无异。这样就做不到用非线性来逼近任意函数。 使用非线性激活函数 ,以便使网络更加强大,增加它的能力,使它可以学习复杂的事物。使用非线性激活函数,能够从输入输出之间生成非线性映射。 2...

Neural Network🦖3——GAN

"GAN网络详解"

1. 核心:G & D G:Generator 生成器网络。 D:Discriminator 判别器网络。 2. 训练方法 训练D的时候,就是将真图像和生成的图像(假图像)输入到D,进行一个二分类(真和假的判定) 训练G的时候,需要把G和D看成一个整体。输出仍然是一个score,随机向量Z传入G生成图像之后传入D,之后生成score。这里D是...

Neural Network🦖2——优化器详解

"优化器的作用与实现原理"

2. lr_scheduler 学习率调整策略 2.1 ReduceLROnPlateau 目前不依赖epoch更新lr的只有torch.optim.lr_scheduler.ReduceLROnPlateau. 2.2 StepLR grammar 1 class torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamm...

Neural Network🦖1——上采样Upsampling详解

"反卷积, 上采样, 插值算法"

在做图像分割的时候,需要对图像进行像素级别的分类,因此在卷积提取到抽象特征后需要通过上采样将feature map还原到原图大小。常见的上采样方法有双线性插值(bilinear)、转置卷积、上采样(Upsampling)和上池化(Unpooling)等… 1. 双线性插值 torch.nn.functional.interpolate(input, size=None, scal...

Dali杂货铺🐰6——torch 分布式训练(多GPU)注意事项

"深度学习, 分布式训练, 多GPU"

1. ‘SyncBN’: nn.SyncBatchNorm warning: 当单块GPU训练torch模型时,如果程序内含有SyncBN会报错误: AssertionError: Default process group is not initialized #. 引用 pytorch指定gpu训练_PyTorch多GPU并行训练方法及问题整理