Skip to content
Projects
Groups
Snippets
Help
This project
Loading...
Sign in / Register
Toggle navigation
M
Model-Transfer-Adaptability
Overview
Overview
Details
Activity
Cycle Analytics
Repository
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
Issues
0
Issues
0
List
Board
Labels
Milestones
Merge Requests
0
Merge Requests
0
CI / CD
CI / CD
Pipelines
Jobs
Schedules
Charts
Wiki
Wiki
Snippets
Snippets
Members
Members
Collapse sidebar
Close sidebar
Activity
Graph
Charts
Create a new issue
Jobs
Commits
Issue Boards
Open sidebar
haoyifan
Model-Transfer-Adaptability
Commits
74043eb6
Commit
74043eb6
authored
Jul 06, 2023
by
Klin
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
doc: modify README format
parent
0e09bace
Hide whitespace changes
Inline
Side-by-side
Showing
1 changed file
with
137 additions
and
98 deletions
+137
-98
ykl/ALL/README.md
+137
-98
No files found.
ykl/ALL/README.md
View file @
74043eb6
# ALL
+
逐步将不含LSTM的模型全部功能加入该文件夹,包括对不同数据集支持、模型训练及量化、生成器训练和评估。
+
逐步将不含LSTM的模型全部功能加入该文件夹,包括对不同数据集支持、模型训练及量化、生成器训练和鲁棒性评估。
+
之前ResNet系列和MobileNetV2模型结构有误,在cfg.py中进行了调整。
+
全精度模型训练策略
+
SGD优化器 lr=0.1 weight_decay=0.9 nesterov=True momentum=0.9
+
MultiStepLR:epochs=200 milestones=
[
60,120,160
]
gamma=0.2。(epoch计数达到milestones时,lr乘gamma)
+
WarmUpLR:对第一个epoch,执行warmup,逐batch增大lr。
+
生成器训练策略
+
Adam优化器 lr=0.001 b1=0.5 b2=0.999
+
MultiStepLR: epochs=
40 milesontes =
[
20,30
]
gamma=0.1
+
MultiStepLR: epochs=
20 milesontes =
[
15
]
gamma=0.1
+
支持的数据集:cifar10/cifar100 待添加:imagenet
+
功能列表及索引:
## cifar10
[
TOC
]
##
##
训练全精度模型
## 训练全精度模型
+
slurm命令
...
...
@@ -25,6 +32,7 @@
在ALL目录下运行脚本
```shell
# 切换数据集需将脚本名字中{cifar10}改为{cifar100}
# 训练单个模型
sh scripts/train_one_cifar10.sh AlexNet/...
# 训练全部模型
...
...
@@ -33,13 +41,42 @@
+
全精度Acc
**cifar10数据集**
| AlexNet | AlexNet_BN | VGG_16 | VGG_19 | Inception_BN | MobileNetV2 | ResNet_18 | ResNet_50 | ResNet_152 |
| ------- | ---------- | ------ | ------ | ------------ | ----------- | --------- | --------- | ---------- |
| 88.63 | 90.14 | 93.14 | 93.03 | 94.83 | 90.28 | 94.30 | 94.58 | 94.43 |
#### 模型量化及迁移准确性评估
**cifar100数据集**
| AlexNet | AlexNet_BN | VGG_16 | VGG_19 | Inception_BN | MobileNetV2 | ResNet_18 | ResNet_50 | ResNet_152 |
| ------- | ---------- | ------ | ------ | ------------ | ----------- | --------- | --------- | ---------- |
| 63.43 | 66.31 | 71.12 | 70.45 | 77.97 | 66.76 | 75.73 | 77.22 | 77.41 |
## 模型量化及迁移准确性评估
+
实验目标:无模型计算条件下预测迁移模型的分类精度损失
+
实验背景:
根据
**Fixed-Point Back-Propagation Training(CVPR 2020)**
观察,迁移前后模型参数的数据分布的相似度越低,准确性损失越高
+
实验思路:
1.
根据统一的模型部署和量化框架,部署模型并使用不同的量化方式(INT、POT、FLOAT)和位宽获取量化模型。
2.
获取迁移前模型(全精度)和迁移后模型(量化)的各层参数相似度(js-div),并根据该层参数量/计算量占比加权求和,得到模型相似度js_param/js_flops
3.
获取迁移前后模型在测试集上的精确度,并得到精度损失acc_loss = (全精度acc - 量化acc) / 全精度acc
4.
将各模型、各量化方式下的迁移前后模型进行js_flops - acc_loss拟合,得到泛化曲线
+
新模型迁移准确性预测方式:
1.
提供新模型结构,部署训练得到全精度模型
2.
根据量化框架迁移得到量化模型
3.
计算迁移前后模型的相似度,代入拟合曲线,即可预测迁移模型的精度损失
###
##
参数量和计算量统计
### 参数量和计算量统计
+
slurm命令
...
...
@@ -50,12 +87,13 @@
在ALL目录下运行脚本
```shell
# 切换数据集需将脚本名字中{cifar10}改为{cifar100}
sh scripts/ptflops_cifar10.sh
```
+
结果见param_flops/
cifar10
+
结果见param_flops/
{$Dataset}
###
##
量化、相似度、准确度获取
### 量化、相似度、准确度获取
+
slurm命令
...
...
@@ -66,6 +104,7 @@
在ALL目录下运行脚本
```shell
# 切换数据集需将脚本名字中{cifar10}改为{cifar100}
# 量化及评估单个模型
sh scripts/ptq_one_cifar10.sh AlexNet/...
# 量化及评估全部模型
...
...
@@ -74,144 +113,145 @@
+
拟合结果
!
[
ALL-cifar10-ptq
](
fig/ALL-cifar10-ptq.png
)
js_flops:量化模型和全精度模型各层参数的js散度按照计算量加权求和,表示模型间参数相似度
单个模型及js_flops - acc_loss拟合对应R2:
acc_loss:(全精度acc-量化acc) / 全精度acc
**cifar10数据集**
<img
src=
"fig/ALL-cifar10-ptq.png"
alt=
"ALL-cifar10-ptq"
style=
"zoom:67%;"
/>
单个模型及js_flops - acc_loss拟合对应R2:
| AlexNet | AlexNet_BN | VGG_16 | VGG_19 | Inception_BN | MobileNetV2 | ResNet_18 | ResNet_50 | ResNet_152 |
| ------- | ---------- | ------ | ------ | ------------ | ----------- | --------- | --------- | ---------- |
| 0.9819 | 0.9878 | 0.9727 | 0.9648 | 0.8693 | 0.9652 | 0.9181 | 0.9011 | 0.8994 |
考虑到单个模型拟合均较好,而整体拟合较差,后期将尝试加权处理。
>
考虑到单个模型拟合均较好,而整体拟合较差,后期将尝试加权处理。
#### 基于生成器的安全性评估
**cifar100数据集**
##### 生成器训练
<img
src=
"fig/ALL-cifar100-ptq.png"
alt=
"ALL-cifar100-ptq"
style=
"zoom:67%;"
/>
+
slurm命令
单个模型及js_flops - acc_loss拟合对应R2:
```shell
#针对全精度模型
python gen_one.py --model $Model --dataset $Dataset --multi_label_prob 0.4 --multi_label_num $Label
#针对量化模型
python gen_one.py --model $Model --dataset $Dataset --quant --multi_label_prob 0.4 --multi_label_num $Label
```
| AlexNet | AlexNet_BN | VGG_16 | VGG_19 | Inception_BN | MobileNetV2 | ResNet_18 | ResNet_50 | ResNet_152 |
| ------- | ---------- | ------ | ------ | ------------ | ----------- | --------- | --------- | ---------- |
| 0.9790 | 0.9730 | 0.9222 | 0.9115 | 0.8806 | 0.9570 | 0.8498 | 0.8620 | 0.8713 |
在ALL目录下运行脚本
考虑到单个模型拟合均较好,而整体拟合尚有优化空间,后期将尝试加权处理。
```shell
#全精度,针对单个模型训练生成器
sh scripts/gen_full_one_cifar10.sh
#全精度,针对全部模型训练生成器
sh scripts/gen_full_all_cifar10.sh
#量化,针对单个模型训练生成器
sh scripts/gen_quant_one_cifar10.sh
#量化,针对全部模型训练生成器
sh scripts/gen_quant_all_cifar10.sh
```
##
cifar100
##
模型迁移鲁棒性评估
#### 训练全精度模型
+
实验目标:无数据支持情形下预测模型的对抗攻击鲁棒性
+
slurm命令
+
相关工作:
```shell
python train_one.py AlexNet/AlexNet_BN/... cifar100
```
1.
**DaST: Data-free Substitute Training for Adversarial Attacks (CVPR 2020)**
提出通过生成器和替身模型对抗训练,从而在不知道模型具体结构和真实数据集的基础上进行模型窃取,利用替身模型生成对抗样本,从而攻击原模型,提高对抗攻击率。
我们的实验目的不在于提高攻击率,而是提供鲁棒性评测的手段,同时已经知道了模型的结构,无需额外训练替身模型。因此重点在于训练生成器得到用于评测的伪数据集。相比论文中生成器通过生成大量伪样本,在更大规模替身模型上模拟原模型,我们的生成器需要生成高质量的样本用于评测。
在ALL目录下运行脚本
2.
**Rob-GAN: Generator, Discriminator, and Adversarial Attacker (CVPR 2019)**
提出了联合训练生成器、判别器和对抗攻击者的方案。论文综合应用了生成器的伪样本和基于真实数据集的对抗样本对分类器进行训练,提出了基于分类器的伪样本能够更好提供图像分布信息,归纳到不可见数据;对真实样本对抗处理可以更好的限制判别器曲率,提高判别器鲁棒性。
```shell
# 训练单个模型
sh scripts/train_one_cifar100.sh AlexNet/...
# 训练全部模型
sh scripts/train_all_cifar100.sh
```
我们的实验在不使用真实数据集、训练生成器所得伪数据集而非判别器模型的前提下对上述思路进行了延续和强化。由于模型结构可见,生成器结合模型BN层统计、分类层权重等,更好的提取了原训练数据集的数据分布信息;对生成器伪样本进行一定训练使其能够较好的拟合分类结果后,对伪样本的对抗扰动,反向更新生成器,使所得伪数据集可以对模型取得更好鲁棒性。
+
全精度Acc
3.
**Qimera: Data-free Quantization with Synthetic Boundary Supporting Samples (NeurIPS 2021)**
提出了过往研究中生成器存在的缺陷:所得伪样本的聚类小于真实数据集聚类,无法反应类间特征空间的输入情形,无法有效提升模型在分类边界的量化性能。基于该问题,论文提出了结合模型BN层统计、分类层权重以更好的提取分布信息,并添加类间样本(多个label)以提升生成器泛化性,更好的模拟原数据集信息。
| AlexNet | AlexNet_BN | VGG_16 | VGG_19 | Inception_BN | MobileNetV2 | ResNet_18 | ResNet_50 | ResNet_152 |
| ------- | ---------- | ------ | ------ | ------------ | ----------- | --------- | --------- | ---------- |
| 63.43 | 66.31 | 71.12 | 70.45 | 77.97 | 66.76 | 75.73 | 77.22 | 77.41 |
我们的生成器在该论文的代码基础上进行了拓展。由于该论文生成器所得伪数据集主要用于提升量化模型准确度,并未考虑对抗性情形,所得数据集在对抗性攻击下与原数据集表现差距较大。我们的代码在延续其根据模型信息提取数据分布、添加类间样本提高泛化性能基础上,对伪样本进行对抗扰动,提升了所得伪数据集的对抗性。
#### 模型量化及迁移准确性评估
+
实验思路:
##### 参数量和计算量统计
1.
结合提取的模型最后分类层权重设置生成器
2.
训练生成器,使得生成样本能被模型正确分类至输入的随机标签,且分布符合模型BN层分布
3.
调整生成器,根据模型在原测试集(或数据集外样本)上的表现(只需知道最终对抗下精度,无需知道数据内容),调整生成器所得伪数据集质量
+
添加类间样本(多label)可以提升数据集泛化性,填充聚类之间的距离(降低模型在伪数据集上对抗精度)
+
添加对抗样本可以提升伪数据集鲁棒性(增加模型唉伪数据集上对抗精度)
4.
基于伪数据集评估全精度模型和量化模型的对抗精度,预测其鲁棒性
+
slurm命令
+
额外的思路:(待测试)利用量化模型层中统计的每层in和out,可得到模型lipschitz,得到理论上的鲁棒性上界。
```shell
python get_param_flops.py $name $Dataset > param_flops/$Dataset/$name.txt
```
+
新模型迁移前后鲁棒性预测方式:
在ALL目录下运行脚本
1.
得到全精度模型和量化模型(同准确性部分)
2.
训练生成器,并根据全精度模型在原测试集(或数据集外样本)上的评分进行调整
3.
根据生成器所得伪数据集评估迁移前后模型的对抗精度,表示其鲁棒性
```shell
sh scripts/ptflops_cifar100.sh
```
+
实验价值:
1.
提供了在不使用真实数据的前提下,基于生成器评估模型迁移鲁棒性的方法
2.
提供了在已知模型结构及其在某数据集上表现情形下,训练/调整生成器以构建伪数据集的方法
3.
(待确定)所得伪数据集可以更好的归纳到测试集不包含的数据分布细节,更好反映理论上的模型鲁棒性
+
**对模型迁移其余部分的启示**
:
+
结果见param_flops/cifar100
在本实验准确性部分,采用的是从头训练一个全精度模型的方法,因此知道全部的数据集和模型细节,同时基于训练集在各层的统计得到了量化模型,因此一个简单直观的鲁棒性评估方法是直接在测试集上观察量化模型的对抗下精度。
##### 量化、相似度、准确度获取
考虑到更普遍的模型迁移场景,应该是给定预训练好的全精度模型,不需给定其训练所用的数据集即可直接预测其迁移后的准确性和安全性。对于量化、准确性、安全性均可在生成器的伪数据基础上稍加修改完成:
1.
根据预训练模型提取cfg用于后续指导模型迁移
2.
需要根据cfg更改模型结构为实验所设,并导入预训练模型的参数,得到全精度网络
3.
根据鲁棒性部分实验思路,可以训练得到生成器,得到伪数据集
3.
根据伪数据集的前向传播获取各层统计,得到量化网络
4.
根据全精度网络和量化网络参数相似度预测迁移精度损失(同准确性部分)
5.
根据全精度网络和量化网络在伪数据集上表现预测安全性。
### 生成器训练
+
slurm命令
> 此处multi_label_prob表明了边界样本占生成伪数据的比例
```shell
python
ptq_one.py $Model $Dataset
python
gen_one.py --model $Model --dataset $Dataset --multi_label_prob 0.4 --multi_label_num $Label
```
在ALL目录下运行脚本
```shell
# 量化及评估单个模型
sh scripts/ptq_one_cifar100.sh AlexNet/...
# 量化及评估全部模型
sh scripts/ptq_all_cifar100.sh
# 切换数据集需将脚本名字中{cifar10}改为{cifar100}
#针对单个模型训练生成器
sh scripts/gen_one_cifar10.sh AlexNet/...
#针对全部模型训练生成器
sh scripts/gen_all_cifar10.sh
```
+
拟合结果
+
生成器训练及调整结果详见gen_result/{Dataset}/{Model}.txt
!
[
ALL-cifar100-ptq
](
fig/ALL-cifar100-ptq.png
)
+
训练时以输入生成器的label为基准,关注生成器生成的伪数据经过模型分类的结果与label的符合程度
+
调整时以全精度模型在测试集上的精度和对抗下精度为指导,通过添加类间样本和对抗样本调整伪数据集的鲁棒性和泛化性
模型及js_flops - acc_loss拟合对应R2:
### 数据集分布可视化
| AlexNet | AlexNet_BN | VGG_16 | VGG_19 | Inception_BN | MobileNetV2 | ResNet_18 | ResNet_50 | ResNet_152 |
| ------- | ---------- | ------ | ------ | ------------ | ----------- | --------- | --------- | ---------- |
| 0.9790 | 0.9730 | 0.9222 | 0.9115 | 0.8806 | 0.9570 | 0.8498 | 0.8620 | 0.8713 |
> 以cifar10数据集下的ResNet_18模型为例,可视化原测试集/仅训练的伪数据集/调整后的伪数据集的数据分布可视图
考虑到单个模型拟合均较好,而整体拟合较差,后期将尝试加权处理。
#### 基于生成器的安全性评估
##### 生成器训练
+
slurm命令
### 对抗攻击可视化
+
展示各种对抗攻击下图片扰动结果,本实验采取的攻击强度均为人眼不可识别
+
后续将添加具体图片展示及图片扰动的L2距离
### 模型鲁棒性评估
+
优势:
+
从结果而言,从针对全精度模型生成的伪数据集上攻击结果预测真实测试集上攻击结果,指标更直观;
+
从过程而言,针对全精度生成的伪数据集可以隐式表明模型特征,省略显式拟合的复杂
+
生成器的解映射使用了模型最后全连接层的权重
+
训练过程loss考虑了模型分类结果和BN层分布信息
+
生成器调整技巧:
+
训练过程中如果只生成类内样本,伪数据集在对抗攻击下仍能取得较高精度
+
混入一定比例的类间样本可以降低对抗攻击下精度,使得生成数据类间距离变小,更符合真实数据集分布
+
结果:
+
趋势相同,在多种攻击下,大部分量化模型的精度偏差均不超过5个点
+
可视化图像待补充
```shell
#针对全精度模型
python gen_one.py --model $Model --dataset $Dataset --multi_label_prob 0.4 --multi_label_num $Label
#针对量化模型
python gen_one.py --model $Model --dataset $Dataset --quant --multi_label_prob 0.4 --multi_label_num $Label
```
在ALL目录下运行脚本
```shell
#全精度,针对单个模型训练生成器
sh scripts/gen_full_one_cifar100.sh
#全精度,针对全部模型训练生成器
sh scripts/gen_full_all_cifar100.sh
#量化,针对单个模型训练生成器
sh scripts/gen_quant_one_cifar100.sh
#量化,针对全部模型训练生成器
sh scripts/gen_quant_all_cifar100.sh
```
\ No newline at end of file
Write
Preview
Markdown
is supported
0%
Try again
or
attach a new file
Attach a file
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Cancel
Please
register
or
sign in
to comment