为了让机器学习/深度学习模型适应不同的任务/问题,超参数总是需要调优。 自动化超参数调优的过程需要好的调优算法。 NNI 提供了先进的调优算法,使用上也很简单。 下面是内置 Tuner 的简单介绍:
注意:点击 Tuner 的名称
可看到 Tuner 的安装需求,建议的场景以及示例。 算法的详细说明在每个 Tuner 建议场景的最后。 本文 对比了不同 Tuner 在几个问题下的不同效果。
当前支持的算法:
概述 | 算法简介 |
---|---|
TPE | Tree-structured Parzen Estimator (TPE) 是一种 sequential model-based optimization(SMBO,即基于序列模型优化)的方法。 SMBO 方法根据历史指标数据来按顺序构造模型,来估算超参的性能,随后基于此模型来选择新的超参。 参考论文 |
Random Search(随机搜索) | 在超参优化时,随机搜索算法展示了其惊人的简单和效果。 建议当不清楚超参的先验分布时,采用随机搜索作为基准。 参考论文 |
Anneal(退火) | 这种简单的退火算法从先前的采样开始,会越来越靠近发现的最佳点取样。 此算法是随机搜索的简单变体,利用了反应曲面的平滑性。 退火率不是自适应的。 |
Naïve Evolution(朴素进化) | Naïve Evolution(朴素进化算法)来自于 Large-Scale Evolution of Image Classifiers。 它会基于搜索空间随机生成一个种群。 在每一代中,会选择较好的结果,并对其下一代进行一些变异(例如,改动一个超参,增加或减少一层)。 朴素进化算法需要很多次的 Trial 才能有效,但它也非常简单,也很容易扩展新功能。 参考论文 |
SMAC | SMAC 基于 Sequential Model-Based Optimization (SMBO,即序列的基于模型优化方法)。 它会利用使用过的突出的模型(高斯随机过程模型),并将随机森林引入到SMBO中,来处理分类参数。 SMAC 算法包装了 Github 的 SMAC3。 注意:SMAC 需要通过 nnictl package 命令来安装。 参考论文 代码仓库 |
Batch tuner(批处理) | Batch Tuner 能让用户简单的提供几组配置(如,超参选项的组合)。 当所有配置都完成后,Experiment 即结束。 Batch Tuner 仅支持 choice 类型。 |
Grid Search(遍历) | 网格搜索会穷举定义在搜索空间文件中的所有超参组合。 遍历搜索可以使用的类型有 choice, quniform, randint。 |
Hyperband | Hyperband 试图用有限的资源来探索尽可能多的组合,并发现最好的结果。 基本思想是生成许多配置,并通过少量的 Trial 来运行一部分。 一半性能不好的配置会被抛弃,剩下的部分与新选择出的配置会进行下一步的训练。 数量的多少对资源约束非常敏感(例如,分配的搜索时间)。 参考论文 |
Network Morphism | 网络模态(Network Morphism)提供自动搜索深度学习体系结构的功能。 它会继承父网络的知识,来生成变形的子网络。 包括深度、宽度、跳连接等变化。 然后使用历史的架构和指标,来估计子网络的值。 然后会选择最有希望的模型进行训练。 参考论文 |
Metis Tuner | 大多数调参工具仅仅预测最优配置,而 Metis 的优势在于有两个输出:(a) 最优配置的当前预测结果, 以及 (b) 下一次 Trial 的建议。 它不进行随机取样。 大多数工具假设训练集没有噪声数据,但 Metis 会知道是否需要对某个超参重新采样。 参考论文 |
BOHB | BOHB 是 Hyperband 算法的后续工作。 Hyperband 在生成新的配置时,没有利用已有的 Trial 结果,而本算法利用了 Trial 结果。 BOHB 中,HB 表示 Hyperband,BO 表示贝叶斯优化(Byesian Optimization)。 BOHB 会建立多个 TPE 模型,从而利用已完成的 Trial 生成新的配置。 参考论文 |
GP Tuner | Gaussian Process(高斯过程) Tuner 是序列化的基于模型优化(SMBO)的方法,并使用了高斯过程来替代。 参考论文, Github 仓库 |
PPO Tuner | PPO Tuner 是基于 PPO 算法的强化学习 Tuner。 参考论文 |
PBT Tuner | PBT Tuner 是一种简单的异步优化算法,在固定的计算资源下,它能有效的联合优化一组模型及其超参来最大化性能。 参考论文 |
要使用 NNI 内置的 Assessor,需要在 config.yml
文件中添加 builtinAssessorName 和 classArgs。 本部分中,将介绍每个 Tuner 的用法和建议场景、参数要求,并提供配置示例。
注意:参考样例中的格式来创建新的 config.yml
文件。 一些内置的 Tuner 还需要通过 nnictl package
命令先安装,如 SMAC。
名称:TPE
建议场景
TPE 是一种黑盒优化方法,可以使用在各种场景中,通常情况下都能得到较好的结果。 特别是在计算资源有限,只能运行少量 Trial 的情况。 大量的实验表明,TPE 的性能远远优于随机搜索。 详细说明
classArgs 要求:
- optimize_mode (maximize 或 minimize, 可选项, 默认值为 maximize) - 如果为 'maximize',表示 Tuner 会试着最大化指标。 如果为 'minimize',表示 Tuner 的目标是将指标最小化。
注意:为实现大规模并发 Trial,TPE 的并行性得到了优化。 有关优化原理或开启优化,参考 TPE 文档。
配置示例:
# config.yml
tuner:
builtinTunerName: TPE
classArgs:
optimize_mode: maximize
名称:Random
建议场景
随机搜索,可用于每个 Trial 运行时间不长(例如,能够非常快的完成,或者很快的被 Assessor 终止),并有充足计算资源的情况下。 如果要均衡的探索搜索空间,它也很有用。 随机搜索可作为搜索算法的基准线。 详细说明
配置示例:
# config.yml
tuner:
builtinTunerName: Random
名称:Anneal
建议场景
退火算法,用于每个 Trial 的时间不长,并且有足够的计算资源(与随机搜索基本相同)。 当搜索空间中的变量可以从某些先前的分布中采样时,它也很有用。 详细说明
classArgs 要求:
- optimize_mode (maximize 或 minimize, 可选项, 默认值为 maximize) - 如果为 'maximize',表示 Tuner 会试着最大化指标。 如果为 'minimize',表示 Tuner 的目标是将指标最小化。
配置示例:
# config.yml
tuner:
builtinTunerName: Anneal
classArgs:
optimize_mode: maximize
名称:Evolution
建议场景
其计算资源要求相对较高。 特别是,它需要非常大的初始种群,以免落入局部最优中。 如果 Trial 时间很短,或者利用了 Assessor,这个 Tuner 就非常合适。 如果 Trial 代码支持权重迁移,即每次 Trial 会从上一轮继承已经收敛的权重,建议使用此算法。 这会大大提高训练速度。 详细说明
classArgs 要求:
- optimize_mode (maximize 或 minimize, 可选项, 默认值为 maximize) - 如果为 'maximize',表示 Tuner 会试着最大化指标。 如果为 'minimize',表示 Tuner 的目标是将指标最小化。
- population_size (int 类型 (需要大于 0), 可选项, 默认值为 20) - 表示遗传 Tuner 中的初始种群(Trial 数量)。 建议
population_size
比concurrency
取值更大,这样能充分利用算法(至少要等于concurrency
,否则 Tuner 在生成第一代参数的时候就会失败)。
配置示例:
# config.yml
tuner:
builtinTunerName: Evolution
classArgs:
optimize_mode: maximize
population_size: 100
名称:SMAC
当前 SMAC 不支持在 WIndows 下运行。 原因参考:GitHub issue
安装
SMAC 在第一次使用前,必须用下面的命令先安装。 注意:SMAC 依赖于 swig
,Ubuntu 下可通过 apt 命令来安装 swig
。
nnictl package install --name=SMAC
建议场景
与 TPE 类似,SMAC 也是一个可以被用在各种场景中的黑盒 Tuner。在计算资源有限时,也可以使用。 此算法为离散超参而优化,因此,如果大部分超参是离散值时,建议使用此算法。 详细说明
classArgs 要求:
- optimize_mode (maximize 或 minimize, 可选项, 默认值为 maximize) - 如果为 'maximize',表示 Tuner 会试着最大化指标。 如果为 'minimize',表示 Tuner 的目标是将指标最小化。
- config_dedup ( True 或 False, 可选, 默认为 False ) - 如果为 True,则 Tuner 不会生成重复的配置。 如果为 False,则配置可能会重复生成,但对于相对较大的搜索空间,此概率较小。
配置示例:
# config.yml
tuner:
builtinTunerName: SMAC
classArgs:
optimize_mode: maximize
名称:BatchTuner
建议场景
如果 Experiment 配置已确定,可通过 choice
将它们罗列到搜索空间文件中运行即可。 详细说明
配置示例:
# config.yml
tuner:
builtinTunerName: BatchTuner
注意,BatchTuner 的搜索空间如下所示:
{
"combine_params":
{
"_type" : "choice",
"_value" : [{"optimizer": "Adam", "learning_rate": 0.00001},
{"optimizer": "Adam", "learning_rate": 0.0001},
{"optimizer": "Adam", "learning_rate": 0.001},
{"optimizer": "SGD", "learning_rate": 0.01},
{"optimizer": "SGD", "learning_rate": 0.005},
{"optimizer": "SGD", "learning_rate": 0.0002}]
}
}
搜索空间文件使用了高层的键 combine_params
。 参数类型必须是 choice
,并且 values
要包含所有需要的参数组合。
名称:Grid Search
建议场景
遍历搜索可以使用的类型有 choice, quniform, randint
。
当搜索空间较小时,建议这样做。 建议使用在可以穷尽整个搜索空间的情况下。 详细说明
配置示例:
# config.yml
tuner:
builtinTunerName: GridSearch
名称:Hyperband
建议场景
当搜索空间很大,但计算资源有限时建议使用。 中间结果能够很好的反映最终结果的情况下,此算法会非常有效。 例如,当训练初期更准确的模型在以后也更准确的情况下。 详细说明
classArgs 要求:
- optimize_mode (maximize 或 minimize, 可选项, 默认值为 maximize) - 如果为 'maximize',表示 Tuner 会试着最大化指标。 如果为 'minimize',表示 Tuner 的目标是将指标最小化。
- R (int, 可选, 默认为 60),分配给 Trial 的最大资源(可以是 mini-batches 或 epochs 的数值)。 每个 Trial 都需要用 TRIAL_BUDGET 来控制运行的步数。
- eta (int,可选,默认为 3),
(eta-1)/eta
是丢弃 Trial 的比例。 - exec_mode (串行或并行,可选默认值是并行),如果是“并行”, Tuner 会尝试使用可用资源立即启动新的分组。 如果是“串行”, Tuner 只会在当前分组完成后启动新的分组。
配置示例:
# config.yml
advisor:
builtinAdvisorName: Hyperband
classArgs:
optimize_mode: maximize
R: 60
eta: 3
名称:NetworkMorphism
安装
NetworkMorphism 需要先安装 :githublink:`PyTorch <examples/trials/network_morphism/requirements.txt>` 才能使用。
建议场景
需要将深度学习方法应用到自己的任务上,但不清楚该如何选择或设计网络。 可修改 :githublink:`示例 <examples/trials/network_morphism/cifar10/cifar10_keras.py>` 来适配自己的数据集和数据增强方法。 也可以修改批处理大小,学习率或优化器。 当前,此 Tuner 仅支持视觉领域。 详细说明
classArgs 要求:
- optimize_mode (maximize 或 minimize, 可选项, 默认值为 maximize) - 如果为 'maximize',表示 Tuner 会试着最大化指标。 如果为 'minimize',表示 Tuner 的目标是将指标最小化。
- task (('cv'), 可选, 默认为 'cv'),实验的领域。 当前,此 Tuner 仅支持计算机视觉(cv)领域。
- input_width (int, 可选, 默认为 = 32) ,输入图像的宽度
- input_channel (int, 可选, 默认为 = 3) ,输入图像的通道数
- n_output_node (int, 可选, 默认为 10),输出分类的数量
配置示例:
# config.yml
tuner:
builtinTunerName: NetworkMorphism
classArgs:
optimize_mode: maximize
task: cv
input_width: 32
input_channel: 3
n_output_node: 10
名称:MetisTuner
此 Tuner 搜索空间仅接受 quniform,uniform,randint
和数值的 choice
类型。 因为数值会被用来评估点之间的距离,所以只支持数值。
建议场景
与 TPE 和 SMAC 类似,Metis 是黑盒 Tuner。 如果系统需要很长时间才能完成一次 Trial,Metis 就比随机搜索等其它方法要更合适。 此外,Metis 还为接下来的 Trial 提供了候选。 :githublink:`示例 <examples/trials/auto-gbdt/search_space_metis.json>` 。 通过调用 NNI 的 SDK,用户只需要发送 精度
这样的最终结果给 Tuner。 详细说明
classArgs 要求:
- optimize_mode (maximize 或 minimize, 可选项, 默认值为 maximize) - 如果为 'maximize',表示 Tuner 会试着最大化指标。 如果为 'minimize',表示 Tuner 的目标是将指标最小化。
配置示例:
# config.yml
tuner:
builtinTunerName: MetisTuner
classArgs:
optimize_mode: maximize
名称: BOHB
安装
BOHB advisor 需要安装 ConfigSpace 包。 可以使用以下命令安装 ConfigSpace。
nnictl package install --name=BOHB
建议场景
与 Hyperband 类似,当计算资源有限但搜索空间相对较大时,建议使用 BOHB。 中间结果能够很好的反映最终结果的情况下,此算法会非常有效。 在这种情况下,由于使用贝叶斯优化,它可能会收敛到比 Hyperband 更好的配置。 详细说明
classArgs 要求:
- optimize_mode (maximize 或 minimize, 可选项, 默认值为 maximize) - 如果为 'maximize',表示 Tuner 会试着最大化指标。 如果为 'minimize',表示 Tuner 的目标是将指标最小化。
- min_budget (int, 可选项, 默认值为 1) - 运行一个试验给予的最低计算资源(budget),这里的计算资源通常使用 mini-batches 或者 epochs。 该参数必须为正数。
- max_budget (int, 可选项, 默认值为 3) - 运行一个试验给予的最高计算资源(budget),这里的计算资源通常使用 mini-batches 或者 epochs。 该参数必须大于“min_budget”。
- eta ( int, 可选项, 默认值为3 ) - 在每次迭代中,执行完整的“连续减半”算法。 在这里,当一个使用相同计算资源的子集结束后,选择表现前 1/eta 好的参数,给予更高的优先级,进入下一轮比较(会获得更多计算资源)。 该参数必须大于等于 2。
- min_points_in_model(int, 可选项, 默认值为None ): 建立核密度估计(KDE)要求的最小观察到的点。 默认值 None 表示 dim+1,当在该计算资源(budget)下试验过的参数已经大于等于
max{dim+1, min_points_in_model}
时,BOHB 将会开始建立这个计算资源(budget)下对应的核密度估计(KDE)模型,然后用这个模型来指导参数的选取。 该参数必须为正数。 (dim 表示搜索空间中超参的数量) - top_n_percent(int, 可选, 默认值为 15 ): 认为观察点为好点的百分数 (在 1 到 99 之间)。 区分表现好的点与坏的点是为了建立树形核密度估计模型。 例如,如果有 100 个观察到的 Trial,top_n_percent 为 15,则前 15% 的点将用于构建好点模型 "l(x)"。 其余 85% 的点将用于构建坏点模型 "g(x)"。
- num_samples(int, 可选项, 默认值为64): 用于优化 EI 值的采样个数(默认值为64)。 在这种情况下,将对 "num_samples" 点进行采样,并比较 l(x)/g(x) 的结果。 然后,如果 optimize_mode 是
maximize
,就会返回其中 l(x)/g(x) 值最大的点作为下一个配置参数。 否则,使用值最小的点。 - random_fraction(float, 可选项, 默认值为0.33): 使用模型的先验(通常是均匀)来随机采样的比例。
- bandwidth_factor(float, 可选, 默认值为 3.0 ): 为了鼓励多样性,把优化 EI 的点加宽,即把 KDE 中采样的点乘以这个因子,从而增加 KDE 中的带宽。 如果不熟悉 KDE,建议使用默认值。
- min_bandwidth(float, 可选, 默认值 = 0.001 ): 为了保持多样性, 即使所有好的样本对其中一个参数具有相同的值,使用最小带宽 (默认值: 1e-3) 而不是零。 如果不熟悉 KDE,建议使用默认值。
- 请注意,浮点类型当前仅支持十进制表示。 必须使用 0.333 而不是 1/3 ,0.001 而不是 1e-3。*
配置示例:
advisor:
builtinAdvisorName: BOHB
classArgs:
optimize_mode: maximize
min_budget: 1
max_budget: 27
eta: 3
名称: GPTuner
注意,搜索空间接受的类型包括 randint
, uniform
, quniform
, loguniform
, qloguniform
,以及数值的 choice
。 因为数值会被用来评估点之间的距离,所以只支持数值。
建议场景
作为序列的基于模型的全局优化(SMBO)算法,GP Tuner 使用了代理优化问题(找到采集函数的最大值)。虽然这仍然是个难题,但成本更低(从计算的角度来看),并且有通用的工具。 因此,GP Tuner 适合于函数的优化成本非常高时来使用。 GP 也可在计算资源非常有限时使用。 然后,由于需要反转 Gram 矩阵,GP Tuner 的计算复杂度以 O(N^3) 的速度增长,因此不适合于需要大量 Trial 的情形。 详细说明
classArgs 要求:
- optimize_mode (maximize 或 minimize, 可选项, 默认值为 maximize) - 如果为 'maximize',表示 Tuner 会试着最大化指标。 如果为 'minimize',表示 Tuner 的目标是将指标最小化。
- utility ('ei', 'ucb' 或 'poi', 可选, 默认值为 'ei') - 工具函数的类型(采集函数)。 'ei', 'ucb' 和 'poi' 分别对应 '期望的改进(Expected Improvement)', '上限置信度边界(Upper Confidence Bound)' 和 '改进概率(Probability of Improvement)'。
- kappa (float, 可选, 默认值为 5) - 用于 'ucb' 函数。
kappa
越大, Tuner 的探索性越强。 - xi (float, 可选, 默认为 0) - 用于 'ei' 和 'poi' 工具函数。
xi
越大, Tuner 的探索性越强。 - nu (float, 可选, 默认为 2.5) - 用于指定 Matern 核。 nu 越小,近似函数的平滑度越低。
- alpha (float, 可选, 默认值为 1e-6) - 用于高斯过程回归器。 值越大,表示观察中的噪声水平越高。
- cold_start_num (int, 可选, 默认值为 10) - 在高斯过程前执行随机探索的数量。 随机探索可帮助提高探索空间的广泛性。
- selection_num_warm_up (int, 可选, 默认为 1e5 ) - 用于获得最大采集函数而评估的随机点数量。
- selection_num_starting_points (int, 可选, 默认为 250) - 预热后,从随机七十点运行 L-BFGS-B 的次数。
配置示例:
# config.yml
tuner:
builtinTunerName: GPTuner
classArgs:
optimize_mode: maximize
utility: 'ei'
kappa: 5.0
xi: 0.0
nu: 2.5
alpha: 1e-6
cold_start_num: 10
selection_num_warm_up: 100000
selection_num_starting_points: 250
名称: PPOTuner
注意,搜索空间仅接受 layer_choice
和 input_choice
类型。 input_choice
, n_chosen
只能是 0, 1,或者 [0, 1]. 注意,NAS 的搜索空间文件通常通过 nnictl ss_gen 命令自动生成。
建议场景
PPO Tuner 是基于 PPO 算法的强化学习 Tuner。 PPOTuner 可用于使用 NNI NAS 接口进行的神经网络结构搜索。 一般来说,尽管 PPO 算法比其它强化学习算法效率更高,但强化学习算法需要更多的计算资源。 当有大量可用的计算资源时,才建议使用此 Tuner。 以在简单的任务上尝试,如 :githublink:`mnist-nas <examples/trials/mnist-nas>` 示例。 查看详细信息。
classArgs 要求:
- optimize_mode (‘maximize' 或 'minimize') - 如果为 'maximize',表示 Tuner 的目标是将指标最大化。 如果为 'minimize',表示 Tuner 的目标是将指标最小化。
- trials_per_update (int, 可选, 默认为 20) - 每次更新的 Trial 数量。 此数字必须可被 minibatch_size 整除。 推荐将
trials_per_update
设为trialConcurrency
的倍数,以提高 Trial 的并发效率。 - epochs_per_update (int, 可选, 默认为 4) - 每次更新的 Epoch 数量。
- minibatch_size (int, 可选, 默认为 4) - mini-batch 大小 (即每个 mini-batch 的 Trial 数量)。 注意,trials_per_update 必须可被 minibatch_size 整除。
- ent_coef (float, 可选, 默认为 0.0) - 优化目标中的 Policy entropy coefficient。
- lr (float, 可选, 默认为 3e-4) - 模型的学习率(LSTM 网络),为常数。
- vf_coef (float, 可选, 默认为 0.5) - 优化目标中的价值函数损失系数
- max_grad_norm (float,可选,默认值是0.5) - 梯度正则裁剪系数
- gamma (float, 可选,默认值是 0.99) - 损失因子
- lam (float, 可选,默认值是 0.95) - 优势估计损失因子 (论文中的lambda)。
- cliprange (float, 可选, 默认为 0.2) - PPO 算法的 cliprange, 为常数。
配置示例:
# config.yml
tuner:
builtinTunerName: PPOTuner
classArgs:
optimize_mode: maximize
名称: PBTTuner
建议场景
Population Based Training (PBT,基于种群的训练),将并扩展并行搜索方法和顺序优化方法连接在了一起。 它通过周期性的从较好的模型中继承权重来继续探索,这样所需的计算资源相对较少。 使用 PBTTuner,用户最终可以得到训练好的模型,而不是需要从头训练的配置。 这是因为模型权重会在搜索过程中周期性的继承。 PBT 也可作为训练的方法。 如果不需要配置,只需要好的模型,PBTTuner 是不错的选择。 查看详细信息
classArgs 要求:
- optimize_mode (‘maximize' 或 'minimize') - 如果为 'maximize',表示 Tuner 的目标是将指标最大化。 如果为 'minimize',表示 Tuner 的目标是将指标最小化。
- all_checkpoint_dir (str,可选, 默认为 None ) - Trial 保存读取检查点的目录,如果不指定,其为 "~/nni/checkpoint/"。 注意,如果 Experiment 不是本机模式,用户需要提供能被所有 Trial 所访问的共享存储。
- population_size (int, 可选, 默认为 10) - 种群的 Trial 数量。 每个步骤有此数量的 Trial。 在 NNI 的实现中,一步表示每个 Trial 运行一定次数 Epoch,此 Epoch 的数量由用户来指定。
- factors (tuple, 可选, 默认为 (1.2, 0.8)) - 超参变动量的因子。
- fraction (float, 可选, 默认为 0.2) - 选择的最低和最高 Trial 的比例。
使用示例:
# config.yml
tuner:
builtinTunerName: PBTTuner
classArgs:
optimize_mode: maximize
注意,要使用此 Tuner,Trial 代码也需要相应的修改,参考 PBTTuner 文档 了解详情。
- 在Github 中 提交此功能的 Bug
- 在Github 中 提交新功能或请求改进
- 了解 NNI 中 特征工程的更多信息
- 了解 NNI 中 NAS 的更多信息
- 了解 NNI 中 模型压缩的更多信息