from sklearn.model_selection import GridSearchCV
# 设置 MLPRegressor 的可能参数
parameter_space = {
# 'hidden_layer_sizes': [(50,50), (100,100), (100,50)],
'hidden_layer_sizes' : [(50, 50), (100, 100), (50, 100), (100, 50)] + [(50, 50, 50), (100, 100, 100), (50, 100, 50)],
'activation': ['tanh', 'relu'],
'solver': ['sgd', 'adam'],
'alpha': [0.0001, 0.05],
'learning_rate': ['constant','adaptive'],
}
# 创建 MLPRegressor 实例
mlp = MLPRegressor(max_iter=1000, random_state=1)
# 创建 GridSearchCV 实例
clf = GridSearchCV(mlp, parameter_space, n_jobs=-1, cv=3)
clf.fit(reg_X_train, reg_y_train)
# 查看最佳参数组合和性能
print("最佳参数组合:")
print(clf.best_params_)
print("在该参数下的训练集得分:")
print(clf.best_score_)
MLPRegressor 超参数搜索
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
禁止转载,如需转载请通过简信或评论联系作者。
推荐阅读更多精彩内容
- 之前一直在阿里实习,最近终于闲了下来参加了一个Kaggle的比赛,记录一下比赛过程中对模型调参的一些经验。 在进行...
- 代码:https://mbd.pub/o/bread/ZJmXm5pr[https://mbd.pub/o/bre...
- 超参数:神经网络训练过程中不变的参数 网络结构参数:层数、每层宽度(神经单元个数)、每层的激活函数等 训练参数:b...
- 网格遍历搜索 超参数调优,最基本的就是网格搜索的方法。最常用的是网格遍历的方法,其遍历给定的参数组合,来比较模型在...