【MindStudio训练营第一季】MindStudio Profiling随笔

MindStudio Profiler简介

Ascend AI处理器是一款面向AI业务应用的高性能集成芯片,包含AI CPU、A Core、AI Vector Core等计算单元来提升AI任务的运算性能。基于Ascend AI处理器,Mindstudio在算子开发、模型训练及推理应用等不同环节,提供了端到端的Profiler工具。该工具可以帮助用户看到模型从应用层到芯片层的接口和算子耗时,从而准确定位系统的软、硬件性能瓶颈,提高性能分析的效率。

调优主要分为三步:

性能数据采集、解析、分析

性能问题定位,发现性能瓶颈点

采取性能优化措施

性能分析简要介绍

通过命令行采集性能数据

数据采集方式

.msprof.bin

数据采集方式——离线推理

acl.json配置文件方式

打开工程文件,查看调用的aclInit0函数,获取acl.json文件路径

修改acl.json文件,添加Profiling相关配置

AI任务相关性能数据采集方式 - API接口

API接口类型

aclprofinit: 设置落盘路径

aclprofCreateConfig: 设置采集参数

aclprofStart: 开始采集

aclmdlExecute: 执行模型

aclprofStop: 结束采集

aclprofDestroyConfig: 释放配置资源

aclprofFinalize:释放profiling组件资源

API接口规范

ACL API(C接口)

pyACL API (Python接口)

数据采集方式——在线推理与训练

MindSpore

TensorFlow

环境变量配置:

exportPROFILINGMODE=trueexportPROFILINGOPTIONS='"output":"/tmp","training trace":"on""task trace":"on","aicpu":"on,"aic metrics:"PipeUtilization")

训练脚本配置

Estimator模式下,通过NPURunConfig中的profiling_config开启Profiling数据采集。

sess.run模式下,通过session配置项profiling_mode.profiling_options开启Profiling数据采集。

Pytorch 框架侧数据的采集方法

withtorch.autograd.profiler.profile(use_npu=True)asprof:forepochinrange(10):y_pred=model(x data)loss=loss_func(y_pred,y_data)loss.backward()profexport_chrome_trace('profiler.json')

Pytorch CANN侧数据的采集方法

config=torch_npu.npu.profileConfig(ACL_PROF_ACL_API=True,ACL_PROF_TASK_TIME=False,ACL_PROF_AICPU=False,AC_PROF_AICORE_METRICS=False,aiCoreMetricsType=0)

withtorch.npu.profile(profiler_result_path,config=config)asprof:forepochinrange(10):y_pred=model(x data)loss=loss_func(y_pred,y_data)loss.backward()

同时采集PyTorch框架侧和CANN数据

msprof.bin

withtorch.npu.profile(profiler result path,use e2e profiler=True)asprof:forepochinrange(10):y_pred=model(x data)loss=lossfunc(y_pred,y_data)loss.backward()

对比不同迭代的耗时

withtorch.npu.profile(profiler_result_path)asprof:forepochinrange(10):torch_npu.npu.iteration_start()Y_pred=model(x data)loss=loss_func(y_pred,y_data)loss.backward()torch_npu.npu.iterationend()msprof--export=on--output=fprof path]--iteration-id=3

仅采集需要的迭代

def executemodel():y_pred=model(x data)loss=loss_func(y_pred,y_data)loss.backward()forepochinrange(10):ifepoch!=2:executemodel()else:withtorch.npu.profile(profiler_result_path)asprof:executemodel()

forepochinrange(10):ifepoch==2:torch_npu.npu.prof_init(profiler_result_path)torch_npu.npu.prof_start()executemodel()ifepoch==2:torch_npu.npu.prof_stop()torch_npu.npu.prof_finalize()

Profiling数据说明

(1) Step trace timeline数据: step trace数据查看选代耗时情况,识别较长选代进行分析。

msporf--export=on--output=prof_path

(2) 对应迭代的msprof timeline数据: 通过打开导出的msprof数据查看送代内耗时情况,存在较长耗时算子时,可以进一步找算子详细信息辅助定位;存在通信耗时或调度间隙较长时,分析调用过程中接口耗时。

(3)HCCL timeline数据:通过多卡进行训练时,卡间通信算子也可能导致性能瓶颈。

(4)打开组件接口耗时统计表:可以查看迭代内AscendCL API 和 Runtime APl的接口耗时情况,辅助分析接口调用对性能的影响。

(5)打开对应的算子统计表:可以查看送代内每个AI CORE和AI CPU算子的耗时及详细信息,进一步定位分析算子的metrics指标数据,分析算子数据搬运、执行流水的占比情况,识别算子瓶颈点。

优化案例——算子融合

通过MindStudio IDE分析性能

IDE模式

集群调优

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容