-
Notifications
You must be signed in to change notification settings - Fork 5.6k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
静态图推理如何开启AMP? #56491
Comments
推理只与导出推理模型时的精度有关,如果导出的是FP32类型的推理模型,可按照如下方式进行转换: |
感谢解答,我尝试后再来反馈一下 |
hello,我用你推荐的方法试了一下ernie的fp16转换,我理解这个就是apply个pass做graph rewrite,与我实际的device无关,于是我在Intel GPU上按照文档示例直接跑,请问如下结果正常吗?我理解ernie应该不至于一个op都不在fp16白名单上,感谢解答
最后的打印结果显示低精op为0: |
@vivienfanghuagood 麻烦关注一下这个issue,在intel GPU上的低精度Kernel支持~ |
具体是什么型号呢?麻烦贴一下,以及问题复现的脚本~ |
hi @vivienfanghuagood @carryyu ,感谢帮助~目前已经可以成功apply AMP pass,但是目前遇到了一个困难在于AMP pass无法指定白名单,只能指定黑名单。因为我的图里面有一个自定义的fp16 op,这个op在AMP pass里面不认识,所以AMP pass会把这个fp16的输入输出全部cast为fp32,导致这个fp16 op无法launch。希望可以再提供一点点帮助,感谢 |
@yuanlehome 麻烦远乐关注一下convert_to_mixed_precision对自定义算子兼容的问题~ |
情况已经了解。我们会在convert_to_mixed_precision中新增一个可选参数white_list来支持自定义算子的情况,预计代码明后两天可合入develop。 |
非常感谢! |
hi, 您那边是否可以基于这个pr测试一下呢?#56535 |
好的,多谢,我试试 |
hello @yuanlehome ,我拉你的分支试了一下,没有起作用,自定义的multihead_attention依然会被转为fp32,用法如下: |
set这么使用呢?set(['multihead_attention']),如果还不行,你方便把模型发我一份嘛?我测一下 email: liuyuanle@baidu.com |
参数文件太大了,只能发模型文件,这样你能测到吗? |
那我这边想办法搞个demo模型,复现并测试吧~ |
您那边测试的时候麻烦加上 GLOG_vmodule=auto_mixed_precision_pass=4 python ... 看下完整log 另外 set务必这么使用 white_list=set(['multihead_attention']) |
嗯,感谢,按照你的guide跑了一下,已经email你log 可以考虑写一个包含某个不在白名单的op的model来简单测试一下 |
hi, 已收到email,并且分析到了原因,现在请再pull pr最新commit尝试一下~ |
Hello, 模型已收到,请拉取这个bug fix pr #56664 再次测试~ |
@yuanlehome @vivienfanghuagood 问题解决,感谢帮助 |
hello, 我想要用静态图做AMP推理,然而我查阅了paddle文档后,只发现有静态图训练的AMP enable方法,没有发现推理的AMP enable方法,请问可以帮我看看如何解决静态图AMP推理吗?谢谢,文档链接,简易代码如下
The text was updated successfully, but these errors were encountered: