diff --git a/.jenkins/check/config/filter_linklint.txt b/.jenkins/check/config/filter_linklint.txt
index 25b2a3941472bb466cac6d27909cec4bcc751e1c..96be27e8c1c2be99bfb17631a5a739f8b1908301 100644
--- a/.jenkins/check/config/filter_linklint.txt
+++ b/.jenkins/check/config/filter_linklint.txt
@@ -3,3 +3,4 @@ https://github.com/mcordts/cityscapesScripts/blob/master/cityscapesscripts/helpe
 https://persagen.com/files/misc/wang2014knowledge.pdf
 https://s3.amazonaws.com/google-landmark/metadata
 https://s3.amazonaws.com/google-landmark/md5sum
+http://vllab.ucmerced.edu/wlai24/LapSRN/results/*
diff --git a/benchmark/ascend/resnet/README_CN.md b/benchmark/ascend/resnet/README_CN.md
index 5eb5dd4b18fc345c2be05849ba6402ad309aaa3c..a74323c6ae5a2208cab71c567eea27a1a5c387d8 100644
--- a/benchmark/ascend/resnet/README_CN.md
+++ b/benchmark/ascend/resnet/README_CN.md
@@ -103,7 +103,7 @@ ResNet的总体网络架构如下:
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/audio/ecapa_tdnn/README_CN.md b/official/audio/ecapa_tdnn/README_CN.md
index 3a16399e8d0d73460ac937d867786a04c8940f33..d99a5775abf8d028168c195d415cb9efee44b429 100644
--- a/official/audio/ecapa_tdnn/README_CN.md
+++ b/official/audio/ecapa_tdnn/README_CN.md
@@ -116,7 +116,7 @@ ECAPA-TDNN由多个SE-Res2Block模块串联起来,可以更加深入。SE-Res2
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/audio/melgan/README_CN.md b/official/audio/melgan/README_CN.md
index 5a333fbf7cef5a6be27ac63cee9303976524bbf7..adf72d5c6b7ea9099e07855e70de98a21ac8fa73 100644
--- a/official/audio/melgan/README_CN.md
+++ b/official/audio/melgan/README_CN.md
@@ -70,7 +70,7 @@ MelGAN模型是非自回归全卷积模型。它的参数比同类模型少得
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/cnnctc/README_CN.md b/official/cv/cnnctc/README_CN.md
index adde431d21760a8811a39078830184dc2c69c916..0d8f9ab9dbc90e175feed9668effea3536d5cee6 100644
--- a/official/cv/cnnctc/README_CN.md
+++ b/official/cv/cnnctc/README_CN.md
@@ -95,7 +95,7 @@ python src/preprocess_dataset.py
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/deeplabv3/README_CN.md b/official/cv/deeplabv3/README_CN.md
index 48de10986b2e73bb2f4070e6553822da9a1f754e..ee39d277d1280f6c4047b21915a1140f183eb1d5 100644
--- a/official/cv/deeplabv3/README_CN.md
+++ b/official/cv/deeplabv3/README_CN.md
@@ -92,7 +92,7 @@ Pascal VOC数据集和语义边界数据集(Semantic Boundaries Dataset,SBD
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/densenet/README_CN.md b/official/cv/densenet/README_CN.md
index e85ffea0786c9bff39bbd7a8d91aab2cdc76b76f..8dd2e832b2a8f9bbfc306390524926b6bc94fe4b 100644
--- a/official/cv/densenet/README_CN.md
+++ b/official/cv/densenet/README_CN.md
@@ -84,7 +84,7 @@ DenseNet-100使用的数据集: Cifar-10
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/depthnet/README.md b/official/cv/depthnet/README.md
index 5227a9cd2295c126e1084f47cf790c587fa1cb1b..06053115ce330f6ef323560cd6b932b20f777fbc 100644
--- a/official/cv/depthnet/README.md
+++ b/official/cv/depthnet/README.md
@@ -74,7 +74,7 @@
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/googlenet/README_CN.md b/official/cv/googlenet/README_CN.md
index 63873626a1064ccc636f1e14573a691055c63964..d76dc1df56339edb9aae35854f7c8ecfcd91e540 100644
--- a/official/cv/googlenet/README_CN.md
+++ b/official/cv/googlenet/README_CN.md
@@ -73,7 +73,7 @@ GoogleNet由多个inception模块串联起来,可以更加深入。  降维的
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/inceptionv3/README_CN.md b/official/cv/inceptionv3/README_CN.md
index 7ea0b597cd0ab56036860d516942d2f0d15fc12c..066a117c96a7ed5d0956d8271eab6756e808e54c 100644
--- a/official/cv/inceptionv3/README_CN.md
+++ b/official/cv/inceptionv3/README_CN.md
@@ -72,7 +72,7 @@ InceptionV3的总体网络架构如下:
 
 ## 混合精度(Ascend)
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
diff --git a/official/cv/mobilenetv2/README_CN.md b/official/cv/mobilenetv2/README_CN.md
index 6ab4e4c18e5d9f950564ee8b228fcfbaa4e8198e..01d397a5c31d72c6036523856d31620610371af6 100644
--- a/official/cv/mobilenetv2/README_CN.md
+++ b/official/cv/mobilenetv2/README_CN.md
@@ -55,7 +55,7 @@ MobileNetV2总体网络架构如下:
 
 ## 混合精度(Ascend)
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/nima/README.md b/official/cv/nima/README.md
index 8ccd8d89deeb813b5b2141e00f356df773aab575..109907846582f997a3d8e478e750464423dfd427 100644
--- a/official/cv/nima/README.md
+++ b/official/cv/nima/README.md
@@ -84,7 +84,7 @@ python ./src/dividing_label.py --config_path=~/config.yaml
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/patchcore/README_CN.md b/official/cv/patchcore/README_CN.md
index f607be1576259669e38448c5d619c313348c64ea..aae7f8f0140edb06ab2677608fad8d35f9f712d6 100644
--- a/official/cv/patchcore/README_CN.md
+++ b/official/cv/patchcore/README_CN.md
@@ -93,7 +93,7 @@ PatchCore使用预训练的WideResNet50作为Encoder, 并去除layer3之后的
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/pvnet/README.md b/official/cv/pvnet/README.md
index 629106e97b6129453e9e6b13fb6adf17e0bc3dcc..cd204432c2ffed8db24a6597f1174ae7d32fdc81 100644
--- a/official/cv/pvnet/README.md
+++ b/official/cv/pvnet/README.md
@@ -62,7 +62,7 @@ PvNet是一种Encode-Decode的网络结构,通过输入一张rgb图,输出
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/resnet/README_CN.md b/official/cv/resnet/README_CN.md
index 163be711c920d5c71fed40c82887d7f2b1e0578c..0995e8098984c6e041ef9cae188728682b002194 100644
--- a/official/cv/resnet/README_CN.md
+++ b/official/cv/resnet/README_CN.md
@@ -110,7 +110,7 @@ ResNet的总体网络架构如下:
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/resnext/README_CN.md b/official/cv/resnext/README_CN.md
index ce16fd1050612564b8ad075fd2c51c5f71e25266..785e54469e90c77aae181d3049e8527f89e97926 100644
--- a/official/cv/resnext/README_CN.md
+++ b/official/cv/resnext/README_CN.md
@@ -54,7 +54,7 @@ ResNeXt整体网络架构如下:
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
diff --git a/official/cv/semantic_human_matting/README.md b/official/cv/semantic_human_matting/README.md
index aeaf51c1ae947ecef57ad599a3fe56871aa8a8c0..e7436aad57878e88fc0c055cf661e97609a66b28 100644
--- a/official/cv/semantic_human_matting/README.md
+++ b/official/cv/semantic_human_matting/README.md
@@ -78,7 +78,7 @@
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html) 的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索`reduce precision`查看精度降低的算子。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html) 的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索`reduce precision`查看精度降低的算子。
 
 # 环境要求
 
diff --git a/official/cv/srcnn/README_CN.md b/official/cv/srcnn/README_CN.md
index 6eb664d77c513d6c9432cb6810fbcc9ab9c4f0d7..f0ac7ddb4536b0b9ffac52624d6a5316f514d0c9 100644
--- a/official/cv/srcnn/README_CN.md
+++ b/official/cv/srcnn/README_CN.md
@@ -71,7 +71,7 @@ SRCNN首先使用双三次(bicubic)插值将低分辨率图像放大成目标尺
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/ssim-ae/README_CN.md b/official/cv/ssim-ae/README_CN.md
index 47ad15832db537eb0492d251450f26c70d30ae32..b11046cbb685936dc3a4123a24b342cc10db4adf 100644
--- a/official/cv/ssim-ae/README_CN.md
+++ b/official/cv/ssim-ae/README_CN.md
@@ -108,7 +108,7 @@ MVTec AD数据集
 
 ## 混合精度
 
-采用 [混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html) 的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用 [混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html) 的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/cv/vgg16/README_CN.md b/official/cv/vgg16/README_CN.md
index 355a3ea163179d1ac2f25c63aaa6cea7992abff0..faa3b074010bacffc369ed48ad599d0ce6aa94da 100644
--- a/official/cv/vgg16/README_CN.md
+++ b/official/cv/vgg16/README_CN.md
@@ -119,7 +119,7 @@ VGG 16网络主要由几个基本模块(包括卷积层和池化层)和三
 
 ### 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
diff --git a/official/cv/vit/README_CN.md b/official/cv/vit/README_CN.md
index 323a5b252bb272619f7b520a636d59876e8048de..576acafd340346c21f4fb11f1f17ec1ace54aeb0 100644
--- a/official/cv/vit/README_CN.md
+++ b/official/cv/vit/README_CN.md
@@ -68,7 +68,7 @@ Vit是基于多个transformer encoder模块串联起来,由多个inception模
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/official/nlp/duconv/README_CN.md b/official/nlp/duconv/README_CN.md
index ab8955cc2f260ee9628bce1b3228c722c65c017f..72745bdc0d2182e374e11de9690fed9e5deaf387 100644
--- a/official/nlp/duconv/README_CN.md
+++ b/official/nlp/duconv/README_CN.md
@@ -85,7 +85,7 @@ Proactive Conversation模型包含四个部分:
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/APDrawingGAN/README_CN.md b/research/cv/APDrawingGAN/README_CN.md
index 4b3c7800479d8fb2a6d573945a9f27b48d3d4410..937e6ff006b0615c7ab62b604fbf06a8ae26a251 100644
--- a/research/cv/APDrawingGAN/README_CN.md
+++ b/research/cv/APDrawingGAN/README_CN.md
@@ -89,7 +89,7 @@ auxiliary.ckpt文件获取:从 https://cg.cs.tsinghua.edu.cn/people/~Yongjin/A
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/AlignedReID++/README_CN.md b/research/cv/AlignedReID++/README_CN.md
index 02d1eba35569c305be4a448167fe824baf045b83..2a23ebd2f9a11d7fe886999b89200760fba6edd1 100644
--- a/research/cv/AlignedReID++/README_CN.md
+++ b/research/cv/AlignedReID++/README_CN.md
@@ -61,7 +61,7 @@ AlignedReID++采用resnet50作为backbone,重新命名了AlignedReID中提出
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/AlphaPose/README_CN.md b/research/cv/AlphaPose/README_CN.md
index 41c34e7dd91ecb745f95f16949dee2d08af798dc..d0dfa05f9df318e56e0de25a9703574033c01f50 100644
--- a/research/cv/AlphaPose/README_CN.md
+++ b/research/cv/AlphaPose/README_CN.md
@@ -55,7 +55,7 @@ AlphaPose的总体网络架构如下:
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/DDRNet/README_CN.md b/research/cv/DDRNet/README_CN.md
index 59b097567e34ceabcf81915d6750126258aebcfb..6ea055698bd500f10d9d2b1c1f14b8015910e9c6 100644
--- a/research/cv/DDRNet/README_CN.md
+++ b/research/cv/DDRNet/README_CN.md
@@ -53,7 +53,7 @@
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)
 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # [环境要求](#目录)
diff --git a/research/cv/EDSR/README_CN.md b/research/cv/EDSR/README_CN.md
index c32540750b8a862dca95bf4d540dc4a9649ba381..34638ca943c83ebe4a4660f9df2555b6fc27d5d7 100644
--- a/research/cv/EDSR/README_CN.md
+++ b/research/cv/EDSR/README_CN.md
@@ -97,7 +97,7 @@ EDSR是由多个优化后的residual blocks串联而成,相比原始版本的r
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html?highlight=%E6%B7%B7%E5%90%88%E7%B2%BE%E5%BA%A6)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html?highlight=%E6%B7%B7%E5%90%88%E7%B2%BE%E5%BA%A6)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/GENet_Res50/README_CN.md b/research/cv/GENet_Res50/README_CN.md
index bcd6636d7c9d3901b5147e5a0fa0d94579cf8a1c..d0d70d1db7ca9752ca5a28c8e7096af6ec2c4f57 100644
--- a/research/cv/GENet_Res50/README_CN.md
+++ b/research/cv/GENet_Res50/README_CN.md
@@ -64,7 +64,7 @@ Imagenet 2017和Imagenet 2012 数据集一致
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/LightCNN/README.md b/research/cv/LightCNN/README.md
index 34e3da4673616e57c358ce32afad628ffce74307..f7e6a2fc05004340d28e63e9dff00e40188e7c37 100644
--- a/research/cv/LightCNN/README.md
+++ b/research/cv/LightCNN/README.md
@@ -119,7 +119,7 @@ Dataset structure:
 
 ## [Mixed Precision](#mixedprecision)
 
-The [mixed-precision](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html) training
+The [mixed-precision](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html) training
 method uses single-precision and half-precision data to improve the training speed of deep learning neural networks,
 while maintaining the network accuracy that can be achieved by single-precision training. Mixed-precision training
 increases computing speed and reduces memory usage, while supporting training larger models or achieving larger batches
@@ -637,7 +637,7 @@ Please check the official [homepage](https://gitee.com/mindspore/models).
 
 [5]: https://pan.baidu.com/s/1eR6vHFO
 
-[6]: https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html
+[6]: https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html
 
 [7]: http://www.cbsr.ia.ac.cn/users/scliao/projects/blufr/BLUFR.zip
 
diff --git a/research/cv/LightCNN/README_CN.md b/research/cv/LightCNN/README_CN.md
index 1e931688f1189d87e475f40c6a9b5edc68ab2310..4b3c1b2eb4fb881277eb4b5e8c2773f990022af9 100644
--- a/research/cv/LightCNN/README_CN.md
+++ b/research/cv/LightCNN/README_CN.md
@@ -516,7 +516,7 @@ bash run_infer_310.sh [MINDIR_PATH] [DATASET_PATH] [DEVICE_ID]
 [3]: https://drive.google.com/file/d/0ByNaVHFekDPRbFg1YTNiMUxNYXc/view?usp=sharing
 [4]: https://hyper.ai/datasets/5543
 [5]: https://pan.baidu.com/s/1eR6vHFO
-[6]: https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html
+[6]: https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html
 [7]: http://www.cbsr.ia.ac.cn/users/scliao/projects/blufr/BLUFR.zip
 [8]: https://github.com/AlfredXiangWu/face_verification_experiment/blob/master/code/lfw_pairs.mat
 [9]: https://github.com/AlfredXiangWu/face_verification_experiment/blob/master/results/LightenedCNN_B_lfw.mat
diff --git a/research/cv/NFNet/README_CN.md b/research/cv/NFNet/README_CN.md
index 9e7b1248586de87f22a9fec0f8412a369de2ab55..5365c64e0e2a984f2bd7bffe9c8009201252ea38 100644
--- a/research/cv/NFNet/README_CN.md
+++ b/research/cv/NFNet/README_CN.md
@@ -57,7 +57,7 @@
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)
 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # [环境要求](#目录)
diff --git a/research/cv/SE_ResNeXt50/README_CN.md b/research/cv/SE_ResNeXt50/README_CN.md
index 690863b055f5f5167fbd45122f01d4b47dd085f4..1281584f1c9d42e4561832d22a9f6293d1faac95 100644
--- a/research/cv/SE_ResNeXt50/README_CN.md
+++ b/research/cv/SE_ResNeXt50/README_CN.md
@@ -56,7 +56,7 @@ SE-ResNeXt的总体网络架构如下: [链接](https://arxiv.org/abs/1709.015
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html) 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html) 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # 环境要求
 
diff --git a/research/cv/TNT/README_CN.md b/research/cv/TNT/README_CN.md
index b8daa4b40b0982b84d76b8eaa283c26b7e00e325..93f47947bccfcf1e40a1ac3158ed6f78c884fa72 100644
--- a/research/cv/TNT/README_CN.md
+++ b/research/cv/TNT/README_CN.md
@@ -53,7 +53,7 @@ Transformer是一种最初用于NLP任务的基于自注意力的神经网络。
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)
 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # [环境要求](#目录)
diff --git a/research/cv/ViG/README_CN.md b/research/cv/ViG/README_CN.md
index 8e2445807968152c96632b86c209459d7b469607..3d14fe332fcd86901be2ef7d362699ae5d2e0949 100644
--- a/research/cv/ViG/README_CN.md
+++ b/research/cv/ViG/README_CN.md
@@ -47,7 +47,7 @@
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # [环境要求](#目录)
 
diff --git a/research/cv/cct/README_CN.md b/research/cv/cct/README_CN.md
index 1e5028f00fd6b47a851039e2b906ea9018617b8e..4e550d444dbfec168792f1f170e1d6c68e71a22e 100644
--- a/research/cv/cct/README_CN.md
+++ b/research/cv/cct/README_CN.md
@@ -51,7 +51,7 @@
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)
 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # [环境要求](#目录)
diff --git a/research/cv/convnext/README_CN.md b/research/cv/convnext/README_CN.md
index f95ab9a26c61bb53077d182bcc6088c1a9cc54c0..79a3f936f9ad70190c0963479ef328521d10faa8 100644
--- a/research/cv/convnext/README_CN.md
+++ b/research/cv/convnext/README_CN.md
@@ -53,7 +53,7 @@
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)
 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # [环境要求](#目录)
diff --git a/research/cv/deeplabv3plus/README_CN.md b/research/cv/deeplabv3plus/README_CN.md
index 333a5ad9de742ccfe78e2e1d9c853a188a2a1bb7..9086c832d87fe92c24dc9efed5ec4e6b21fa16a9 100644
--- a/research/cv/deeplabv3plus/README_CN.md
+++ b/research/cv/deeplabv3plus/README_CN.md
@@ -85,7 +85,7 @@ Pascal VOC数据集和语义边界数据集(Semantic Boundaries Dataset,SBD
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/dgcnet_res101/README.md b/research/cv/dgcnet_res101/README.md
index f8b94e800b52c928ca5f031a22f3a2a4efc15018..e38f69ebebcf90eaff84bc2308e9d764988ae2a7 100644
--- a/research/cv/dgcnet_res101/README.md
+++ b/research/cv/dgcnet_res101/README.md
@@ -86,7 +86,7 @@ DGCNet是2019年提出的语义分割网络,其骨干网络使用了ResNet模
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/efficientnetv2/README_CN.md b/research/cv/efficientnetv2/README_CN.md
index ad51d1c337f71afd068cd537f854a9dfd1bd5a68..f73eda51b1dd3a5e735b1957d687c7401e65c065 100644
--- a/research/cv/efficientnetv2/README_CN.md
+++ b/research/cv/efficientnetv2/README_CN.md
@@ -51,7 +51,7 @@
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)
 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # [环境要求](#目录)
diff --git a/research/cv/fishnet99/README_CN.md b/research/cv/fishnet99/README_CN.md
index e64b55fcead4e38c520da6fd4e93f884c110e93d..e800c734c1b996c27cf5e1c86e370c58fb243997 100644
--- a/research/cv/fishnet99/README_CN.md
+++ b/research/cv/fishnet99/README_CN.md
@@ -63,7 +63,7 @@
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html) 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html) 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # 环境要求
 
diff --git a/research/cv/glore_res/README_CN.md b/research/cv/glore_res/README_CN.md
index 9d3cec8b0624b9a671310e82cb24ce4468e3cbcf..ec02ec83a60f239f1f91b31231f906c3608d23fa 100644
--- a/research/cv/glore_res/README_CN.md
+++ b/research/cv/glore_res/README_CN.md
@@ -82,7 +82,7 @@ glore_res200网络模型的backbone是ResNet200, 在Stage2, Stage3中分别均
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/hardnet/README_CN.md b/research/cv/hardnet/README_CN.md
index 5f86a307f8dc3ea2012ddbbb05093e705d40e3bd..be5d78b05d5a8b6fe5ed5c01b88e7a2823b9a6f1 100644
--- a/research/cv/hardnet/README_CN.md
+++ b/research/cv/hardnet/README_CN.md
@@ -60,7 +60,7 @@ HarDNet指的是Harmonic DenseNet: A low memory traffic network,其突出的
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/inception_resnet_v2/README_CN.md b/research/cv/inception_resnet_v2/README_CN.md
index 85296c89146899a6e27ea3bac1f978f77d2f7ef7..c3b38094b3655a6b10e8ff83962487d9f29e89ee 100644
--- a/research/cv/inception_resnet_v2/README_CN.md
+++ b/research/cv/inception_resnet_v2/README_CN.md
@@ -56,7 +56,7 @@ Inception_ResNet_v2的总体网络架构如下:
 
 ## 混合精度(Ascend)
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
diff --git a/research/cv/mae/README_CN.md b/research/cv/mae/README_CN.md
index 7b8cde4f64bf313636f2aa5b04776ef0f6b3fe1a..fd9fd69134f99dbfd4c4f6ab0ccd20152654a68e 100644
--- a/research/cv/mae/README_CN.md
+++ b/research/cv/mae/README_CN.md
@@ -63,7 +63,7 @@ This is a MindSpore/NPU re-implementation of the paper [Masked Autoencoders Are
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/metric_learn/README.md b/research/cv/metric_learn/README.md
index 6074fcf1750405a7cddfa98f963c58d948a6e296..ae281e393fba11d06992352cb30439e4ddd31d5b 100644
--- a/research/cv/metric_learn/README.md
+++ b/research/cv/metric_learn/README.md
@@ -139,7 +139,7 @@ cd Stanford_Online_Products && head -n 1048 test.txt > test_tiny.txt
 
 ## Mixed precision
 
-The [mixed precision](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html) training
+The [mixed precision](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html) training
 method uses single-precision and half-precision data to improve the training speed of deep learning neural networks,
 while maintaining the network accuracy that can be achieved by single-precision training. Mixed-precision training
 improves computing speed and reduces memory usage, while supporting training larger models or achieving larger batches
diff --git a/research/cv/metric_learn/README_CN.md b/research/cv/metric_learn/README_CN.md
index 806caee98e4eda9c607fd410425cf0afe13a7c8f..545f128fb4bd7c026b6232a76da4c0b1e1b6befe 100644
--- a/research/cv/metric_learn/README_CN.md
+++ b/research/cv/metric_learn/README_CN.md
@@ -80,7 +80,7 @@ cd Stanford_Online_Products && head -n 1048 test.txt > test_tiny.txt
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/midas/README.md b/research/cv/midas/README.md
index 09ad638fb08d34989170b18db4599e3e5d6a7863..85a923a9ffb5e81d39b0fdeb0051942a015ce8e4 100644
--- a/research/cv/midas/README.md
+++ b/research/cv/midas/README.md
@@ -55,7 +55,7 @@ Midas的总体网络架构如下:
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/ras/README.md b/research/cv/ras/README.md
index 5c736a66e99e48d2d7cfa9c2b616298d0f26293d..e5c1a24da8c9e3a2770b8e412ed05d6ac41c4571 100644
--- a/research/cv/ras/README.md
+++ b/research/cv/ras/README.md
@@ -79,7 +79,7 @@ RAS总体网络架构如下:
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html) 的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html) 的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/resnet3d/README_CN.md b/research/cv/resnet3d/README_CN.md
index f59ae412eeb5ad9037ffb1ee0932c20e61e58b53..65c4b603a08d748ee20b36ac4fc7d62e5d41d82c 100644
--- a/research/cv/resnet3d/README_CN.md
+++ b/research/cv/resnet3d/README_CN.md
@@ -108,7 +108,7 @@ python3 generate_hmdb51_json.py --dir_path ~/dataset/hmdb51/labels/ --video_path
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/resnet50_bam/README.md b/research/cv/resnet50_bam/README.md
index 6a480bddd6bb9a2bbeab9b6508543d29b461dfb1..fc5769157aa16d7d97c472d5525df9f04a4dc0cc 100644
--- a/research/cv/resnet50_bam/README.md
+++ b/research/cv/resnet50_bam/README.md
@@ -56,7 +56,7 @@ Data set used: [ImageNet2012](http://www.image-net.org/)
 
 ## Mixed precision
 
-The [mixed-precision](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html) training method uses single-precision and half-precision data to improve the training speed of deep learning neural networks, while maintaining the network accuracy that can be achieved by single-precision training. Mixed-precision training increases computing speed and reduces memory usage, while supporting training larger models or achieving larger batches of training on specific hardware.
+The [mixed-precision](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html) training method uses single-precision and half-precision data to improve the training speed of deep learning neural networks, while maintaining the network accuracy that can be achieved by single-precision training. Mixed-precision training increases computing speed and reduces memory usage, while supporting training larger models or achieving larger batches of training on specific hardware.
 
 # Environmental requirements
 
diff --git a/research/cv/resnet50_bam/README_CN.md b/research/cv/resnet50_bam/README_CN.md
index 5b02f557ab3a18d4942ba7c3c76528a40a6fa002..5a68b5a04c66ee1c76afe764b1ed109c1f00bd2d 100644
--- a/research/cv/resnet50_bam/README_CN.md
+++ b/research/cv/resnet50_bam/README_CN.md
@@ -56,7 +56,7 @@ resnet50_bam的作者提出了一个简单但是有效的Attention模型——BA
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html) 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html) 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # 环境要求
 
diff --git a/research/cv/resnext152_64x4d/README_CN.md b/research/cv/resnext152_64x4d/README_CN.md
index ce50d5ced72272aae379e718ea68cc08eaf88641..3b2ce0691017d44ed35114bbadd6d7a498b6332c 100644
--- a/research/cv/resnext152_64x4d/README_CN.md
+++ b/research/cv/resnext152_64x4d/README_CN.md
@@ -54,7 +54,7 @@ ResNeXt整体网络架构如下:
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
diff --git a/research/cv/siamRPN/README_CN.md b/research/cv/siamRPN/README_CN.md
index d5a6b616817f56c9e86a31389e5ec478831c774c..eb47ad00789b3f1506ca9d714dcc16ecc2f15038 100644
--- a/research/cv/siamRPN/README_CN.md
+++ b/research/cv/siamRPN/README_CN.md
@@ -52,7 +52,7 @@ Siam-RPN提出了一种基于RPN的孪生网络结构。由孪生子网络和RPN
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/simple_baselines/README_CN.md b/research/cv/simple_baselines/README_CN.md
index c57f927a054eca709e23d62d1f984aac5b0853fd..01999683d668a6e006e70d52f35762e4e50097ee 100644
--- a/research/cv/simple_baselines/README_CN.md
+++ b/research/cv/simple_baselines/README_CN.md
@@ -55,7 +55,7 @@ simple_baselines的总体网络架构如下:
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html))的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html))的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/single_path_nas/README.md b/research/cv/single_path_nas/README.md
index ce3d0f2d1de264055e965b9f8658ade419962974..902715d14fa91e4e344f1fb12d8989a4658f5316 100644
--- a/research/cv/single_path_nas/README.md
+++ b/research/cv/single_path_nas/README.md
@@ -70,7 +70,7 @@ Dataset used:[ImageNet2012](http://www.image-net.org/)
 
 ## Mixed Precision
 
-The [mixed-precision](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)
+The [mixed-precision](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)
 training method uses single-precision and half-precision data to improve the training speed of
 deep learning neural networks, while maintaining the network accuracy that can be achieved by single-precision training.
 Mixed-precision training increases computing speed and reduces memory usage, while supporting training larger models or
diff --git a/research/cv/single_path_nas/README_CN.md b/research/cv/single_path_nas/README_CN.md
index 5d25f1aa14986b152d11c9f08eed9a7ec7742d84..981db54a92c94ed0019af8dadd688a8c02cf5a46 100644
--- a/research/cv/single_path_nas/README_CN.md
+++ b/research/cv/single_path_nas/README_CN.md
@@ -57,7 +57,7 @@ single-path-nas的作者用一个7x7的大卷积,来代表3x3、5x5和7x7的
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html) 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html) 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # 环境要求
 
diff --git a/research/cv/ssc_resnet50/README.md b/research/cv/ssc_resnet50/README.md
index 65588fa309d3c3a5e04a6517b98f7fdc3dfbfdae..25b998814c8288e1e4efad7f28401ca53ba8e27e 100644
--- a/research/cv/ssc_resnet50/README.md
+++ b/research/cv/ssc_resnet50/README.md
@@ -48,7 +48,7 @@ SSC-ResNet:通过半监督+主动学习的方式,进行resnet50分类网络
 
 ### 混合精度(Ascend)
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子
 
 ### 半监督
 
diff --git a/research/cv/swin_transformer/README_CN.md b/research/cv/swin_transformer/README_CN.md
index 2a40056b881a2210b7f5ec35df575498a2b6263a..60bac8a9d2b99fc58c2a9cb72b9f0543967b8e6c 100644
--- a/research/cv/swin_transformer/README_CN.md
+++ b/research/cv/swin_transformer/README_CN.md
@@ -53,7 +53,7 @@ SwinTransformer是新型的视觉Transformer,它可以用作计算机视觉的
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)
 的训练方法,使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 # [环境要求](#目录)
diff --git a/research/cv/tsm/README_CN.md b/research/cv/tsm/README_CN.md
index f262948beda4dd4620dab23f0e6ee626ace1f552..b00e1bc3bd5338b8076ed3b495cc55707fbb2ff8 100644
--- a/research/cv/tsm/README_CN.md
+++ b/research/cv/tsm/README_CN.md
@@ -56,7 +56,7 @@ TSM应用了一种通用而有效的时间转移模块。  时间转移模块将
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/cv/vgg19/README_CN.md b/research/cv/vgg19/README_CN.md
index 7de8eb41eb95890e9655c0f6ed8e36fe83d2c6eb..f9b7b11867777be1feee20558186fddca8f78a61 100644
--- a/research/cv/vgg19/README_CN.md
+++ b/research/cv/vgg19/README_CN.md
@@ -87,7 +87,7 @@ VGG 19网络主要由几个基本模块(包括卷积层和池化层)和三
 
 ### 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
diff --git a/research/hpc/pinns/README_CN.md b/research/hpc/pinns/README_CN.md
index b7bbf71d663de469dc4b3c36ad73762c859468bd..60e75dbce06d39fef49144db3be66b7026e540cc 100644
--- a/research/hpc/pinns/README_CN.md
+++ b/research/hpc/pinns/README_CN.md
@@ -70,7 +70,7 @@ Navier-Stokes方程是流体力学中描述粘性牛顿流体的方程。针对N
 
 ## [混合精度](#目录)
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # [环境要求](#目录)
diff --git a/research/nlp/atae_lstm/README_CN.md b/research/nlp/atae_lstm/README_CN.md
index 5cf630f32c0d93a92704687415ce16f32af13e93..9c327a183414da3ef757392e60898801b83784ca 100644
--- a/research/nlp/atae_lstm/README_CN.md
+++ b/research/nlp/atae_lstm/README_CN.md
@@ -54,7 +54,7 @@ AttentionLSTM模型的输入由aspect和word向量组成,输入部分输入单
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html)的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求
diff --git a/research/nlp/seq2seq/README_CN.md b/research/nlp/seq2seq/README_CN.md
index 5d4cae070f894f59409e1706419285a9b3b4f7af..1d5faadb515a19459a39d9bfd402237602444ccd 100644
--- a/research/nlp/seq2seq/README_CN.md
+++ b/research/nlp/seq2seq/README_CN.md
@@ -33,7 +33,7 @@ bash wmt14_en_fr.sh
 
 ## 混合精度
 
-采用[混合精度](https://www.mindspore.cn/tutorials/experts/zh-CN/master/others/mixed_precision.html))的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
+采用[混合精度](https://www.mindspore.cn/tutorials/zh-CN/master/advanced/mixed_precision.html))的训练方法使用支持单精度和半精度数据来提高深度学习神经网络的训练速度,同时保持单精度训练所能达到的网络精度。混合精度训练提高计算速度、减少内存使用的同时,支持在特定硬件上训练更大的模型或实现更大批次的训练。
 以FP16算子为例,如果输入数据类型为FP32,MindSpore后台会自动降低精度来处理数据。用户可打开INFO日志,搜索“reduce precision”查看精度降低的算子。
 
 # 环境要求