Skip to content

Commit 175535c

Browse files
[Docathon] Fix zh api_label (#6214)
* fix zh_ref * Update docs/api/paddle/Overview_cn.rst Co-authored-by: zachary sun <[email protected]> * Update docs/api/paddle/nn/Overview_cn.rst Co-authored-by: zachary sun <[email protected]> * Update docs/api/paddle/nn/Overview_cn.rst Co-authored-by: zachary sun <[email protected]> --------- Co-authored-by: zachary sun <[email protected]>
1 parent 58de977 commit 175535c

File tree

4 files changed

+11
-11
lines changed

4 files changed

+11
-11
lines changed

docs/api/paddle/Overview_cn.rst

+1-1
Original file line numberDiff line numberDiff line change
@@ -244,7 +244,7 @@ tensor 创建相关
244244
" :ref:`paddle.zeros <cn_api_paddle_zeros>` ", "创建形状为 shape 、数据类型为 dtype 且值全为 0 的 Tensor"
245245
" :ref:`paddle.zeros_like <cn_api_paddle_zeros_like>` ", "返回一个和 x 具有相同的形状的全零 Tensor,数据类型为 dtype 或者和 x 相同"
246246
" :ref:`paddle.complex <cn_api_paddle_complex>` ", "给定实部和虚部,返回一个复数 Tensor"
247-
" :ref:`paddle.create_parameter <cn_api_fluid_layers_create_parameter>` ", "创建一个参数,该参数是一个可学习的变量, 拥有梯度并且可优化"
247+
" :ref:`paddle.create_parameter <cn_api_paddle_create_parameter>` ", "创建一个参数,该参数是一个可学习的变量, 拥有梯度并且可优化"
248248
" :ref:`paddle.clone <cn_api_paddle_clone>` ", "对输入 Tensor ``x`` 进行拷贝,并返回一个新的 Tensor,并且该操作提供梯度回传"
249249
" :ref:`paddle.batch <cn_api_paddle_batch>` ", "一个 reader 的装饰器。返回的 reader 将输入 reader 的数据打包成指定的 batch_size 大小的批处理数据(不推荐使用)"
250250
" :ref:`paddle.polar <cn_api_paddle_polar>`", "对于给定的模 ``abs`` 和相位角 ``angle``,返回一个对应复平面上的坐标复数 Tensor"

docs/api/paddle/linalg/Overview_cn.rst

+1-1
Original file line numberDiff line numberDiff line change
@@ -58,7 +58,7 @@ paddle.linalg 目录下包含飞桨框架支持的线性代数相关 API。具
5858
" :ref:`paddle.linalg.eigvalsh <cn_api_paddle_linalg_eigvalsh>` ", "计算厄米特矩阵或者实数对称矩阵的特征值"
5959
" :ref:`paddle.linalg.cholesky <cn_api_paddle_linalg_cholesky>` ", "计算一个实数对称正定矩阵的 Cholesky 分解"
6060
" :ref:`paddle.linalg.svd <cn_api_paddle_linalg_svd>` ", "计算矩阵的奇异值分解"
61-
" :ref:`paddle.linalg.pca_lowrank <cn_api_linalg_pca_lowrank>` ", "对矩阵进行线性主成分分析"
61+
" :ref:`paddle.linalg.pca_lowrank <cn_api_paddle_linalg_pca_lowrank>` ", "对矩阵进行线性主成分分析"
6262
" :ref:`paddle.linalg.qr <cn_api_paddle_linalg_qr>` ", "计算矩阵的正交三角分解(也称 QR 分解)"
6363
" :ref:`paddle.linalg.lu <cn_api_paddle_linalg_lu>` ", "计算矩阵的 LU 分解"
6464
" :ref:`paddle.linalg.lu_unpack <cn_api_paddle_linalg_lu_unpack>` ", "对矩阵的 LU 分解结果进行展开得到各单独矩阵"

docs/api/paddle/nn/Overview_cn.rst

+3-3
Original file line numberDiff line numberDiff line change
@@ -249,7 +249,7 @@ Loss 层
249249

250250
" :ref:`paddle.nn.BCELoss <cn_api_paddle_nn_BCELoss>` ", "BCELoss 层"
251251
" :ref:`paddle.nn.BCEWithLogitsLoss <cn_api_paddle_nn_BCEWithLogitsLoss>` ", "BCEWithLogitsLoss 层"
252-
" :ref:`paddle.nn.CosineEmbeddingLoss <cn_api_nn_loss_CosineEmbeddingLoss>` ", "CosineEmbeddingLoss 层"
252+
" :ref:`paddle.nn.CosineEmbeddingLoss <cn_api_paddle_nn_CosineEmbeddingLoss>` ", "CosineEmbeddingLoss 层"
253253
" :ref:`paddle.nn.CrossEntropyLoss <cn_api_paddle_nn_CrossEntropyLoss>` ", "交叉熵损失层"
254254
" :ref:`paddle.nn.CTCLoss <cn_api_paddle_nn_CTCLoss>` ", "CTCLoss 层"
255255
" :ref:`paddle.nn.HSigmoidLoss <cn_api_paddle_nn_HSigmoidLoss>` ", "层次 sigmoid 损失层"
@@ -474,7 +474,7 @@ Embedding 相关函数
474474

475475
" :ref:`paddle.nn.functional.binary_cross_entropy <cn_api_paddle_nn_functional_binary_cross_entropy>` ", "二值交叉熵损失值"
476476
" :ref:`paddle.nn.functional.binary_cross_entropy_with_logits <cn_api_paddle_nn_functional_binary_cross_entropy_with_logits>` ", "logits 二值交叉熵损失值"
477-
" :ref:`paddle.nn.functional.cosine_embedding_loss <cn_paddle_nn_functional_cosine_embedding_loss>` ", "用于计算余弦相似度损失"
477+
" :ref:`paddle.nn.functional.cosine_embedding_loss <cn_api_paddle_nn_functional_cosine_embedding_loss>` ", "用于计算余弦相似度损失"
478478
" :ref:`paddle.nn.functional.ctc_loss <cn_api_paddle_nn_functional_ctc_loss>` ", "用于计算 ctc 损失"
479479
" :ref:`paddle.nn.functional.dice_loss <cn_api_paddle_nn_functional_dice_loss>` ", "用于比较预测结果跟标签之间的相似度"
480480
" :ref:`paddle.nn.functional.hsigmoid_loss <cn_api_paddle_nn_functional_hsigmoid_loss>` ", "层次 sigmoid 损失函数"
@@ -494,7 +494,7 @@ Embedding 相关函数
494494
" :ref:`paddle.nn.functional.soft_margin_loss <cn_api_paddle_nn_functional_soft_margin_loss>` ", "用于计算 soft margin loss 损失函数"
495495
" :ref:`paddle.nn.functional.triplet_margin_loss <cn_api_paddle_nn_functional_triplet_margin_loss>` ", "用于计算 TripletMarginLoss"
496496
" :ref:`paddle.nn.functional.triplet_margin_with_distance_loss <cn_api_paddle_nn_functional_triplet_margin_with_distance_loss>` ", "用户自定义距离函数用于计算 triplet margin loss 损失"
497-
" :ref:`paddle.nn.functional.multi_label_soft_margin_loss <cn_api_nn_functional_multi_label_soft_margin_loss>` ", "用于计算多分类的 hinge loss 损失函数"
497+
" :ref:`paddle.nn.functional.multi_label_soft_margin_loss <cn_api_paddle_nn_functional_multi_label_soft_margin_loss>` ", "用于计算多分类的 hinge loss 损失函数"
498498
" :ref:`paddle.nn.functional.multi_margin_loss <cn_api_paddle_nn_functional_multi_margin_loss>` ", "用于计算 multi margin loss 损失函数"
499499

500500

docs/guides/advanced/gradient_clip_cn.rst

+6-6
Original file line numberDiff line numberDiff line change
@@ -42,7 +42,7 @@
4242

4343
使用方式:
4444

45-
需要创建一个 :ref:`paddle.nn.ClipGradByValue <cn_api_fluid_clip_ClipGradByValue>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。
45+
需要创建一个 :ref:`paddle.nn.ClipGradByValue <cn_api_paddle_nn_ClipGradByValue>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。
4646

4747
- **全部参数裁剪(默认)**
4848

@@ -60,7 +60,7 @@
6060

6161
- **部分参数裁剪**
6262

63-
部分参数裁剪需要设置参数的 :ref:`paddle.ParamAttr <cn_api_fluid_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。
63+
部分参数裁剪需要设置参数的 :ref:`paddle.ParamAttr <cn_api_paddle_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。
6464

6565
例如:仅裁剪 `linear` 中 `weight` 的梯度,则需要在创建 `linear` 层时设置 `bias_attr` 如下:
6666

@@ -75,7 +75,7 @@
7575

7676
使用方式:
7777

78-
需要创建一个 :ref:`paddle.nn.ClipGradByNorm <cn_api_fluid_clip_ClipGradByNorm>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。
78+
需要创建一个 :ref:`paddle.nn.ClipGradByNorm <cn_api_paddle_nn_ClipGradByNorm>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。
7979

8080
裁剪公式如下:
8181

@@ -109,7 +109,7 @@
109109

110110
- **部分参数裁剪**
111111

112-
部分参数裁剪的设置方式与上面一致,也是通过设置参数的 :ref:`paddle.ParamAttr <cn_api_fluid_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。
112+
部分参数裁剪的设置方式与上面一致,也是通过设置参数的 :ref:`paddle.ParamAttr <cn_api_paddle_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。
113113

114114
例如:仅裁剪 `linear` 中 `bias` 的梯度,则需要在创建 `linear` 层时设置 `weight_attr` 如下:
115115

@@ -124,7 +124,7 @@
124124

125125
使用方式:
126126

127-
需要创建一个 :ref:`paddle.nn.ClipGradByGlobalNorm <cn_api_fluid_clip_ClipGradByGlobalNorm>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。
127+
需要创建一个 :ref:`paddle.nn.ClipGradByGlobalNorm <cn_api_paddle_nn_ClipGradByGlobalNorm>` 类的实例,然后传入到优化器中,优化器会在更新参数前,对梯度进行裁剪。
128128

129129
裁剪公式如下:
130130

@@ -161,7 +161,7 @@
161161

162162
- **部分参数裁剪**
163163

164-
部分参数裁剪的设置方式与上面一致,也是通过设置参数的 :ref:`paddle.ParamAttr <cn_api_fluid_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。可参考上面的示例代码进行设置。
164+
部分参数裁剪的设置方式与上面一致,也是通过设置参数的 :ref:`paddle.ParamAttr <cn_api_paddle_ParamAttr>` ,其中的 ``need_clip`` 默认为 True,表示需要裁剪,如果设置为 False,则不会裁剪。可参考上面的示例代码进行设置。
165165

166166
由上面的介绍可以知道,设置范围值裁剪可能会改变梯度向量的方向。例如,阈值为 1.0,原梯度向量为[0.8, 89.0],裁剪后的梯度向量变为[0,8, 1.0],方向发生了很大的改变。而对于通过 L2 范数裁剪的两种方式,阈值为 1.0,则裁剪后的梯度向量为[0.00899, 0.99996],能够保证原梯度向量的方向,但是由于分量 2 的值较大,导致分量 1 的值变得接近 0。在实际的训练过程中,如果遇到梯度爆炸情况,可以试着用不同的裁剪方式对比在验证集上的效果。
167167

0 commit comments

Comments
 (0)