File tree 1 file changed +6
-11
lines changed
docs/api/paddle/optimizer
1 file changed +6
-11
lines changed Original file line number Diff line number Diff line change 7
7
8
8
9
9
.. note ::
10
- 此接口不支持稀疏参数更新。
10
+ 此接口不支持稀疏参数更新。
11
11
12
12
Adadelta 优化器,是对 :ref: `Adagrad <cn_api_paddle_optimizer_Adagrad >` 的改进。
13
13
50
50
'''''''''
51
51
52
52
.. note ::
53
-
54
- 该 API 只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html >`_ 模式下生效。
53
+ 该 API 只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html >`_ 模式下生效。
55
54
56
55
执行一次优化器并进行参数更新。
57
56
@@ -88,8 +87,7 @@ clear_grad()
88
87
'''''''''
89
88
90
89
.. note ::
91
-
92
- 该 API 只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html >`_ 模式下生效。
90
+ 该 API 只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html >`_ 模式下生效。
93
91
94
92
95
93
清除需要优化的参数的梯度。
@@ -102,8 +100,7 @@ set_lr(value)
102
100
'''''''''
103
101
104
102
.. note ::
105
-
106
- 该 API 只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html >`_ 模式下生效。
103
+ 该 API 只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html >`_ 模式下生效。
107
104
108
105
手动设置当前 ``optimizer `` 的学习率。当使用_LRScheduler 时,无法使用该 API 手动设置学习率,因为这将导致冲突。
109
106
@@ -123,8 +120,7 @@ set_lr_scheduler(scheduler)
123
120
'''''''''
124
121
125
122
.. note ::
126
-
127
- 该 API 只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html >`_ 模式下生效。
123
+ 该 API 只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html >`_ 模式下生效。
128
124
129
125
手动设置当前 ``optimizer `` 的学习率为 LRScheduler 类。
130
126
@@ -144,8 +140,7 @@ get_lr()
144
140
'''''''''
145
141
146
142
.. note ::
147
-
148
- 该 API 只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html >`_ 模式下生效。
143
+ 该 API 只在 `Dygraph <../../user_guides/howto/dygraph/DyGraph.html >`_ 模式下生效。
149
144
150
145
获取当前步骤的学习率。当不使用_LRScheduler 时,每次调用的返回值都相同,否则返回当前步骤的学习率。
151
146
You can’t perform that action at this time.
0 commit comments