-
Notifications
You must be signed in to change notification settings - Fork 399
/
模型_策略梯度.py
605 lines (486 loc) · 24.8 KB
/
模型_策略梯度.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
import os
import numpy as np
import torch as T
import torch.nn as nn
import torch.optim as optim
from torch.distributions.categorical import Categorical
# distributions概率分布和采样函数
import torch
import torch.nn as nn
from Layers import DecoderLayer
from Embed import Embedder, PositionalEncoder
from Sublayers import Norm, 全连接层
import copy
import os.path
import torchvision
from config import TransformerConfig
import torch.nn.functional as F
from Batch import create_masks
from 杂项 import 打印抽样数据
import pickle
import gc
def save_obj(obj, name ):
with open(name + '.pkl', 'wb') as f:
pickle.dump(obj, f, pickle.HIGHEST_PROTOCOL)
def load_obj(name ):
with open(name , 'rb') as f:
return pickle.load(f)
def get_clones(module, N):
return nn.ModuleList([copy.deepcopy(module) for i in range(N)])
class Decoder(nn.Module):
def __init__(self, vocab_size, d_model, N, heads, dropout, 最大长度=1024):
super().__init__()
self.N = N
self.embedX = Embedder(vocab_size, d_model)
self.embedP = Embedder(最大长度, d_model)
# self.pe = PositionalEncoder(d_model, dropout=dropout)
self.layers = get_clones(DecoderLayer(d_model, heads, dropout), N)
self.norm = Norm(d_model)
def forward(self,图向量,操作 ,trg_mask):
position = torch.arange(0, 图向量.size(1), dtype=torch.long,
device=图向量.device)
x = 图向量+self.embedP(position)+self.embedX(操作)*0
for i in range(self.N):
x = self.layers[i](x, trg_mask)
return self.norm(x)
class Transformer(nn.Module):
def __init__(self, trg_vocab, d_model, N, heads, dropout,图向量尺寸=6*6*2048):
super().__init__()
self.图转= 全连接层(图向量尺寸,d_model)
self.decoder = Decoder(trg_vocab, d_model, N, heads, dropout)
self.outX = 全连接层(d_model, trg_vocab)
self.评价 = 全连接层(d_model, 1)
def forward(self, 图向量 ,操作, trg_mask):
图向量=self.图转(图向量)
d_output = self.decoder(图向量,操作 , trg_mask)
output = self.outX(d_output)
评价 = self.评价(d_output)
return output,评价
def get_model(opt, trg_vocab, model_weights='model_weights'):
assert opt.d_model % opt.heads == 0
assert opt.dropout < 1
model = Transformer(trg_vocab, opt.d_model, opt.n_layers, opt.heads, opt.dropout)
if opt.load_weights is not None and os.path.isfile(opt.load_weights + '/' + model_weights):
print("loading pretrained weights...")
model.load_state_dict(torch.load(f'{opt.load_weights}/' + model_weights))
else:
量 = 0
for p in model.parameters():
if p.dim() > 1:
# nn.init.xavier_uniform_(p)
a = 0
长 = len(p.shape)
点数 = 1
for j in range(长):
点数 = p.shape[j] * 点数
量 += 点数
print('使用参数:{}百万'.format(量 / 1000000))
return model
class PPO_数据集:
def __init__(self, 并行条目数量):
#self.状态集 = []
self.动作概率集 = []
self.评价集 = []
self.动作集 = []
self.回报集 = []
self.完结集 = []
self.并行条目数量 = 并行条目数量
self.完整数据={}
self.图片信息=np.ones([1,1000, 6*6*2048], dtype='float')
self.操作信息 = np.ones((0,))
def 提取数据(self):
状态集_长度 = len(self.回报集)
条目_起始位 = np.arange(0, 状态集_长度-100, self.并行条目数量)
下标集 = np.arange(状态集_长度, dtype=np.int64)
条目集 = [下标集[i:i + self.并行条目数量] for i in 条目_起始位]
return np.array(self.动作集),\
np.array(self.动作概率集), \
self.评价集, \
np.array(self.回报集),\
np.array(self.完结集), \
self.图片信息, \
self.操作信息 ,\
条目集
def 记录数据(self, 状态, 动作, 动作概率, 评价, 回报, 完结,计数):
#self.状态集.append(状态)
self.动作集.append(动作)
self.动作概率集.append(动作概率)
self.评价集.append(评价)
self.回报集.append(回报)
self.完结集.append(完结)
self.图片信息[:,计数, :]=状态['图片张量']
self.操作信息=np.append(self.操作信息, 状态['操作序列'])
def 清除数据(self):
self.图片信息 = []
self.动作概率集 = []
self.动作集 = []
self.回报集 = []
self.完结集 = []
self.评价集 = []
self.完整数据={}
# del self.状态集,self.动作概率集,self.评价集,self.动作集,self.回报集,self.完结集,self.完整数据
# gc.collect()
def 存硬盘(self,文件名):
self.完整数据['图片信息']=self.图片信息[:,0:len(self.动作集),:]
self.完整数据['动作概率集'] = self.动作概率集
self.完整数据['动作集'] = self.动作集
self.完整数据['回报集'] = self.回报集
self.完整数据['完结集'] = self.完结集
self.完整数据['评价集'] = self.评价集
self.完整数据['操作信息'] =self.操作信息
save_obj(self.完整数据,文件名)
self.完整数据={}
#self.图片信息 = []
self.动作概率集 = []
self.动作集 = []
self.回报集 = []
self.完结集 = []
self.评价集 = []
#self.操作信息=[]
#del self.图片信息,self.动作概率集,self.评价集,self.动作集,self.回报集,self.完结集,self.完整数据
#gc.collect()
def 读硬盘(self,文件名):
self.完整数据 = load_obj(文件名)
self.图片信息=self.完整数据['图片信息']
self.动作概率集=self.完整数据['动作概率集']
self.动作集=self.完整数据['动作集']
self.回报集= self.完整数据['回报集']
self.完结集= self.完整数据['完结集']
self.评价集=self.完整数据['评价集']
self.操作信息 =self.完整数据 ['操作信息']
self.完整数据={}
def 处理状态参数(状态组,device):
最长=0
状态组合={}
# 操作序列 = np.ones((1,))
for 状态A in 状态组:
if 状态A['图片张量'].shape[1]>最长:
最长=状态A['图片张量'].shape[1]
for 状态 in 状态组:
状态A = 状态.copy()
if 状态A['图片张量'].shape[1] == 最长:
单元=状态A
操作序列 = np.ones((最长,))
遮罩序列 = torch.from_numpy(操作序列.astype(np.int64)).cuda(device).unsqueeze(0)
单元['遮罩序列']=遮罩序列
else:
有效长度=状态A['图片张量'].shape[1]
差值=最长-有效长度
形状=状态A['图片张量'].shape
图片张量_拼接 = torch.zeros(形状[0],差值,形状[2],形状[3]).cuda(device).float()
图片张量_拼接 = 图片张量_拼接.cpu().numpy()
状态A['图片张量']=np.append(状态A['图片张量'],图片张量_拼接, axis=1)
#状态A['图片张量'] = torch.cat((状态A['图片张量'], 图片张量_拼接), 1)
形状 = 状态A['角度集张量_序列'].shape
角度集张量_拼接=torch.zeros(形状[0],差值,形状[2]).cuda(device).float()
状态A['角度集张量_序列'] = torch.cat((状态A['角度集张量_序列'], 角度集张量_拼接), 1)
形状 = 状态A['位置张量_序列'].shape
位置张量_拼接=torch.zeros(形状[0],差值,形状[2]).cuda(device).float()
状态A['位置张量_序列'] = torch.cat((状态A['位置张量_序列'], 位置张量_拼接), 1)
形状 = 状态A['速度张量_序列'].shape
速度张量_拼接=torch.zeros(形状[0],差值,形状[2]).cuda(device).float()
状态A['速度张量_序列'] = torch.cat((状态A['速度张量_序列'], 速度张量_拼接), 1)
操作序列 = np.ones((有效长度,))
遮罩序列 = torch.from_numpy(操作序列.astype(np.int64)).cuda(device).unsqueeze(0)
状态A['遮罩序列']=遮罩序列
操作序列 = np.ones((差值,))*-1
遮罩序列 = torch.from_numpy(操作序列.astype(np.int64)).cuda(device).unsqueeze(0)
状态A['遮罩序列'] = torch.cat((状态A['遮罩序列'], 遮罩序列), 1)
单元=状态A
if 状态组合=={}:
状态组合=单元
else:
状态组合['遮罩序列'] = torch.cat((状态组合['遮罩序列'], 单元['遮罩序列']), 0)
状态组合['速度张量_序列'] = torch.cat((状态组合['速度张量_序列'], 单元['速度张量_序列'],), 0)
状态组合['位置张量_序列'] = torch.cat((状态组合['位置张量_序列'], 单元['位置张量_序列']), 0)
状态组合['角度集张量_序列'] = torch.cat((状态组合['角度集张量_序列'], 单元['角度集张量_序列']), 0)
#状态组合['图片张量'] = torch.cat((状态组合['图片张量'], 单元['图片张量']), 0)
状态组合['图片张量'] =np.append(状态组合['图片张量'], 单元['图片张量'], axis=0)
src_mask, trg_mask = create_masks(状态组合['遮罩序列'], 状态组合['遮罩序列'], device)
状态组合['trg_mask']=trg_mask
return 状态组合
class 智能体:
def __init__(self, 动作数, 输入维度, 优势估计参数G=0.9999, 学习率=0.0003, 泛化优势估计参数L=0.985,
策略裁剪幅度=0.2, 并行条目数=64, 轮数=10,熵系数=0.01):
self.优势估计参数G = 优势估计参数G
self.策略裁剪幅度 = 策略裁剪幅度
self.轮数 = 轮数
self.熵系数=熵系数
self.泛化优势估计参数L = 泛化优势估计参数L
device = torch.device("cuda:0" if (torch.cuda.is_available()) else "cpu")
模型名称 = '模型_策略梯度_丙TA'
config = TransformerConfig()
model = get_model(config, 130, 模型名称)
# model_dict = model.state_dict()
#
# pretrained_dict = torch.load('weights/model_weights_2021-05-7D11')
#
# pretrained_dict = {k: v for k, v in pretrained_dict.items() if k in model_dict}
#
# model_dict.update(pretrained_dict)
#
# model.load_state_dict(model_dict)
model = model.cuda(device)
self.动作 = model
#torch.save(self.动作.state_dict(), 'weights/模型_动作ppo阶段停bZ1')
self.优化函数 = torch.optim.Adam(self.动作.parameters(), lr=2e-5, betas=(0.9, 0.95), eps=1e-9)
self.数据集 = PPO_数据集(并行条目数)
self.文件名集=[]
def 记录数据(self, 状态, 动作, 动作概率, 评价, 回报, 完结,计数):
self.数据集.记录数据(状态, 动作, 动作概率, 评价, 回报, 完结,计数)
def 存硬盘(self, 文件名):
self.数据集.存硬盘(文件名)
self.文件名集.append(文件名)
def 读硬盘(self, 文件名):
self.数据集.读硬盘(文件名)
def 保存模型(self,轮号):
print('... 保存模型 ...')
torch.save(self.动作.state_dict(), 'weights/模型_策略梯度_丙N')
torch.save(self.动作.state_dict(), 'weights/模型_策略梯度_丙N{}'.format(轮号))
#torch.save(self.评论.state_dict(), 'weights/模型_评论')
#torch.save(self.评论.state_dict(), 'weights/模型_评论2')
def 载入模型(self):
print('... 载入模型 ...')
self.动作.载入权重()
#self.评价.载入权重()
def 选择动作(self, 状态,device,传入动作,手动=False):
# 分布,q_ = self.动作(状态)
# r_, 价值 = self.评论(状态)
self.动作.requires_grad_(False)
操作序列=torch.from_numpy(状态['操作序列'].astype(np.int64)).cuda(device)
图片张量=torch.from_numpy(状态['图片张量']).cuda(device)
trg_mask=状态['trg_mask']
分布, 价值 = self.动作(图片张量,操作序列,trg_mask)
价值 = 价值[:, - 1, :]
分布 = F.softmax(分布, dim=-1)
分布 = 分布[:, - 1, :]
分布 = Categorical(分布)
if 手动:
动作 = 传入动作
else:
动作 = 分布.sample()
动作概率 = T.squeeze(分布.log_prob(动作)).item()
动作 = T.squeeze(动作).item()
return 动作, 动作概率, 价值
def 选择动作批量(self, 状态,device,目标输出_分_torch,手动=False):
# 分布,q_ = self.动作(状态)
# r_, 价值 = self.评论(状态)
self.动作.requires_grad_(False)
操作序列=torch.from_numpy(状态['操作序列'].astype(np.int64)).cuda(device)
图片张量=torch.from_numpy(状态['图片张量']).cuda(device)
trg_mask=状态['trg_mask']
分布, 价值 = self.动作(图片张量,操作序列,trg_mask)
分布 = F.softmax(分布, dim=-1)
分布 = Categorical(分布)
if 手动:
动作 = 目标输出_分_torch
else:
动作 = 分布.sample()
动作概率 = T.squeeze(分布.log_prob(动作))
动作 = T.squeeze(动作)
return 动作, 动作概率, 价值
def 学习(self,device):
for i in range(1):
# for k, v in self.动作.named_parameters():
#
# if k == '评价.weight' or k=='评价.bias':
# v.requires_grad = True
for _ in range(self.轮数):
动作集, 旧_动作概率集, 评价集, 回报集, 完结集,图片集合,动作数组, 条目集 = self.数据集.提取数据()
print('回报集',回报集[0:10])
价值 = 评价集
优势函数值 = np.zeros(len(回报集), dtype=np.float32)
for t in range(len(回报集) - 1):
折扣率 = 1
优势值 = 0
折扣率 = self.优势估计参数G * self.泛化优势估计参数L
计数=0
for k in range(t, len(回报集) - 1):
优势值 += pow(折扣率, abs(0-计数)) * (回报集[k] + self.优势估计参数G * 价值[k + 1] * (1 - int(完结集[k])) - 价值[k])
计数=计数+1
if (1 - int(完结集[k]))==0 or 计数>100:
break
优势函数值[t] = 优势值
# https://blog.csdn.net/zhkmxx930xperia/article/details/88257891
# GAE的形式为多个价值估计的加权平均数
优势函数值 = T.tensor(优势函数值).to(device)
价值 = T.tensor(价值).to(device)
for 条 in 条目集:
条末=条[-1:]
旧_动作概率s = T.tensor(旧_动作概率集[条末]).to(device)
动作s = T.tensor(动作集[条末]).to(device)
self.动作.requires_grad_(True)
操作序列 = torch.from_numpy(动作数组[条].astype(np.int64)).cuda(device)
图片张量 = torch.from_numpy(图片集合[:, 条, :]).cuda(device).float()
src_mask, trg_mask = create_masks(操作序列.unsqueeze(0), 操作序列.unsqueeze(0), device)
分布, 评价结果 = self.动作(图片张量,操作序列,trg_mask)
分布=分布[:,-1:,:]
评价结果 = 评价结果[:, -1:, :]
分布 = F.softmax(分布, dim=-1)
# 分布 = 分布[:, - 1, :]
# 评价结果 = 评价结果[:, - 1, :]
评价结果 = T.squeeze(评价结果)
分布 = Categorical(分布)
熵损失 = torch.mean(分布.entropy())
新_动作概率s = 分布.log_prob(动作s)
# 概率比 = 新_动作概率s.exp() / 旧_动作概率s.exp()
# # prob_ratio = (new_probs - old_probs).exp()
# 加权概率 = 优势函数值[条末] * 概率比
# 加权_裁剪_概率 = T.clamp(概率比, 1 - self.策略裁剪幅度,
# 1 + self.策略裁剪幅度) * 优势函数值[条末]
# 动作损失 = -T.min(加权概率, 加权_裁剪_概率).mean()
总回报 = 优势函数值[条末] + 价值[条末]
动作损失 = -总回报 * 新_动作概率s
动作损失 = 动作损失.mean()
评价损失 = (总回报 - 评价结果) ** 2
评价损失 = 评价损失 .mean()
总损失 = 动作损失 + 0.5 * 评价损失-self.熵系数*熵损失
#print(总损失)
self.优化函数.zero_grad()
# self.优化函数_评论.zero_grad()
总损失.backward()
self.优化函数.step()
# self.优化函数_评论.step()
print('总损失',总损失)
self.数据集.清除数据()
self.文件名集=[]
def 监督强化学习(self,device,状态,回报,动作,动作可能性,评价):
#print(device,状态,回报,动作,动作可能性,评价)
# for k, v in self.动作.named_parameters():
#
# if k == '评价.weight' or k=='评价.bias':
# v.requires_grad = True
回报集=回报
价值=评价.cpu().numpy()[0,:,0]
优势函数值 = np.zeros(回报集.shape[0], dtype=np.float32)
for t in range(len(回报集) - 1):
折扣率 = 1
优势值 = 0
折扣率 = self.优势估计参数G * self.泛化优势估计参数L
计数 = 0
for k in range(t, len(回报集) - 1):
优势值 += pow(折扣率, abs(0 - 计数)) * (回报集[k])
计数 = 计数 + 1
if 计数 > 200:
break
优势函数值[t] = 优势值
价值 = T.tensor(价值).to(device)
for i in range(3):
优势函数值 = T.tensor(优势函数值).to(device)
旧_动作概率s = T.tensor(动作可能性).to(device)
动作s = T.tensor(动作).to(device)
self.动作.requires_grad_(True)
操作序列 = torch.from_numpy(状态['操作序列'].astype(np.int64)).cuda(device)
图片张量 = torch.from_numpy(状态['图片张量']).cuda(device).float()
trg_mask = 状态['trg_mask']
分布, 评价结果 = self.动作(图片张量, 操作序列, trg_mask)
分布 = F.softmax(分布, dim=-1)
# 分布 = 分布[:, - 1, :]
# 评价结果 = 评价结果[:, - 1, :]
评价结果 = T.squeeze(评价结果)
分布 = Categorical(分布)
#熵损失 = torch.mean(分布.entropy())
新_动作概率s = 分布.log_prob(动作s)
# 旧_动作概率s=旧_动作概率s.exp()
# 概率比 = 新_动作概率s / 旧_动作概率s
# # prob_ratio = (new_probs - old_probs).exp()
# 加权概率 = 优势函数值 * 概率比
# 加权_裁剪_概率 = T.clamp(概率比, 1 - self.策略裁剪幅度,
# 1 + self.策略裁剪幅度) * 优势函数值
# 动作损失 = -T.min(加权概率, 加权_裁剪_概率).mean()
#概率比2 = 新_动作概率s.mean() / 旧_动作概率s.mean()
总回报 = 优势函数值#+ 价值
动作损失 = -总回报 * 新_动作概率s
动作损失 = 动作损失.mean()
#评价损失 = (总回报 - 评价结果) ** 2
#评价损失 = 评价损失.mean()
print(总回报[10:20],新_动作概率s[:,10:20].exp())
总损失 = 动作损失# + 0.5 * 评价损失 - self.熵系数 * 熵损失
# print(总损失)
self.优化函数.zero_grad()
# self.优化函数_评论.zero_grad()
总损失.backward()
self.优化函数.step()
# self.优化函数_评论.step()
def 监督强化学习A(self,device,状态,回报,动作,动作可能性,评价,完结集):
#print(device,状态,回报,动作,动作可能性,评价)
# for k, v in self.动作.named_parameters():
#
# if k == '评价.weight' or k=='评价.bias':
# v.requires_grad = True
回报集=回报
价值=评价.cpu().numpy()[0,:,0]
优势函数值 = np.zeros(回报集.shape[0], dtype=np.float32)
for t in range(len(回报集) - 1):
折扣率 = 1
优势值 = 0
折扣率 = self.优势估计参数G * self.泛化优势估计参数L
计数 = 0
for k in range(t, len(回报集) - 1):
优势值 += pow(折扣率, abs(0 - 计数)) * (回报集[k]*(1-完结集[0,k]*0))
计数 = 计数 + 1
if 计数 > 200 or 完结集[0,k]==2111111:
break
优势函数值[t] = 优势值
价值 = T.tensor(价值).to(device)
for i in range(3):
优势函数值 = T.tensor(优势函数值).to(device)
旧_动作概率s = T.tensor(动作可能性).to(device)
动作s = T.tensor(动作).to(device)
self.动作.requires_grad_(True)
操作序列 = torch.from_numpy(状态['操作序列'].astype(np.int64)).cuda(device)
图片张量 = torch.from_numpy(状态['图片张量']).cuda(device).float()
trg_mask = 状态['trg_mask']
分布, 评价结果 = self.动作(图片张量, 操作序列, trg_mask)
分布 = F.softmax(分布, dim=-1)
# 分布 = 分布[:, - 1, :]
# 评价结果 = 评价结果[:, - 1, :]
评价结果 = T.squeeze(评价结果)
分布 = Categorical(分布)
#熵损失 = torch.mean(分布.entropy())
新_动作概率s = 分布.log_prob(动作s)
# 旧_动作概率s=旧_动作概率s.exp()
# 概率比 = 新_动作概率s / 旧_动作概率s
# # prob_ratio = (new_probs - old_probs).exp()
# 加权概率 = 优势函数值 * 概率比
# 加权_裁剪_概率 = T.clamp(概率比, 1 - self.策略裁剪幅度,
# 1 + self.策略裁剪幅度) * 优势函数值
# 动作损失 = -T.min(加权概率, 加权_裁剪_概率).mean()
#概率比2 = 新_动作概率s.mean() / 旧_动作概率s.mean()
总回报 = 优势函数值#+ 价值
动作损失 = -总回报 * 新_动作概率s
动作损失 = 动作损失.mean()
#评价损失 = (总回报 - 评价结果) ** 2
#评价损失 = 评价损失.mean()
print(总回报[10:20],新_动作概率s[:,10:20].exp())
总损失 = 动作损失# + 0.5 * 评价损失 - self.熵系数 * 熵损失
# print(总损失)
self.优化函数.zero_grad()
# self.优化函数_评论.zero_grad()
总损失.backward()
self.优化函数.step()
# self.优化函数_评论.step()
def 监督学习(self, 状态,目标输出,打印,数_词表,操作_分_torch,device):
分布, 价值 = self.动作(状态,device)
lin = 分布.view(-1, 分布.size(-1))
_, 抽样 = torch.topk(分布, k=1, dim=-1)
抽样np = 抽样.cpu().numpy()
self.优化函数.zero_grad()
loss = F.cross_entropy(lin, 目标输出.contiguous().view(-1), ignore_index=-1)
if 打印:
print(loss)
打印抽样数据(数_词表, 抽样np[0:1, :, :], 操作_分_torch[0, :])
loss.backward()
self.优化函数.step()
def 选择动作_old(self, 状态):
# 分布,q_ = self.动作(状态)
# r_, 价值 = self.评论(状态)
输出_实际_A, 价值 = self.动作(状态)
输出_实际_A = F.softmax(输出_实际_A, dim=-1)
输出_实际_A = 输出_实际_A[:, - 1, :]
抽样 = torch.multinomial(输出_实际_A, num_samples=1)
抽样np = 抽样.cpu().numpy()
return 抽样np[0,-1]
#item是得到一个元素张量里面的元素值
#优势函数表达在状态s下,某动作a相对于平均而言的优势
#GAE一般优势估计