网站建设哪儿好,网站建设单位哪家好,如何编写一个软件,安阳千度网络公司怎么样前面已经分享过一个仿真项目#xff0c;但是基于policy gradient方法实现的#xff0c;考虑到许多人从零到一实现DQN方法有点难度#xff0c;所以这次分享一个基于DQN实现的仿真项目#xff0c;非常简单。 这里之所以简单主要得益于它是用pytorch实现的#xff0c;而pyto…前面已经分享过一个仿真项目但是基于policy gradient方法实现的考虑到许多人从零到一实现DQN方法有点难度所以这次分享一个基于DQN实现的仿真项目非常简单。 这里之所以简单主要得益于它是用pytorch实现的而pytorch各个版本之间差异不是非常大可以互用。
这里没有之前那么复杂的建模首先是任务类
class Task(object):# 任务类def __init__(self, jobID, index, CPU, RAM, disk, runtime, status):import timeself.parent []self.child []self.jobID jobIDself.index indexself.CPU CPUself.RAM RAMself.disk diskself.status status # -1: rejected, 0: finished, 1: ready, 2: runningself.runtime runtimeself.ddl time.time() self.runtime * 5self.endtime 0然后构建DAG因为云计算中的任务大多是具有关联性的是有向无环图
class DAG(object):def __init__(self, fname, num_task):self.fname fname# 任务数量self.num_task num_taskself.job []self.task []def readfile(self):# 读取任务数据num_task 0with open(self.fname, r) as f:task []for line in f:if line[0] J:if len(task) ! 0:self.job.append(task)task []else:info list(line.split(,))# 任务的信息jobidindex就是任务的标识cpu,内存硬盘# 外加一个状态jobID, index, CPU, RAM, disk, runtime, status)task.append \(Task(info[5], info[6], float(info[3]), float(info[4]), float(info[8]), float(info[2]), 1))num_task 1if num_task self.num_task:breakif len(task) ! 0:self.job.append(task)def checkRing(self, parent, child):# 检查无环if parent.index child.index:return Trueif len(child.child) 0:return Falsefor c in child.child:if self.checkRing(parent, c):return Truereturn Falsedef buildDAG(self):# 构建有向无环图import randomfor job in self.job:for task in job:i random.randint(-len(job), len(job) - 1)if i 0:continueparent job[i]if self.checkRing(parent, task) False:task.parent.append(parent)parent.child.append(task)
……
……环境类定义云计算资源以及调度过程中状态的转移训练过程等等
class environment(object):def __init__(self, scale, fname, num_task, num_server):self.scale scaleself.fname fnameself.task []self.dag DAG(self.fname, num_task) # 根据task数量构建dag# 设置每个服务器上虚拟机的数量self.VMNum 5self.rej 0# 任务数量和服务器数量是通过参数传递的self.num_task num_taskself.severNum num_server# 而集群数量是通过计算出来的if num_server 50:self.farmNum 1else:if int(self.severNum / 50) * 50 num_server:self.farmNum int(self.severNum / 50) 1else:self.farmNum int(self.severNum / 50)self.remainFarm []self.FarmResources []self.severs [[1, 1] for _ in range(self.severNum)]self.VMtask []self.totalcost 0#self.init_severs(num_server)self.losses_stage1 []self.losses_stage2 []print(Total Number of tasks: {0}.format(num_task))def init_severs(self, severNum):# 服务器host每个host上又可以虚拟出一定的虚拟机然后虚拟机处理任务VM [[[1.0 / self.VMNum, 1.0 / self.VMNum] for _ in range(self.VMNum)] for _ in range(severNum)]self.VMtask.append([[[] for _ in range(self.VMNum)] for _ in range(severNum)])return VM
……
……
构建DQN的智能体有Q值的计算和更新才是基于值的强化学习方法
class Agent():def __init__(self, input_dims, n_actions, lr, gamma0.99,epsilon1.0, eps_dec1e-5, eps_min0.01):self.lr lrself.input_dims input_dimsself.n_actions n_actionsself.gamma gammaself.epsilon epsilonself.eps_dec eps_decself.eps_min eps_minself.action_space [i for i in range(self.n_actions)]self.Q LinearDeepQNetwork(self.lr, self.n_actions, self.input_dims)self.losses []def choose_action(self, state):if np.random.random() self.epsilon:state1 T.tensor(state, dtypeT.float).to(self.Q.device)actions self.Q.forward(state1)#选最大的动作执行action T.argmax(actions).item()else:action np.random.choice(self.action_space)return actiondef decrement_epsilon(self):#贪心的变化self.epsilon self.epsilon - self.eps_dec \if self.epsilon self.eps_min else self.eps_mindef learn(self, state, action, reward, state_):self.Q.optimizer.zero_grad()states T.tensor(state, dtypeT.float).to(self.Q.device)actions T.tensor(action).to(self.Q.device)rewards T.tensor(reward).to(self.Q.device)states_ T.tensor(state_, dtypeT.float).to(self.Q.device)q_pred self.Q.forward(states)[actions]q_next self.Q.forward(states_).max()q_target reward self.gamma*q_nextloss self.Q.loss(q_target, q_pred).to(self.Q.device)loss.backward()self.Q.optimizer.step()self.decrement_epsilon()self.losses.append(loss.item())在此基础上可以继续实现fixed-q-target和experience replay以及double QDN等优化 我添加了打印损失函数值的代码 所以为了方便程序的运行和跨时间段使用修改等建议用pytorch进行实现