DROO论文笔记

推荐文章DROO源码及论文学习

读论文《Deep Reinforcement Learning for Online Computation Offloading in Wireless Powered Mobile-Edge Computing Networks》的笔记

论文地址:用于无线移动边缘计算网络在线计算卸载的深度强化学习

论文代码地址:DROO源码

目录

一、Introduction

二、System Model 

三、Local Computing Mode

四、Problem Formulation 

五、THE DROO ALGORITHM 

Algorithm Overview

保序量化的代码 :

之前的方法:KNN

Offloading Policy Update

​Adaptive Setting of K

Convergence Performance

​Impact of Updating Intervals Δ

​Computation Rate Performance


一、Introduction

旨在解决无线供电的MEC网络中根据时变的无线信道条件优化地调整任务卸载无线资源分配,需要快速求解困难的组合优化问题,传统数值优化方法难以实现。

采用binary卸载策略,即无线设备(WD)的每个计算任务要么在本地执行,要么完全卸载到MEC服务器。提出基于深度强化学习的在线卸载(DROO),将原始优化问题分解为卸载决策子问题和资源分配子问题,设计保序量化卸载动作生成,消除传统数值优化方法的复杂性,通过动态自适应程序进一步降低计算复杂性。 

二、System Model 

三、Local Computing Mode

四、Problem Formulation 

 

五、THE DROO ALGORITHM 

整体框架代码: 

    N = 10                     #用户数量n = 30000                     # 时间帧数量K = N                   # 初始化 K = Ndecoder_mode = 'OP'    # 量化模式,可以是 'OP' (Order-preserving) 或 'KNN'Memory = 1024          # 内存结构的容量Delta = 32             # 自适应 K 的更新间隔print('#user = %d, #channel=%d, K=%d, decoder = %s, Memory = %d, Delta = %d'%(N,n,K,decoder_mode, Memory, Delta))# 数据加载和处理channel = sio.loadmat('./data/data_%d' %N)['input_h']#(30000, 10)->30000条N个信道增益rate = sio.loadmat('./data/data_%d' %N)['output_obj'] # 这个速率只用于绘图,不用于训练 DROO# 将信道值放大,以便更好地训练(这是深度学习中的常用技巧)channel = channel * 1000000# generate the train and test data sample index# 将数据分为 80:20# training data are randomly sampled with duplication if n > total data sizesplit_idx = int(.8 * len(channel))num_test = min(len(channel) - split_idx, n - int(.8 * n)) # training data size# 初始化DNNmem = MemoryDNN(net = [N, 120, 80, N],learning_rate = 0.01,training_interval=10,batch_size=128,memory_size=Memory)rate_his = []rate_his_ratio = []mode_his = []k_idx_his = []#索引K_his = []for i in range(n):if i % (n//10) == 0:print("%0.1f"%(i/n))#打印进度if i> 0 and i % Delta == 0:# index counts from 0if Delta > 1:#每 Delta 个时间步更新 Kmax_k = max(k_idx_his[-Delta:-1]) +1;#最近 Delta 个时间步内的最优K索引else:max_k = k_idx_his[-1] +1;K = min(max_k +1, N)#K 不超过 Nif i < n - num_test:#训练阶段# trainingi_idx = i % split_idx# 训练数据索引else:#测试阶段i_idx = i - n + num_test + split_idx# 测试数据索引h = channel[i_idx,:]#选择当前时间步的信道数据 h# the action selection must be either 'OP' or 'KNN'保序量化 K个卸载决策m_list = mem.decode(h, K, decoder_mode)
# 每个卸载决策的总传输速率 r_listr_list = []for m in m_list:r_list.append(bisection(h/1000000, m)[0])#将最大传输速率的卸载决策存储在经验回放中mem.encode(h, m_list[np.argmax(r_list)])# the main code for DROO training ends here# the following codes store some interested metrics for illustrations# memorize the largest rewardrate_his.append(np.max(r_list))#最大传输速率rate_his_ratio.append(rate_his[-1] / rate[i_idx][0])#最大传输速率与真实传输速率的比值# record the index of largest rewardk_idx_his.append(np.argmax(r_list))#最大传输速率的对应的在K个卸载决策中的索引(排名)# record K in case of adaptive KK_his.append(K)#本次的Kmode_his.append(m_list[np.argmax(r_list)])#记录最大传输速率的卸载决策

Algorithm Overview

Offloading Action Generation 

根据输入的无线信道增益 h 生成 k 个二元卸载决策 保序量化orKNN

def decode(self, h, k = 1, mode = 'OP'):h = torch.Tensor(h[np.newaxis, :])#(10,)->torch.Size([1, 10])self.model.eval()m_pred = self.model(h)#先用DNN输出一个连续卸载决策m_pred = m_pred.detach().numpy()# 再用这个连续决策生成 k 个二元卸载决策if mode is 'OP':#保序量化return self.knm(m_pred[0], k)elif mode is 'KNN':#KNNreturn self.knn(m_pred[0], k)else:print("The action selection must be 'OP' or 'KNN'")
保序量化的代码 :

输入m:DNN网络输出的N个relaxed卸载动作(0-1之间连续)

如:[0.99010485 0.62969816 0.4329 0.4087384  0.7058292  0.4560974 0.49688646 0.452399   0.20186329 0.21191679]

shape为N:(10,)

def knm(self, m, k = 1):# return k order-preserving binary actionsm_list = []# generate the first binary offloading decision with respect to equation (8)m_list.append(1*(m>0.5))#生成第一个二元卸载决策if k > 1:# generate the remaining K-1 binary offloading decisions with respect to equation (9)m_abs = abs(m-0.5)#首先计算 m 中每个元素与 0.5 的绝对差值idx_list = np.argsort(m_abs)[:k-1]#对绝对差值进行排序,并获取前 k-1 个最小差值的索引for i in range(k-1):if m[idx_list[i]] >0.5:# set the \hat{x}_{t,(k-1)} to 0m_list.append(1*(m - m[idx_list[i]] > 0))else:# set the \hat{x}_{t,(k-1)} to 1m_list.append(1*(m - m[idx_list[i]] >= 0))return m_list

输出m_list:K个保序量化后的动作

如:[array([1, 1, 0, 0, 1, 0, 0, 0, 0, 0]), array([1, 1, 0, 0, 1, 0, 1, 0, 0, 0]), array([1, 1, 0, 0, 1, 1, 1, 0, 0, 0]), array([1, 1, 0, 0, 1, 1, 1, 1, 0, 0]), array([1, 1, 1, 0, 1, 1, 1, 1, 0, 0]), array([1, 1, 1, 1, 1, 1, 1, 1, 0, 0]), array([1, 0, 0, 0, 1, 0, 0, 0, 0, 0]), array([1, 0, 0, 0, 0, 0, 0, 0, 0, 0]), array([1, 1, 1, 1, 1, 1, 1, 1, 0, 1]), array([1, 1, 1, 1, 1, 1, 1, 1, 1, 1])] 

之前的方法:KNN

最近邻二元动作 knn 计算输入向量 m 与所有可能的二元卸载决策之间的距离,找与输入向量最相似的 k 个二元决策

    def knn(self, m, k = 1):# list all 2^N binary offloading actionsif len(self.enumerate_actions) is 0:import itertools#笛卡尔积 所有可能的二元组合self.enumerate_actions = np.array(list(map(list, itertools.product([0, 1], repeat=self.net[0]))))# the 2-norm 计算与输入向量 m 的距离sqd = ((self.enumerate_actions - m)**2).sum(1)#输入向量 m 与所有可能决策向量的欧氏距离的平方idx = np.argsort(sqd)#距离最小的 k 个二元决策return self.enumerate_actions[idx[:k]]
Offloading Policy Update

经验回放:使用存储的数据样本训练DNN

Adam算法更新DNN的参数\theta_t

收集足够数量的新数据样本后,每\delta个时间步训练一次DNN

DNN迭代地从最佳状态动作对(𝐡𝑡,𝐱𝑡中学习,随着时间的推移生成更好的卸载决策输出

在有限内存空间约束的情况下,DNN仅从最新(且更精细)的卸载策略生成的最新数据样本中学习

Adaptive Setting of K

Convergence Performance

 Impact of Updating Intervals Δ
Computation Rate Performance

对于代码中optimization.py

方法是直接用的《Computation Rate Maximization for Wireless Powered Mobile-Edge Computing with Binary Computation Offloading》中提出的

包括先使用二分法找到最优的参数 v之后使用CD法优化模式选择,即固定其他通道的决策,仅改变当前通道的决策状态,对于每个通道,将其决策状态进行切换(0 变为 1,1 变为 0),计算相应的系统性能

论文地址具有二进制计算卸载的无线移动边缘计算的计算速率最大化,已标好代码中公式与论文中对应关系

# 二分搜索算法求解拉格朗日方程,先假定计算模式选择,然后优化传输时间分配
#线性搜索函数,需要两个输入,一个是信道矩阵,另一个是卸载动作,关于每个无线设备,除了W参数,其他的默认是同质的(我对代码的理解)。  
def bisection(h, M, weights=[]):# the bisection algorithm proposed by Suzhi BI# average time to find the optimal: 0.012535839796066284 s# parameters and equationso=100#是处理一位原始数据所需的周期数p=3#AP功率u=0.7#能量收集效率eta1=((u*p)**(1.0/3))/o#一个固定参数,不用理解ki=10**-26   #能量效率系数,跟计算机能耗相关的eta2=u*p/10**-10B=2*10**6#带宽Vu=1.1#Vu是原始数据(卸载数据)经过加密后的数据(原有数据在传输时进行额外添加)大小比原始数据的倍数epsilon=B/(Vu*np.log(2))x = [] # a =x[0], and tau_j = a[1:],时间分配矩阵M0=np.where(M==0)[0]#本地#为零或者1的索引M1=np.where(M==1)[0]#卸载hi=np.array([h[i] for i in M0])#本地、卸载设备对应的信道hj=np.array([h[i] for i in M1])#  h:信道信息数组,包含了每个通道的信道增益if len(weights) == 0:# default weights [1, 1.5, 1, 1.5, 1, 1.5, ...]weights = [1.5 if i%2==1 else 1 for i in range(len(M))]wi=np.array([weights[M0[i]] for i in range(len(M0))])wj=np.array([weights[M1[i]] for i in range(len(M1))])#w是每个WD的权重def sum_rate(x):#总传输速率 式11a x第一项是a,后面是每个设备的tausum1=sum(wi*eta1*(hi/ki)**(1.0/3)*x[0]**(1.0/3))sum2=0for i in range(len(M1)):sum2+=wj[i]*epsilon*x[i+1]*np.log(1+eta2*hj[i]**2*x[0]/x[i+1])return sum1+sum2def phi(v, j):#式17return 1/(-1-1/(lambertw(-1/(np.exp( 1 + v/wj[j]/epsilon))).real))def p1(v):#式18p1 = 0for j in range(len(M1)):p1 += hj[j]**2 * phi(v, j)return 1/(1 + p1 * eta2)def Q(v):#二分法 找到最优的参数 vsum1 = sum(wi*eta1*(hi/ki)**(1.0/3))*p1(v)**(-2/3)/3#local计算sum2 = 0for j in range(len(M1)):sum2 += wj[j]*hj[j]**2/(1 + 1/phi(v,j))#计算卸载return sum1 + sum2*epsilon*eta2 - v#这里来自公式19def tau(v, j):#式16return eta2*hj[j]**2*p1(v)*phi(v,j)# bisection starts here# 找到一个参数 v,使得函数 Q(v) 的值等于 0delta = 0.005 #二分法的精度UB = 999999999#初始的上界LB = 0#初始的下界while UB - LB > delta:v = (float(UB) + LB)/2if Q(v) > 0:LB = velse:UB = v
#  如果 Q(v) 的值大于 0,则将下界更新为当前的 v 值;否则,将上界更新为当前的 v 值x.append(p1(v))#p1(v)是a x第一项for j in range(len(M1)):x.append(tau(v, j))#计算每个WD的tau x后边是每个设备的taureturn sum_rate(x), x[0], x[1:]#总传输速率和时间分配向量 x 中的各个元素#然后使用坐标下降Coordinate DescentCD法来优化模式选择
def cd_method(h):N = len(h)#通道数量M0 = np.random.randint(2,size = N)#初始通道状态gain0,a,Tj= bisection(h,M0)#初始状态下的计算速率,a 和 Tjg_list = []M_list = []while True:# 固定其他通道的决策,仅改变当前通道的决策状态。# 对于每个通道,将其决策状态进行切换(0 变为 1,1 变为 0),计算相应的系统性能。for j in range(0,N):#对每一个通道 j 进行操作M = np.copy(M0)M[j] = (M[j]+1)%2#切换通道 j 的状态(0变为1,1变为0)gain,a,Tj= bisection(h,M)#调整后的计算速率、时间分配g_list.append(gain)M_list.append(M)g_max = max(g_list)if g_max > gain0:#寻找最优解gain0 = g_maxM0 = M_list[g_list.index(g_max)]#更新最卸载策略else:breakreturn gain0, M0

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/46719.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

数组去重(去重+单调栈 用boolen instack来去重

如果存到一个小的就把比它大的都pop出去&#xff0c;在后面还有的情况下&#xff0c;如果后面没有就不pop了 class Solution {public String removeDuplicateLetters(String s) {Stack<Character> stacknew Stack<>();int[] countnew int[256];boolean[] inStackn…

泰迪智能科技江西大数据实验室成功案例介绍说明

高校大数据实验室作为作为支撑高校人培方案实施的核心设施&#xff0c;实验室的建设一定要与学科建设、人才培养充分融合&#xff0c;是一个包含物理空间硬件资源软件资源课程内容的系统化工程。高校在实验室规划过程中&#xff0c;第一要务就是从学科定位出发、结合学校的特色…

14_Shell重定向输入输出

14_Shell重定向输入输出 输出重定向&#xff1a;一般情况&#xff0c;输出是在终端直接显示&#xff0c;改变输出位置&#xff0c;改变到文件中&#xff0c;这就是输出重定向 输入重定向&#xff1a;一般情况&#xff0c;输入是读取用户终端输入&#xff0c;改变输入位置&#…

图解PyTorch中的Transpose操作

在PyTorch中&#xff0c;我们时常会对张量进行转置操作。若张量是二维的&#xff0c;则非常容易理解。若张量维度更高&#xff0c;则会令人摸不到头脑。 高维张量究竟是怎么转置的&#xff1f;简单来说&#xff0c;就是将参与转置的维度抽出来&#xff0c;将内侧的子张量视为一…

【C++PythonJava】字符处理详细解读_字符_ASCLL码_字母数字转换_算法竞赛_开发语言

文章目录 Beginning1&#xff09;ASCLL 码2&#xff09;大小比较2&#xff09;判断数字字符3&#xff09;字符、数字间的相互转换End Beginning 在 C 中&#xff0c;字符和整数有着密不可分的关系。原因就是在计算机中&#xff0c;字符是以一种较 ASCLL 码的整数存储的。自然&…

职业PDF标准 Python 下载器-CSDN

目的 下载技能人才评价网 - 职业技能标准查询系统 - PDF 打包下载 使用文件 a.json 代码解析 import base64 import requests import json import os import time# 读取JSON文件 with open(a.json, r, encodingutf-8) as f:data json.load(f) # 从名为 a.json 的文件中读…

四川蔚澜时代电子商务有限公司领航抖音电商新纪元

在数字化浪潮的推动下&#xff0c;电子商务已成为现代商业发展的重要引擎。四川蔚澜时代电子商务有限公司&#xff0c;凭借对市场的敏锐洞察力和对技术的执着追求&#xff0c;成功在抖音电商领域崭露头角&#xff0c;成为众多电商创业者值得信赖的合作伙伴。 抖音&#xff0c;…

关系数据库:mysql

使用 mysqladmin 删除数据库 关系型数据库的术语&#xff1a; 数据库: 数据库是一些关联表的集合。数据表: 表是数据的矩阵。在一个数据库中的表看起来像一个简单的电子表格。列: 一列(数据元素) 包含了相同类型的数据, 例如邮政编码的数据。行&#xff1a;一行&#xff08;元组…

idea双击没有反应,打不开

问题描述 Error opening zip file or JAR manifest missing : /home/IntelliJ-IDEA/bin/jetbrains-agent.jar解决方案

前端路由手写Hash和History两种模式

文章目录 1. Hash模式&#xff1a;简洁而广泛适用2. History模式&#xff1a;更自然的用户体验3. 结论 在现代Web开发中&#xff0c;单页面应用&#xff08;Single Page Application&#xff0c;简称SPA&#xff09;因其流畅的用户体验和高效的页面交互能力而备受青睐。前端路由…

PyTorch人脸识别

新书速览|PyTorch深度学习与企业级项目实战-CSDN博客 一套基本的人脸识别系统主要包含三部分&#xff1a;检测器、识别器和分类器&#xff0c;流程架构如图11-3所示&#xff1a; 图11-5 检测器负责检测图片中的人脸&#xff0c;再将检测出来的人脸感兴趣区域&#xff08;Reg…

第二届大数据、计算智能与应用国际会议(BDCIA2024)

会议日期&#xff1a;2024年11月15-17日 会议地点&#xff1a;中国-湖北省-黄冈市 主办单位&#xff1a;黄冈师范学院 【大会主席】 【主讲嘉宾】 大会邀请到来自美国、英国、加拿大、新加坡、意大利、越南等10余位领域内学术大咖作主题报告&#xff0c;并与参会人员互动交…

鸿蒙开发:Universal Keystore Kit(密钥管理服务)【查询密钥是否存在(ArkTS)】

查询密钥是否存在(ArkTS) HUKS提供了接口供应用查询指定密钥是否存在。 开发步骤 指定密钥别名keyAlias&#xff0c;密钥别名最大长度为64字节。初始化密钥属性集。用于查询时指定密钥的属性TAG&#xff0c;比如查询的密钥范围(全量/单个)&#xff0c;当查询单个时&#xff…

分布式IO系统BL201 Profinet耦合器

BL201耦合器是一个数据采集和控制系统&#xff0c;基于强大的32 位微处理器设计&#xff0c;采用Linux操作系统&#xff0c;是一种模块化的分布式I/O系统。该系统由3部分组成&#xff1a;现场总线耦合器和各种类型的&#xff08;数字和模拟信号以及特殊功能&#xff09;I/O模块…

Ubuntu18 中JDK的安装

文章目录 一、背景说明二、获取安装包三、安装JDK3.1 上传安装包3.2 复制和解压3.3 环境变量的设置3.4 验证安装 四、问题列表4.1 .bashrc文件在哪里&#xff1f;.bashrc是什么&#xff1f;4.2 为什么使用rz上传安装包时会报&#xff1a; 传输失败&#xff1f; 五、总结 一、背…

解决RuntimeError: Couldn‘t load custom C++ ops. This can happen if your PyTorch

问题描述 刚下好yolov8的代码&#xff0c;想测一下能否成果&#xff0c;果然没成功&#xff0c;报错如下 RuntimeError: Couldnt load custom C ops. This can happen if your PyTorch and torchvision versions are incompatible, or if you had errors while compiling tor…

kettle从入门到精通 第七五课 ETL之kettle血缘,数据血缘

在了解kettle血缘之前&#xff0c;咱们先来了解下什么是数据血缘&#xff1f; 1、数据血缘定义&#xff08;来自gpt&#xff09; 数据血缘&#xff08;Data Lineage&#xff09;是指在数据管理和数据分析中追踪数据的源头、流向和处理过程的能力。具体来说&#xff0c;数据血…

《昇思25天学习打卡营第21天|基于 MindSpore 实现 BERT 对话情绪识别》

#学习打卡第21天# 1. BERT 模型 BERT全称是来自变换器的双向编码器表征量&#xff08;Bidirectional Encoder Representations from Transformers&#xff09;&#xff0c;它是Google于2018年末开发并发布的一种新型语言模型&#xff0c;是基于Transformer中的Encoder并加上双向…

org/openxmlformats/schemas/spreadsheetml/x2006/main/CTWorkbook$Factory

org/openxmlformats/schemas/spreadsheetml/x2006/main/CTWorkbook$Factory POI的问题 在操作Excel时&#xff0c;出现这个问题是因为缺少了poi-ooxml-schema jar包&#xff0c;并且与poi的jar包版本一致

昇思25天学习打卡营第21天 | 基于MindSpore的红酒分类实验

内容简介 本实验介绍了使用MindSpore框架实现K近邻算法&#xff08;KNN&#xff09;对红酒数据集进行分类的全过程。通过数据读取、预处理、模型构建与预测&#xff0c;展示了KNN算法在红酒数据集上的应用。实验中详细解释了KNN的原理、距离度量方式及其在分类问题中的应用&…