tensorflow1、2会话、变量、feed、fetch、最小二乘法

第一节课


tensorboard–可以查看训练效果
安装ananconda(略)

tensorflow简介

在这里插入图片描述

tensorflow结构

在这里插入图片描述
是个数据流动的趋势,
graph1:默认图
graph2:W*x+b->ReLU

2-1 基本计算-会话的使用

import tensorflow as tf
# 创建一个常量op,1*2
m1=tf.constant([[3,3]])
# 2*1
m2=tf.constant([[2],[3]])
# 矩阵乘法2*3+3*3=15
product=tf.matmul(m1,m2)
print(product)
# Tensor("MatMul:0", shape=(1, 1), dtype=int32)

因为没有放到图和会话中,所以没有值

# 定义会话,会有一个默认的图,可以直接用
sess=tf.Session()
# 调用sess的run来执行矩阵乘法op
# run(product)触发了图的三个op
result=sess.run(product)
print(result)
sess.close()
# [[15]]

另一种启动会话的方式

with tf.Session() as sess:result = sess.run(product)print(result)# [[15]]

2-2 变量

import tensorflow as tfx=tf.Variable([1,2])
a=tf.constant([3,3])
# 增加一个减法op
sub=tf.subtract(x,a)
# 增加一个加法op
add=tf.add(x,sub)# 给所有变量初始化
# 不初始化的话,会报错
init=tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)#运行才会初始化result1 = sess.run(sub)print(result1)result = sess.run(add)print(result)

赋值不能直接赋值,自加如下

# 自加,state=0
state=tf.Variable(0,name='counter')#可以起名字
#state+1
new_value=tf.add(state,1)
# 赋值op state=state+1
update=tf.assign(state,new_value)
# 变量初始化
init=tf.global_variables_initializer()
with tf.Session() as sess:sess.run(init)#运行才会初始化result1 = sess.run(state)print(result1)for _ in range(5):sess.run(update)print(sess.run(state))

2-3 fetch and feed

Fetch

import tensorflow as tf
# fetch
input1=tf.constant(3.0)
input2=tf.constant(2.0)
input3=tf.constant(5.0)add=tf.add(input2,input3)
# input1*(input2+input3)
mul=tf.multiply(input1,add)with tf.Session() as sess:result=sess.run([mul,add])#这个叫fetch?可以同时运行多个print(result)# [21.0, 7.0]

feed

placeholder的变量是初始值待定的,feed以字典传入。

# feed
# 创建占位符
input1=tf.placeholder(tf.float32)
input2=tf.placeholder(tf.float32)
output=tf.multiply(input1,input2)
with tf.Session() as sess:# feed以字典形式传入print(sess.run(output,feed_dict={input1:[7.0],input2:[2.0]}))# [14.]

tensorflow的简单实用案例——最小二乘法

import tensorflow as tf
import numpy as np
# 使用numpy生成100个随机点
x_data=np.random.rand(100)
y_data=x_data*0.1+0.2# 构造一个线性模型
b=tf.Variable(0.)
k=tf.Variable(0.)
y=k*x_data+b# 定义一个二次代价函数
loss=tf.reduce_mean(tf.square(y_data-y))#(y_data-y)的平方然后求了个均值
# 定义一个梯度下降法来进行训练的优化器
optimizer=tf.train.GradientDescentOptimizer(0.2)#学习率=0.2
# 定义一个最小化代价函数
train=optimizer.minimize(loss)init=tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)for step in range(201):print(sess.run([train,k,b,loss]))# [None, 0.049395364, 0.09887357, 0.061785623]
#         ……
# [None, 0.09999921, 0.20000039, 4.515499e-14]
# [None, 0.09999923, 0.20000039, 4.2725822e-14]

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481682.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

《Nature》十年努力,“合成”胚胎与大脑和跳动的心脏

来源:生物通研究人员已经用小鼠干细胞创造出了模型胚胎,这些干细胞形成了大脑、跳动的心脏和身体所有其他器官的基础——这是重建生命第一阶段的新途径。小鼠胚胎的小脑由Magdalena Zernicka-Goetz教授领导的研究小组在没有卵子或精子的情况下开发了胚胎…

tensorflow3 非线性回归、mnist、简单神经网络

mnist数据集 手写数字的数据集。60000行训练数据集,10000行测试数据集下载地址:http://yann.lecun.com/exdb/mnist/index.html mnist数据集是形状为[60000,784]的张量,60000张图片,每个图片有784个像素点,这些个像素点…

【院士思维】张钹:我们正处在AI算法不可控的危险状态

来源:清华大学人工智能国际治理研究院8月19日,2022世界机器人大会主论坛正式开幕,期间,有三位院士到场,就“未来机器人:目标、路径和挑战”的主题进行了一场深刻的谈话。三位院士分别为中国科学院院士&…

tensorflow4 代价函数、dropout、优化器

这次扔使用上次的mnist数据集分类的简单版本程序,使用不同的代价函数做计算 二次代价函数 激活函数 使用二次代价函数的运行结果 # 使用二次代价函数的结果-精度 # losstf.reduce_mean(tf.square(y-prediction)) # 0.8322 # 0.8698 # 0.8818 # 0.8882 # 0.8935 #…

强化学习先驱Richard Sutton:将开发新型计算智能体

来源:机器之心编辑:陈萍、小舟DeepMind 和阿尔伯塔大学联合成立的人工智能实验室未来几年要研究什么?2017 年,DeepMind 在加拿大的 Edmonton 成立了其首个英国之外的人工智能研究实验室,并和阿尔伯塔大学大学紧密合作&…

不隐身的“隐身战斗机”

7月19日,韩国KF-21战斗机原型机完成首飞,韩国国防部将该机定位为4代半战斗机。凭借该机,韩国将成为第9个能够研制超音速战斗机的国家。 所谓4代半战斗机,即部分采用隐身技术,同时无法完全达到5代机性能标准的战斗机。…

国科大高级人工智能笔记1-搜索

1.搜索问题 搜索问题——对原问题的建模 构成: 状态空间 包含环境中每一个细节搜索状态:只保留行动需要的细节 后继函数 行动,消耗 初始状态和目标测试 解: 一个行动序列,将初始状态–>目标状态 表示 状态空间图 搜…

自学成才的人工智能显示出与大脑工作方式的相似之处

来源:ScienceAI编译:白菜叶十年来,许多最令人印象深刻的人工智能系统都是使用大量标记数据进行教学的。例如,可以将图像标记为「虎斑猫」或「虎猫」,以「训练」人工神经网络以正确区分虎斑和虎。该战略既取得了惊人的成…

国科大高级人工智能2-人工神经网络(MLP、Hopfield)

常见组合函数 常见激活函数 结构 前馈神经网络(单向)反馈/循环神经网络 学习方法 学习模型 增量迭代 类型 监督无监督 学习策略 Hebbrian Learning 若两端的神经元同时激活,增强联接权重Unsupervised Learning循环?ωij(t1)ω…

Nature:AI的瓶颈突破在于「实体人工智能(PAI)」

来源:公众号机器之能作者:AslanMiriyev 、 Mirko Kovač翻译:Panda近些年人工智能领域已经取得了突飞猛进的进步,但这些进步大都集中于数字人工智能领域,对于能和我们这种生物体一样执行日常任务的实体人工智能&#x…

国科大高级人工智能3-DNN(BM/RBM/DBN/DBM)

1.深层、浅层、BP 出现背景优点缺点浅层神经网络为了解决非线性问题可以拟合任何函数参数多,神经元多,需要更多的计算资源和数据BP算法(对p(labelinput)建模为了计算神经网络损失回传深度神经网络(>5)(时代背景数据…

世界元宇宙大会—李伯虎院士主旨报告:工业元宇宙模式、技术与应用初探

来源:北京物联网智能技术应用协会未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)…

国科大高级人工智能+prml4-CNN

文章目录CNN卷积paddingpoolingBP其他CNNResNets残差网络——图像数据应用CNN Hebb学习律(无监督 如果两个神经元在同一时刻被激发,则他们之间的联系应该被强化对神经元的重复刺激,使得神经元之间的突触强度增加 Delta学习律(有监…

​Science:灵长类前额叶皮质进化图谱

来源:brainnews相比其它物种,包括亲缘关系非常近的灵长类,我们人类进化出了高级的认知和复杂的社会行为。毋庸置疑,人类大脑是这一切独特变化的中心,而其中的前额叶皮质又格外的引人注目。灵长类的前额叶皮质跟其他物种…

基于深度学习的机器人目标识别和跟踪

如今,深度学习算法的发展越来越迅速,并且在图像处理以及目标对象识别方面已经得到了较为显著的突破,无论是对检测对象的类型判断,亦或者对检测对象所处方位的检测,深度学习算法都取得了远超过传统机器学习算法的准确率…

国科大高级人工智能5-RNN/LSTM/GRU/集束搜索/attention

文章目录BPTTBPTT前向传播长序列循环神经网络LSTM序列到序列的模型集束搜索——近似搜索改进的集束搜索集束搜索的误差分析图到文本注意力模型序列数据建模 输入序列–>输出序列预测序列的下一项(监督) 模糊了监督和非监督 有的cnn对序列不适用&…

揭秘虚拟电厂,它究竟是如何运行的?

来源:新浪科技(ID:techsina)作者:刘丽丽编辑 :韩大鹏与电力调度相关的虚拟电厂再次引发市场关注。日前,国内首家虚拟电厂管理中心深圳虚拟电厂管理中心揭牌,国内虚拟电厂迈入了快速发展新阶段。…

国科大高级人工智能6-GAN

文章目录生成式模型的基础:极大似然估计GANs最终版本问题非饱和博弈DCGAN不同类型的GANconditional GAN无监督条件GAN--cycle GAN对抗学习https://blog.csdn.net/suyebiubiu/category_9372769.html生成式模型的基础:极大似然估计 θ∗argmaxθExpdatalog…

为什么量子力学总是让人感到疑惑?

来源:中科院物理所作者:Paul Austin Murphy翻译:Nothing审校:藏痴我们认为量子粒子很奇怪的主要问题是将量子粒子视为经典粒子而它们的行为却表现得非常非经典。(或者,问题是将量子粒子视为“物体”&#x…

国科大高级人工智能7-命题逻辑

文章目录命题逻辑(语法Syntax)由枚举推理(inference by enumeration区别deduction(形式推演,演绎)作业(定理证明)logics:逻辑,表达信息的形式语言 语法syntax 语义semantics 逻辑…