tensorflow1、2会话、变量、feed、fetch、最小二乘法

第一节课


tensorboard–可以查看训练效果
安装ananconda(略)

tensorflow简介

在这里插入图片描述

tensorflow结构

在这里插入图片描述
是个数据流动的趋势,
graph1:默认图
graph2:W*x+b->ReLU

2-1 基本计算-会话的使用

import tensorflow as tf
# 创建一个常量op,1*2
m1=tf.constant([[3,3]])
# 2*1
m2=tf.constant([[2],[3]])
# 矩阵乘法2*3+3*3=15
product=tf.matmul(m1,m2)
print(product)
# Tensor("MatMul:0", shape=(1, 1), dtype=int32)

因为没有放到图和会话中,所以没有值

# 定义会话,会有一个默认的图,可以直接用
sess=tf.Session()
# 调用sess的run来执行矩阵乘法op
# run(product)触发了图的三个op
result=sess.run(product)
print(result)
sess.close()
# [[15]]

另一种启动会话的方式

with tf.Session() as sess:result = sess.run(product)print(result)# [[15]]

2-2 变量

import tensorflow as tfx=tf.Variable([1,2])
a=tf.constant([3,3])
# 增加一个减法op
sub=tf.subtract(x,a)
# 增加一个加法op
add=tf.add(x,sub)# 给所有变量初始化
# 不初始化的话,会报错
init=tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)#运行才会初始化result1 = sess.run(sub)print(result1)result = sess.run(add)print(result)

赋值不能直接赋值,自加如下

# 自加,state=0
state=tf.Variable(0,name='counter')#可以起名字
#state+1
new_value=tf.add(state,1)
# 赋值op state=state+1
update=tf.assign(state,new_value)
# 变量初始化
init=tf.global_variables_initializer()
with tf.Session() as sess:sess.run(init)#运行才会初始化result1 = sess.run(state)print(result1)for _ in range(5):sess.run(update)print(sess.run(state))

2-3 fetch and feed

Fetch

import tensorflow as tf
# fetch
input1=tf.constant(3.0)
input2=tf.constant(2.0)
input3=tf.constant(5.0)add=tf.add(input2,input3)
# input1*(input2+input3)
mul=tf.multiply(input1,add)with tf.Session() as sess:result=sess.run([mul,add])#这个叫fetch?可以同时运行多个print(result)# [21.0, 7.0]

feed

placeholder的变量是初始值待定的,feed以字典传入。

# feed
# 创建占位符
input1=tf.placeholder(tf.float32)
input2=tf.placeholder(tf.float32)
output=tf.multiply(input1,input2)
with tf.Session() as sess:# feed以字典形式传入print(sess.run(output,feed_dict={input1:[7.0],input2:[2.0]}))# [14.]

tensorflow的简单实用案例——最小二乘法

import tensorflow as tf
import numpy as np
# 使用numpy生成100个随机点
x_data=np.random.rand(100)
y_data=x_data*0.1+0.2# 构造一个线性模型
b=tf.Variable(0.)
k=tf.Variable(0.)
y=k*x_data+b# 定义一个二次代价函数
loss=tf.reduce_mean(tf.square(y_data-y))#(y_data-y)的平方然后求了个均值
# 定义一个梯度下降法来进行训练的优化器
optimizer=tf.train.GradientDescentOptimizer(0.2)#学习率=0.2
# 定义一个最小化代价函数
train=optimizer.minimize(loss)init=tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)for step in range(201):print(sess.run([train,k,b,loss]))# [None, 0.049395364, 0.09887357, 0.061785623]
#         ……
# [None, 0.09999921, 0.20000039, 4.515499e-14]
# [None, 0.09999923, 0.20000039, 4.2725822e-14]

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/481682.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

人工智能 迁移学习

1.深入了解神经网络的组成、训练和实现,掌握深度空间特征分布等关键概念; 2.掌握迁移学习的思想与基本形式,了解传统迁移学习的基本方法,对比各种方法的优缺点; 3.握深度迁移学习的思想与组成模块,学习深…

《Nature》十年努力,“合成”胚胎与大脑和跳动的心脏

来源:生物通研究人员已经用小鼠干细胞创造出了模型胚胎,这些干细胞形成了大脑、跳动的心脏和身体所有其他器官的基础——这是重建生命第一阶段的新途径。小鼠胚胎的小脑由Magdalena Zernicka-Goetz教授领导的研究小组在没有卵子或精子的情况下开发了胚胎…

tensorflow3 非线性回归、mnist、简单神经网络

mnist数据集 手写数字的数据集。60000行训练数据集,10000行测试数据集下载地址:http://yann.lecun.com/exdb/mnist/index.html mnist数据集是形状为[60000,784]的张量,60000张图片,每个图片有784个像素点,这些个像素点…

边缘计算:盘点100个知识点

3G、4G、5G 第三代、第四代和第五代蜂窝技术。简单来说,3G 代表智能手机及其移动网络浏览器的引入;4G 是当前一代的蜂窝技术,为移动设备提供真正的宽带互联网接入;5G 蜂窝技术将为蜂窝系统提供巨大的带宽并减少延迟,支…

【院士思维】张钹:我们正处在AI算法不可控的危险状态

来源:清华大学人工智能国际治理研究院8月19日,2022世界机器人大会主论坛正式开幕,期间,有三位院士到场,就“未来机器人:目标、路径和挑战”的主题进行了一场深刻的谈话。三位院士分别为中国科学院院士&…

tensorflow4 代价函数、dropout、优化器

这次扔使用上次的mnist数据集分类的简单版本程序,使用不同的代价函数做计算 二次代价函数 激活函数 使用二次代价函数的运行结果 # 使用二次代价函数的结果-精度 # losstf.reduce_mean(tf.square(y-prediction)) # 0.8322 # 0.8698 # 0.8818 # 0.8882 # 0.8935 #…

强化学习先驱Richard Sutton:将开发新型计算智能体

来源:机器之心编辑:陈萍、小舟DeepMind 和阿尔伯塔大学联合成立的人工智能实验室未来几年要研究什么?2017 年,DeepMind 在加拿大的 Edmonton 成立了其首个英国之外的人工智能研究实验室,并和阿尔伯塔大学大学紧密合作&…

不隐身的“隐身战斗机”

7月19日,韩国KF-21战斗机原型机完成首飞,韩国国防部将该机定位为4代半战斗机。凭借该机,韩国将成为第9个能够研制超音速战斗机的国家。 所谓4代半战斗机,即部分采用隐身技术,同时无法完全达到5代机性能标准的战斗机。…

国科大高级人工智能笔记1-搜索

1.搜索问题 搜索问题——对原问题的建模 构成: 状态空间 包含环境中每一个细节搜索状态:只保留行动需要的细节 后继函数 行动,消耗 初始状态和目标测试 解: 一个行动序列,将初始状态–>目标状态 表示 状态空间图 搜…

自学成才的人工智能显示出与大脑工作方式的相似之处

来源:ScienceAI编译:白菜叶十年来,许多最令人印象深刻的人工智能系统都是使用大量标记数据进行教学的。例如,可以将图像标记为「虎斑猫」或「虎猫」,以「训练」人工神经网络以正确区分虎斑和虎。该战略既取得了惊人的成…

国科大高级人工智能2-人工神经网络(MLP、Hopfield)

常见组合函数 常见激活函数 结构 前馈神经网络(单向)反馈/循环神经网络 学习方法 学习模型 增量迭代 类型 监督无监督 学习策略 Hebbrian Learning 若两端的神经元同时激活,增强联接权重Unsupervised Learning循环?ωij(t1)ω…

人工智能 大数据

课程安排 一、大数据概述 二、大数据处理架构Hadoop 三、分布式文件系统HDFS 四、分布式数据库HBase 五、MapReduce 六、Spark 七、IPython Notebook运行Python Spark程序 八、Python Spark集成开发环境 九、Python Spark决策树二分类与多分类 十、Python …

Nature:AI的瓶颈突破在于「实体人工智能(PAI)」

来源:公众号机器之能作者:AslanMiriyev 、 Mirko Kovač翻译:Panda近些年人工智能领域已经取得了突飞猛进的进步,但这些进步大都集中于数字人工智能领域,对于能和我们这种生物体一样执行日常任务的实体人工智能&#x…

国科大高级人工智能3-DNN(BM/RBM/DBN/DBM)

1.深层、浅层、BP 出现背景优点缺点浅层神经网络为了解决非线性问题可以拟合任何函数参数多,神经元多,需要更多的计算资源和数据BP算法(对p(labelinput)建模为了计算神经网络损失回传深度神经网络(>5)(时代背景数据…

人工智能 知识图谱

--- 关于举办 2022年数字信息化培训项目系列 --- 知识图谱Knowledge Graph构建与应用研修班线上课程的通知 各有关单位: 一、培训目标: 本次课程安排紧密结合理论与实践,深入浅出,循序渐进。从基本概念讲起,重点讲解构建方法和技术的转化思…

世界元宇宙大会—李伯虎院士主旨报告:工业元宇宙模式、技术与应用初探

来源:北京物联网智能技术应用协会未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)…

国科大高级人工智能+prml4-CNN

文章目录CNN卷积paddingpoolingBP其他CNNResNets残差网络——图像数据应用CNN Hebb学习律(无监督 如果两个神经元在同一时刻被激发,则他们之间的联系应该被强化对神经元的重复刺激,使得神经元之间的突触强度增加 Delta学习律(有监…

深度学习(Deep Learning)

知识关键点 1. 人工智能、深度学习的发展历程 2. 深度学习框架 3. 神经网络训练方法 4. 卷积神经网络,卷积核、池化、通道、激活函数 5. 循环神经网络,长短时记忆 LSTM、门控循环单元 GRU 6. 参数初始化方法、损失函数 Loss、过拟合 7. 对抗生成网…

​Science:灵长类前额叶皮质进化图谱

来源:brainnews相比其它物种,包括亲缘关系非常近的灵长类,我们人类进化出了高级的认知和复杂的社会行为。毋庸置疑,人类大脑是这一切独特变化的中心,而其中的前额叶皮质又格外的引人注目。灵长类的前额叶皮质跟其他物种…

基于深度学习的机器人目标识别和跟踪

如今,深度学习算法的发展越来越迅速,并且在图像处理以及目标对象识别方面已经得到了较为显著的突破,无论是对检测对象的类型判断,亦或者对检测对象所处方位的检测,深度学习算法都取得了远超过传统机器学习算法的准确率…