1 深度学习网络DNN

代码来自B站up爆肝杰哥

测试版本

import torch
import torchvisiondef print_hi(name):print(f'Hi, {name}')  if __name__ == '__main__':print_hi('陀思妥耶夫斯基')print("HELLO pytorch {}".format(torch.__version__))print("torchvision.version:", torchvision.__version__)print("torch.cuda.is_available? ", torch.cuda.is_available())x = torch.rand(3, 6)print(x)
Hi, 陀思妥耶夫斯基
HELLO pytorch 1.12.0
torchvision.version: 0.13.0
torch.cuda.is_available?  False
tensor([[0.7461, 0.6500, 0.3676, 0.5967, 0.1452, 0.3587],[0.0439, 0.9415, 0.9146, 0.8264, 0.3982, 0.3910],[0.2620, 0.0925, 0.9572, 0.6554, 0.2681, 0.0893]])

一个搭建过程

ts1=torch.randn(3,2)
ts1
tensor([[-1.3440,  1.6731],[ 0.2274,  1.1744],[-0.7912,  1.0309]])
# 转移到GPU上
# ts2=ts1.to('cuda:0')
# model = DNN().to('cuda:0') 
简单搭建
import torch
import torch.nn as nn
import matplotlib.pyplot as plt
%matplotlib inlinefrom matplotlib_inline import backend_inline
backend_inline.set_matplotlib_formats('svg')
# 生成数据集
X1 = torch.rand(10000,1) # 输入特征 1
X2 = torch.rand(10000,1) # 输入特征 2
X3 = torch.rand(10000,1) # 输入特征 3
Y1 = ( (X1+X2+X3)<1 ).float() # 输出特征 1
Y2 = ( (1<(X1+X2+X3)) & ((X1+X2+X3)<2) ).float() # 输出特征 2
Y3 = ( (X1+X2+X3)>2 ).float() # 输出特征 3
Data = torch.cat([X1,X2,X3,Y1,Y2,Y3],axis=1) # 整合数据集
# Data = Data.to('cuda:0') # 把数据集搬到 GPU 上
Data.shape
torch.Size([10000, 6])
train_size=int(len(Data)*0.7)
test_size=len(Data)-train_size
Data=Data[torch.randperm(Data.size(0)),:] # 打乱样本顺序
train_Data = Data[:train_size, :]
test_Data = Data[train_size:, :]
train_Data.shape, test_Data.shape
(torch.Size([7000, 6]), torch.Size([3000, 6]))
class DNN(nn.Module):def __init__(self):''' 搭建神经网络各层 '''super(DNN, self).__init__()self.net = nn.Sequential(  # 按顺序搭建各层nn.Linear(3, 5),nn.ReLU(),  # 第 1 层:全连接层nn.Linear(5, 5),nn.ReLU(),  # 第 2 层:全连接层nn.Linear(5, 5),nn.ReLU(),  # 第 3 层:全连接层nn.Linear(5, 3)  # 第 4 层:全连接层)def forward(self, x):''' 前向传播 '''y = self.net(x)  # x 即输入数据return y  # y 即输出数据
model=DNN()
model
DNN((net): Sequential((0): Linear(in_features=3, out_features=5, bias=True)(1): ReLU()(2): Linear(in_features=5, out_features=5, bias=True)(3): ReLU()(4): Linear(in_features=5, out_features=5, bias=True)(5): ReLU()(6): Linear(in_features=5, out_features=3, bias=True))
)
# 查看内部参数(非必要)
for name, param in model.named_parameters():print(f"参数:{name}\n 形状:{param.shape}\n 数值:{param}\n")
参数:net.0.weight形状:torch.Size([5, 3])数值:Parameter containing:
tensor([[-0.3450, -0.0658, -0.4716],[ 0.4366, -0.2939, -0.2635],[ 0.0442, -0.4962, -0.2176],[ 0.0285, -0.1640, -0.2958],[ 0.0790,  0.4858,  0.1398]], requires_grad=True)参数:net.0.bias形状:torch.Size([5])数值:Parameter containing:
tensor([ 0.5582, -0.4712,  0.4455,  0.2119, -0.2546], requires_grad=True)参数:net.2.weight形状:torch.Size([5, 5])数值:Parameter containing:
tensor([[ 0.2466,  0.1161, -0.2335, -0.3888, -0.1425],[ 0.0706,  0.0777,  0.0081,  0.0236, -0.0326],[ 0.3518,  0.0702,  0.4115, -0.2355, -0.2249],[-0.0715, -0.1902, -0.1665, -0.1604, -0.1973],[-0.0658,  0.0639, -0.1540, -0.4332, -0.3613]], requires_grad=True)参数:net.2.bias形状:torch.Size([5])数值:Parameter containing:
tensor([ 0.3787,  0.2764,  0.2568,  0.3191, -0.2946], requires_grad=True)参数:net.4.weight形状:torch.Size([5, 5])数值:Parameter containing:
tensor([[-0.1057,  0.0083,  0.0652,  0.3027,  0.1454],[ 0.1724,  0.0562,  0.3369,  0.0071, -0.1573],[-0.3154, -0.0760,  0.0859, -0.3460, -0.0201],[ 0.2442, -0.3927, -0.0244, -0.2937,  0.1900],[ 0.3870, -0.3930,  0.1015, -0.2828, -0.0344]], requires_grad=True)参数:net.4.bias形状:torch.Size([5])数值:Parameter containing:
tensor([ 0.3448, -0.2331,  0.3587,  0.3233,  0.0216], requires_grad=True)参数:net.6.weight形状:torch.Size([3, 5])数值:Parameter containing:
tensor([[ 0.3056, -0.1478, -0.1536,  0.0831,  0.2769],[-0.2593, -0.4269,  0.1112, -0.0393, -0.4057],[-0.3688,  0.3386, -0.2689, -0.2382, -0.0796]], requires_grad=True)参数:net.6.bias形状:torch.Size([3])数值:Parameter containing:
tensor([-0.0037,  0.2068, -0.0956], requires_grad=True)
# 损失函数的选择
loss_fn = nn.MSELoss()
# 优化算法的选择
learning_rate = 0.01 # 设置学习率
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)
# 训练网络
epochs = 1000
losses = []  # 记录损失函数变化的列表
# 给训练集划分输入与输出
X = train_Data[:, :3]  # 前 3 列为输入特征
Y = train_Data[:, -3:]  # 后 3 列为输出特征
for epoch in range(epochs):Pred = model(X)  # 一次前向传播(批量)loss = loss_fn(Pred, Y)  # 计算损失函数losses.append(loss.item())  # 记录损失函数的变化optimizer.zero_grad()  # 清理上一轮滞留的梯度loss.backward()  # 一次反向传播optimizer.step()  # 优化内部参数Fig = plt.figure()
plt.plot(range(epochs), losses)
plt.ylabel('loss')
plt.xlabel('epoch')
plt.show()

在这里插入图片描述

# 测试网络
# 给测试集划分输入与输出
X = test_Data[:, :3]  # 前 3 列为输入特征
Y = test_Data[:, -3:]  # 后 3 列为输出特征
with torch.no_grad():  # 该局部关闭梯度计算功能Pred = model(X)  # 一次前向传播(批量)# 将每行最大的数置 1,将不是 1 的数字置 0Pred[:, torch.argmax(Pred, axis=1)] = 1Pred[Pred != 1] = 0correct = torch.sum((Pred == Y).all(1))  # 预测正确的样本数量total = Y.size(0)  # 全部的样本数量print(f'测试集精准度: {100*correct/total} %')
测试集精准度: 67.19999694824219 %
# 保存网络
torch.save(model, 'model.pth')
# 把模型赋给新网络
new_model = torch.load('model.pth')
# 测试网络
# 给测试集划分输入与输出
X = test_Data[:, :3]  # 前 3 列为输入特征
Y = test_Data[:, -3:]  # 后 3 列为输出特征
with torch.no_grad():  # 该局部关闭梯度计算功能Pred = new_model(X)  # 一次前向传播(批量)# 将每行最大的数置 1,将不是 1 的数字置 0Pred[:, torch.argmax(Pred, axis=1)] = 1Pred[Pred != 1] = 0correct = torch.sum((Pred == Y).all(1))  # 预测正确的样本数量total = Y.size(0)  # 全部的样本数量print(f'测试集精准度: {100*correct/total} %')
测试集精准度: 67.19999694824219 %

一个例子:批量梯度下降

import numpy as np
import pandas as pd
import torch
import torch.nn as nn
import matplotlib.pyplot as plt
%matplotlib inline# 展示高清图
from matplotlib_inline import backend_inlinebackend_inline.set_matplotlib_formats('svg')
# 准备数据集
df = pd.read_excel('./深度学习(4):深度神经网络(DNN)/Data.xlsx', index_col=0) # 导入数据
arr = df.values # Pandas 对象退化为 NumPy 数组
arr = arr.astype(np.float32) # 转为 float32 类型数组
ts = torch.tensor(arr) # 数组转为张量
# ts = ts.to('cuda') # 把训练集搬到 cuda 上
ts.shape
torch.Size([759, 9])
# 划分训练集与测试集
train_size = int(len(ts) * 0.7)  # 训练集的样本数量
test_size = len(ts) - train_size  # 测试集的样本数量
ts = ts[torch.randperm(ts.size(0)), :]  # 打乱样本的顺序
train_Data = ts[:train_size, :]  # 训练集样本
test_Data = ts[train_size:, :]  # 测试集样本
train_Data.shape, test_Data.shape
(torch.Size([531, 9]), torch.Size([228, 9]))
class DNN(nn.Module):def __init__(self):super(DNN, self).__init__()self.net = nn.Sequential(nn.Linear(8, 32), nn.Sigmoid(),nn.Linear(32, 8),nn.Sigmoid(), nn.Linear(8, 4), nn.Sigmoid(),nn.Linear(4, 1), nn.Sigmoid())def forward(self, x):y = self.net(x)return ymodel = DNN()
loss_fn = nn.BCELoss(reduction='mean')
optimizer = torch.optim.Adam(model.parameters(), lr=0.005)# 训练网络
epochs = 5000
losses = []  # 记录损失函数变化的列表
# 给训练集划分输入与输出
X = train_Data[:, :-1]  # 前 8 列为输入特征
Y = train_Data[:, -1].reshape((-1, 1))
# 此处的.reshape((-1,1))将一阶张量升级为二阶张量for _ in range(epochs):Pred = model(X)loss = loss_fn(Pred, Y)losses.append(loss.item())optimizer.zero_grad()loss.backward()optimizer.step()Fig = plt.figure()
plt.plot(range(epochs), losses)
plt.ylabel('loss')
plt.xlabel('epoch')
plt.show()

在这里插入图片描述

# 测试网络
# 给测试集划分输入与输出
X = test_Data[:, :-1]  # 前 8 列为输入特征
Y = test_Data[:, -1].reshape((-1, 1))  # 后 1 列为输出特征
with torch.no_grad():  # 该局部关闭梯度计算功能Pred = model(X)  # 一次前向传播(批量)Pred[Pred >= 0.5] = 1Pred[Pred < 0.5] = 0correct = torch.sum((Pred == Y).all(1))  # 预测正确的样本total = Y.size(0)  # 全部的样本数量print(f'测试集精准度: {100*correct/total} %')
测试集精准度: 69.7368392944336 %

接着上一个例子:改用小批量梯度下降

在使用小批量梯度下降时,必须使用 3 个 PyTorch 内置的实用工具(utils):

  • DataSet 用于封装数据集;
  • DataLoader 用于加载数据不同的批次;
  • random_split 用于划分训练集与测试集。
import numpy as np
import pandas as pd
import torch
import torch.nn as nn
from torch.utils.data import Dataset, DataLoader, random_split
import matplotlib.pyplot as plt
%matplotlib inline# 展示高清图
from matplotlib_inline import backend_inlinebackend_inline.set_matplotlib_formats('svg')

在封装我们的数据集时,必须继承实用工具(utils)中的 DataSet 的类,这
个过程需要重写_init_、_getitem_、__len__三个方法,分别是为了加载数据集、获取数据索引、获取数据总量。

# 制作数据集
class MyData(Dataset):  # 继承 Dataset 类def __init__(self, filepath):df = pd.read_excel(filepath, index_col=0)  # 导入数据arr = df.values  # 对象退化为数组arr = arr.astype(np.float32)  # 转为 float32 类型数组ts = torch.tensor(arr)  # 数组转为张量
#         ts = ts.to('cuda')  # 把训练集搬到 cuda 上self.X = ts[:, :-1]  # 前 8 列为输入特征self.Y = ts[:, -1].reshape((-1, 1))  # 后 1 列为输出特征self.len = ts.shape[0]  # 样本的总数def __getitem__(self, index):return self.X[index], self.Y[index]def __len__(self):return self.len
# 划分训练集与测试集
Data = MyData('./深度学习(4):深度神经网络(DNN)/Data.xlsx')
train_size = int(len(Data) * 0.7)  # 训练集的样本数量
test_size = len(Data) - train_size  # 测试集的样本数量
train_Data, test_Data = random_split(Data, [train_size, test_size])
# 批次加载器
train_loader = DataLoader(dataset=train_Data, shuffle=True, batch_size=128) # 在每个 epoch 开始时,数据会被随机打乱顺序
test_loader = DataLoader(dataset=test_Data, shuffle=False, batch_size=64)
class DNN(nn.Module):def __init__(self):super(DNN, self).__init__()self.net = nn.Sequential(nn.Linear(8, 32), nn.Sigmoid(),nn.Linear(32, 8),nn.Sigmoid(), nn.Linear(8, 4), nn.Sigmoid(),nn.Linear(4, 1), nn.Sigmoid())def forward(self, x):y = self.net(x)return y
model = DNN()
loss_fn = nn.BCELoss(reduction='mean')
optimizer = torch.optim.Adam(model.parameters(), lr=0.005)# 训练网络
epochs = 500
losses = []  # 记录损失函数变化的列表for _ in range(epochs):for (x,y) in train_loader:Pred = model(x)loss = loss_fn(Pred, y)losses.append(loss.item())optimizer.zero_grad()loss.backward()optimizer.step()Fig = plt.figure()
plt.plot(range(len(losses)), losses)
plt.show()

在这里插入图片描述

# 测试网络
correct = 0
total = 0
with torch.no_grad(): # 该局部关闭梯度计算功能for (x, y) in test_loader: # 获取小批次的 x 与 yPred = model(x) # 一次前向传播(小批量)Pred[Pred>=0.5] = 1Pred[Pred<0.5] = 0correct += torch.sum( (Pred == y).all(1) )total += y.size(0)
print(f'测试集精准度: {100*correct/total} %') # 可见这里小批量梯度下降比批量梯度下降效果好
测试集精准度: 76.31578826904297 %

手写数字识别

在 MNIST 中,模型的输入是一副图像,模型的输出就是一个与图像中对应的数字(0 至 9 之间的一个整数,不是独热编码)。我们不用手动将输出转换为独热编码,PyTorch 会在整个过程中自动将数据集的输出转换为独热编码.只有在最后测试网络时,我们对比测试集的预测输出与真实输出时,才需要注意一下。每个图像都是形状为28 × 28的二维数组。

在这种多分类问题中,神经网络的输出层需要一个 softmax 激活函数,它可以把输出层的数据归一化到 0-1 上,且加起来为 1,这样就模拟出了概率的意思。

import torch
import torch.nn as nn
from torch.utils.data import DataLoader
from torchvision import transforms, datasets
import matplotlib.pyplot as plt
%matplotlib inline# 展示高清图
from matplotlib_inline import backend_inlinebackend_inline.set_matplotlib_formats('svg')
# 数据集转换参数
transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize(0.1307, 0.3081)])train_dataset = datasets.MNIST(root='./data',train=True,transform=transform,download=False)  # 我已下载,所以改成False,没下载改成True,test_dataset同理
test_dataset = datasets.MNIST(root='./data',train=False,transform=transform,download=False)
train_loader = DataLoader(dataset=train_dataset, batch_size=128, shuffle=True)
test_loader = DataLoader(dataset=test_dataset, batch_size=128, shuffle=False)

每个样本的输入都是形状为28 × 28的二维数组,那么对于 DNN 来说,输入层的神经元节点就要有28 × 28 = 784个;输出层使用独热编码,需要 10 个节点。

class DNN(nn.Module):def __init__(self):''' 搭建神经网络各层 '''super(DNN, self).__init__()self.net = nn.Sequential(  # 按顺序搭建各层nn.Flatten(),  # 把图像铺平成一维nn.Linear(784, 512),nn.ReLU(),  # 第 1 层:全连接层nn.Linear(512, 256),nn.ReLU(),  # 第 2 层:全连接层nn.Linear(256, 128),nn.ReLU(),  # 第 3 层:全连接层nn.Linear(128, 64),nn.ReLU(),  # 第 4 层:全连接层nn.Linear(64, 10)  # 第 5 层:全连接层)def forward(self, x):''' 前向传播 '''y = self.net(x)  # x 即输入数据return y  # y 即输出数据
model = DNN()
loss_fn = nn.CrossEntropyLoss() # 自带 softmax 激活函数
optimizer = torch.optim.SGD(model.parameters(), lr=0.01,momentum=0.5)# 训练网络
epochs = 5
losses = []  # 记录损失函数变化的列表for _ in range(epochs):for (x,y) in train_loader:Pred = model(x)loss = loss_fn(Pred, y)losses.append(loss.item())optimizer.zero_grad()loss.backward()optimizer.step()Fig = plt.figure()
plt.plot(range(len(losses)), losses)
plt.show()

在这里插入图片描述

# 测试网络
correct = 0
total = 0
with torch.no_grad(): # 该局部关闭梯度计算功能for (x, y) in test_loader: # 获取小批次的 x 与 yPred = model(x) # 一次前向传播(小批量_, predicted = torch.max(Pred.data, dim=1) # 每一行最大值,最大值对应的列索引correct += torch.sum( (predicted == y) )total += y.size(0)print(f'测试集精准度: {100*correct/total} %') 
测试集精准度: 95.16999816894531 %

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/50041.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

用在ROS2系统中保持差速轮方向不变的PID程序

在ROS 2中&#xff0c;为了保持差速轮机器人的方向不变&#xff0c;通常需要使用PID&#xff08;Proportional Integral Derivative&#xff09;控制器来控制机器人的角速度。PID控制器可以帮助调整机器人的角速度&#xff0c;以维持其朝向不变。 下面是一个简单的ROS 2节点示…

使用el-table的案例小结——包含跨页多选、双击行、分页器、编辑\删除行、动态根据分页生成序号

首先看一下业务需求 需要实现跨页多选&#xff0c;双击行的时候弹出编辑对话框&#xff0c;对每行可以进行编辑和删除&#xff0c;实现分页器。 如果还没在项目中配置element-plus的可以参考文章 从零开始创建vue3项目——包含项目初始化、element-plus、eslint、axios、router…

vue import from

vue import from 导入文件&#xff0c;从XXXX路径&#xff1b;引入文件 import xxxx from “./minins/resize” import xxxx from “./minins/resize.js” vue.config.js 定义 : resolve(src)&#xff1b;就是指src 目录 import xxxx from “/utils/auth” im…

【C++初阶】string类

【C初阶】string类 &#x1f955;个人主页&#xff1a;开敲&#x1f349; &#x1f525;所属专栏&#xff1a;C&#x1f96d; &#x1f33c;文章目录&#x1f33c; 1. 为什么学习string类&#xff1f; 1.1 C语言中的字符串 1.2 实际中 2. 标准库中的string类 2.1 string类 2.…

Web响应式设计———1、Grid布局

1、网格布局 Grid布局 流动网格布局是响应式设计的基础。它通过使用百分比而不是固定像素来定义网格和元素的宽度。这样&#xff0c;页面上的元素可以根据屏幕宽度自动调整大小&#xff0c;适应不同设备和分辨率。 <!DOCTYPE html> <html lang"en"> &l…

Mysql-索引视图

目录 1.视图 1.1什么是视图 1.2为什么需要视图 1.3视图的作用和优点 1.4创建视图 1.5更新视图 1.6视图使用规则 1.7修改视图 1.8删除视图 2.索引 2.1什么是索引 2.2索引特点 2.3索引分类 2.4索引优缺点 2.5创建索引 2.6查看索引 2.7删除索引 1.视图 1.1什么是…

go中map

文章目录 Map简介哈希表与Map的概念Go语言内建的Map类型Map的声明Map的初始化Map的访问Map的添加和修改Map的删除Map的遍历 Map的基本使用Map的声明与初始化Map的访问与操作Map的删除Map的遍历Map的并发问题实现线程安全的Map 3. Map的访问与操作3.1 访问Map元素代码示例&#…

释疑 803-(1)概述 精炼提纯版

目录 习题 1-01计算机网络可以向用户提供哪些服务? 1-02 试简述分组交换的要点。 1-03 试从多个方面比较电路交换、报文交换和分组交换的主要优缺点。 1-05 互联网基础结构的发展大致分为哪几个阶段?请指出这几个阶段最主要的特点。 1-06 简述互联网标准制定的几个阶段…

web网站组成

web网站由四部分组成&#xff1a;浏览器 前端服务器 后端服务器 数据库服务器 流程&#xff1a; 1.浏览器输入网站后&#xff0c;向前端服务器发送请求&#xff0c;前端服务器响应&#xff0c;静态的数据给浏览器。 2.前端代码中script中有url,这个是向后台发送请求的网…

手撕数据结构---------顺序表和链表

1.线性表 线性表&#xff08;linear list&#xff09;是n个具有相同特性的数据元素的有限序列。 线性表是⼀种在实际中⼴泛使 ⽤的数据结构&#xff0c;常⻅的线性表&#xff1a;顺序表、链表、栈、队列、字符串… 线性表在逻辑上是线性结构&#xff0c;也就说是连续的⼀条直…

Python研究生毕业设计,数据挖掘、情感分析、机器学习

最近在学校毕业了&#xff0c;其中有很多毕业论文使用到的代码&#xff0c;如数据挖掘、情感分析、机器学习、数据预测处理、划分数据集和测试集&#xff0c;绘制分类任务&#xff0c;词汇表示&#xff1a;使用TF-IDF向量化器&#xff0c;线性回归、多元线性回归、SVR回归模型&…

ecshop网站部署

目录 步骤1 ecshop网站的部署 一、安装环境 二、设置开机启动 ​三、 测试php ​四、上传安装包 五、安装ecshop 步骤1 ecshop网站的部署 一、安装环境 yum install -y httpd mariadb-server php php-devel php-mysql 浏览器访问&#xff1a;192.168.30.2 二、设置开机启…

LeetCode 415.字符串相加 C++写法

LeetCode 415.字符串相加 C写法 思路&#x1f914;&#xff1a; 首先不能用stoi和tostring来做&#xff0c;如果给一个很大的数那一定存不下。我们可以从后往前一位一位的取&#xff0c;创建一个变量存储进位用于计算下一位数&#xff0c;之后取模得到当前数字&#xff0c;每一…

k8s部署rabbitmq集群

1 部署集群 1.1 安装 # 创建一个中间件的命名空间 kubectl create namespace middleware # 创建ConfigMap,包含RabbitMQ的配置文件内容 kubectl apply -f rabbitmq-configmap.yaml # 配置用于存储RabbitMQ数据的PersistentVolume&#xff08;PV&#xff09;和PersistentVolum…

iPhone 17系列取消17 Plus版本?新一代苹果手机迎来新变革

随着科技的飞速发展&#xff0c;苹果公司再次准备刷新我们的期待&#xff0c;即将推出的iPhone 17系列携带着一系列令人兴奋的升级。今年&#xff0c;苹果打破了常规&#xff0c;将四款新机型带入市场——iPhone 17、17 Pro、17 Pro Max&#xff0c;以及一款全新的成员&#xf…

Java开发之反射与动态代理

#来自ゾフィー&#xff08;佐菲&#xff09; 1 反射&#xff08;Reflect&#xff09; 运行期间&#xff0c;获取类的信息&#xff0c;进行一些操作。 运行时构造类的对象。运行时获取类的成员变量和方法。运行时调用对象的方法&#xff08;属性&#xff09;。 2 Class 类 Cla…

IntelliJ IDEA 2024.1.4最新实用教程!!爽到飞起!!

IntelliJ IDEA 2024.1.4最新破解教程&#xff01;&#xff01;直接2099&#xff01;&#xff01;爽到飞起&#xff01;&#xff01;【资源在末尾】安装馆长为各位看官准备了多个版本&#xff0c;看官可根据自己的需求进行下载和选择安装。https://mp.weixin.qq.com/s/oBgoHdFU4…

视图,存储过程和触发器

目录 视图 创建视图&#xff1a; 视图的使用 查看库中所有的视图 删除视图 视图的作用&#xff1a; 存储过程&#xff1a; 为什么使用存储过程&#xff1f; 什么是存储过程&#xff1f; 存储过程的创建 创建一个最简单的存储过程 使用存储过程 删除存储过程 带参的存储…

前端面试宝典【Javascript篇】【1】

欢迎来到《前端面试宝典》&#xff0c;这里是你通往互联网大厂的专属通道&#xff0c;专为渴望在前端领域大放异彩的你量身定制。通过本专栏的学习&#xff0c;无论是一线大厂还是初创企业的面试&#xff0c;都能自信满满地展现你的实力。 核心特色&#xff1a; 独家实战案例…

VMare centos 7 设置固定ip

第一步获取网关 查看虚拟机的网关-》编辑-》虚拟网络编辑器 NAT模式-》NAT设置 获取网关IP 192.168.70.2 第二步获取主机dns1 在本地主机获取dns1&#xff0c;本地主机调出cmd输入ipconfig dns1为192.168.31.1 用管理员权限的账号进入需要设置固定ip的虚拟机&#xff0c;在t…