Rstudio-深度学习执行代码

        RStudio是一个开源的集成开发环境(IDE),专门用于R编程语言的开发和数据分析。R语言是一种流行的统计计算和数据可视化语言,广泛用于数据科学、统计学和机器学习领域。

RStudio提供了许多功能强大的工具,包括代码编辑器、调试器、数据可视化工具和集成的帮助文档。对于机器学习推广,RStudio可以帮助您进行数据预处理、模型训练、评估和部署。

RStudio中有许多用于机器学习的包和库,如caret、tidymodels、tensorflow等,这些包提供了丰富的机器学习算法和工具,帮助您构建和部署机器学习模型。

library(rlang)
library(gbm)
library(xgboost)
library(vip)
library(pdp)
library(ggplot2)
library(tidyverse)
library(recipes)
rm(list=ls())s<-Sys.time()#数据# prereqs-data
# ames data
#install.packages("AmesHousing")
library(AmesHousing)
ames <- AmesHousing::make_ames()# split data
set.seed(123)
split <- rsample::initial_split(ames, strata = "Sale_Price")
ames_train <- rsample::training(split)
ames_test  <- rsample::testing(split)## GBM## * 非常受欢迎
## * 非常准确
## * 和随机森林类似,但是大不相同## 第一个GBM模型# shrinkage: learning rate=0.1学习率默认# basic-gbm
tick <- proc.time()
set.seed(123)
ames_gbm <- gbm(formula = Sale_Price ~ .,data = ames_train,distribution = "gaussian", # or bernoulli, multinomial, etc. n.trees = 5000, shrinkage = 0.1, interaction.depth = 1, n.minobsinnode = 10, cv.folds = 5 
)  
tock <- proc.time() - tick;tock# find index for n trees with minimum CV error
min_MSE <- which.min(ames_gbm$cv.error)# get MSE and compute RMSE
sqrt(ames_gbm$cv.error[min_MSE])# 检查是否过拟合gbm.perf(ames_gbm, method = "cv") # or "OOB"## 调参## * 刚开始learning rate学习率默认0.1, 或者0.05-0.2
## * 确保number of trees不要过拟合
## * 调整learning rate学习率
## * 调整树参数
## * 可能降低learning rate, 增加number of trees## 固定树参数 ## 树高3## 默认min obs## 设定learning rate 0.01## 增加CV更利于error估计## 1分钟## 用尽了所有的树# tune1
set.seed(123)
tick <- proc.time()
ames_gbm1 <- gbm(formula = Sale_Price ~ .,data = ames_train,distribution = "gaussian", # or bernoulli, multinomial, etc. #<<n.trees = 5000, #<<shrinkage = 0.01, #<<interaction.depth = 3, #<<n.minobsinnode = 10, #<<cv.folds = 10 #<<
)
tock <- proc.time() - tick;tock# find index for n trees with minimum CV error
min_MSE <- which.min(ames_gbm1$cv.error)# get MSE and compute RMSE
sqrt(ames_gbm1$cv.error[min_MSE])gbm.perf(ames_gbm1, method = "cv")## 提高number of trees## 尝试0.001## 不准确## 4分钟# tune2
set.seed(123)
tick <- proc.time()
ames_gbm1 <- gbm(formula = Sale_Price ~ .,data = ames_train,distribution = "gaussian", # or bernoulli, multinomial, etc. #<<n.trees = 20000, #<<shrinkage = 0.001, #<<interaction.depth = 3, #<<n.minobsinnode = 10, #<<cv.folds = 10 #<<
)
tock <- proc.time() - tick;tock# find index for n trees with minimum CV error
min_MSE <- which.min(ames_gbm1$cv.error)# get MSE and compute RMSE
sqrt(ames_gbm1$cv.error[min_MSE])gbm.perf(ames_gbm1, method = "cv")# 调整树参数: 30分钟# assess 3 values for tree depth# assess 3 values for min obs# tune12
# eval=FALSE或者cache = TRUE
# search grid
hyper_grid <- expand.grid(n.trees = 6000,shrinkage = .01,interaction.depth = c(3, 5, 7), #<<n.minobsinnode = c(5, 10, 15) #<<
)model_fit <- function(n.trees, shrinkage, interaction.depth, n.minobsinnode) {set.seed(123)m <- gbm(formula = Sale_Price ~ .,data = ames_train,distribution = "gaussian",n.trees = n.trees,shrinkage = shrinkage, #<<interaction.depth = interaction.depth, #<<n.minobsinnode = n.minobsinnode,cv.folds = 10)# compute RMSEsqrt(min(m$cv.error))
}tick <- proc.time()
hyper_grid$rmse <- purrr::pmap_dbl(hyper_grid,~ model_fit(n.trees = ..1,shrinkage = ..2,interaction.depth = ..3,n.minobsinnode = ..4)
)
tock <- proc.time() - tick;tockarrange(hyper_grid, rmse)
##   n.trees shrinkage interaction.depth n.minobsinnode     rmse
## 1    6000      0.01                 7              5 20683.65
## 2    6000      0.01                 5              5 20746.36
## 3    6000      0.01                 7             10 21114.62
## 4    6000      0.01                 3              5 21126.33
## 5    6000      0.01                 5             10 21228.68
## 6    6000      0.01                 7             15 21246.73
## 7    6000      0.01                 5             15 21272.91
## 8    6000      0.01                 3             10 21767.08
## 9    6000      0.01                 3             15 21862.35# 加入随机性# * 0.5-0.8
# * 可能需要Zoom in
# * 10分钟# stochastic
bag_frac <- c(.5, .65, .8) #<<tick <- proc.time()
for(i in bag_frac) {set.seed(123)m <- gbm(formula = Sale_Price ~ .,data = ames_train,distribution = "gaussian",n.trees = 6000, shrinkage = 0.01, interaction.depth = 7, n.minobsinnode = 5,bag.fraction = i, #<<cv.folds = 10 )# compute RMSEprint(sqrt(min(m$cv.error)))
}tock <- proc.time() - tick;tock## [1] 20683.65
## [1] 20398.93
## [1] 20287.76## XGBoost## XGBoost 需要one hot## caret可以自动one hot## * Other: 低频## * Encode: 有序变量;提升速度和表现# xgb-feature-prep
library(rlang)
xgb_prep <- recipe(Sale_Price ~ ., data = ames_train) %>%step_other(all_nominal(), threshold = .005) %>%step_integer(all_nominal()) %>%prep(training = ames_train, retain = TRUE) %>%juice()X <- as.matrix(xgb_prep[setdiff(names(xgb_prep), "Sale_Price")])
Y <- xgb_prep$Sale_Price# 第一个XGBoost模型# 大概几秒钟# Early stopping rounds: CV RMSE 50棵树不进步# https://xgboost.readthedocs.io/en/latest/parameter.html# 默认eta=0.3# basic-xgboost
tick <- proc.time()
set.seed(123)
ames_xgb <- xgb.cv(data = X,label = Y,nrounds = 5000,objective = "reg:squarederror",early_stopping_rounds = 50, nfold = 10,verbose = 0,
)  
tock <- proc.time() - tick;tockames_xgb$evaluation_log %>% tail()
## iter train_rmse_mean train_rmse_std test_rmse_mean test_rmse_std
## 1: 195 600.2057 55.89026 24382.85 1725.531
## 2: 196 591.9463 55.26891 24381.77 1725.488
## 3: 197 582.9737 53.65047 24382.20 1724.203
## 4: 198 572.7220 52.89840 24382.79 1723.236
## 5: 199 561.9686 49.76037 24382.41 1724.374
## 6: 200 554.3745 48.24520 24382.83 1723.857# xgboost-eta
set.seed(123)
ames_xgb <- xgb.cv(data = X,label = Y,nrounds = 6000,objective = "reg:squarederror",early_stopping_rounds = 50, nfold = 10,verbose = 0,params = list(eta = .05) #<<
)  ames_xgb$evaluation_log %>% tail()
## iter train_rmse_mean train_rmse_std test_rmse_mean test_rmse_std
## 1: 1023 1034.059 51.96559 21879.08 1248.379
## 2: 1024 1032.371 52.17706 21879.89 1248.430
## 3: 1025 1030.903 52.01260 21879.53 1248.890
## 4: 1026 1029.302 51.47370 21879.29 1249.095
## 5: 1027 1027.053 50.80923 21879.43 1248.593
## 6: 1028 1025.107 50.38078 21879.46 1249.280## - eta = .3(default): 24,382 w/200 trees (< 1 min)
## - eta = .1: 22,333 w/398 trees (< 1 min)
## - eta = .05: 21,877 w/978 trees (1.5 min)
## - eta = .01: 22,094 w/2843 trees (4 min)
## - one-hot encoded 30 min# * Learning rate=0.05
# * 6000棵
# * Early stopping
# * 调整
# - tree depth
# - Child weight# 30分钟# xgboost-tree-specific
# grid
hyper_grid <- expand.grid(eta = .05,max_depth = c(1, 3, 5, 7, 9), #<<min_child_weight = c(1, 3, 5, 7, 9), #<<rmse = 0 # a place to dump results
)# grid search
tick <- proc.time()
for(i in seq_len(nrow(hyper_grid))) {set.seed(123)m <- xgb.cv(data = X,label = Y,nrounds = 6000,objective = "reg:squarederror",early_stopping_rounds = 50, nfold = 10,verbose = 0,params = list( #<<eta = hyper_grid$eta[i], #<<max_depth = hyper_grid$max_depth[i], #<<min_child_weight = hyper_grid$min_child_weight[i] #<<) #<<)hyper_grid$rmse[i] <- min(m$evaluation_log$test_rmse_mean)
}
tock <- proc.time() - tick;tockarrange(hyper_grid, rmse)
##     eta max_depth min_child_weight     rmse
## 1  0.05         3                3 20989.27
## 2  0.05         3                1 21062.92
## 3  0.05         3                5 21453.00
## 4  0.05         5                1 21685.04
## 5  0.05         5                3 21748.12
## 6  0.05         3                7 22058.70
## 7  0.05         7                1 22110.09
## 8  0.05         3                9 22181.64
## 9  0.05         5                5 22185.64
## 10 0.05         7                3 22468.97
## 11 0.05         9                1 22632.80
## 12 0.05         9                3 22664.75
## 13 0.05         7                5 22721.41
## 14 0.05         5                7 22801.02
## 15 0.05         7                7 22951.21
## 16 0.05         5                9 22970.42
## 17 0.05         9                5 22987.65
## 18 0.05         9                7 23212.10
## 19 0.05         1                1 23252.66
## 20 0.05         7                9 23452.08
## 21 0.05         9                9 23714.29
## 22 0.05         1                3 24147.17
## 23 0.05         1                5 25089.55
## 24 0.05         1                7 26534.20
## 25 0.05         1                9 26784.77# * Learning rate=0.05
# * 6000棵
# * Early stopping
# * tree depth=3
# * Child weight=3
# * 调整随机性
# - subsampling rows for each tree
# - subsampling columns for each tree# 12分钟# xgb-stochastic-grid
# grid
hyper_grid <- expand.grid(eta = .05,max_depth = 3, min_child_weight = 3,subsample = c(.5, .65, .8, 1), #<<colsample_bytree = c(.5, .65, .8, 1), #<<rmse = 0 # a place to dump results
)# grid search
tick <- proc.time()
for(i in seq_len(nrow(hyper_grid))) {set.seed(123)m <- xgb.cv(data = X,label = Y,nrounds = 6000,objective = "reg:squarederror",early_stopping_rounds = 50, nfold = 10,verbose = 0,params = list( #<<eta = hyper_grid$eta[i],max_depth = hyper_grid$max_depth[i],min_child_weight = hyper_grid$min_child_weight[i],subsample = hyper_grid$subsample[i], #<<colsample_bytree = hyper_grid$colsample_bytree[i] #<<) #<<)hyper_grid$rmse[i] <- min(m$evaluation_log$test_rmse_mean)
}
tock <- proc.time() - tick;tockarrange(hyper_grid, rmse)
##     eta max_depth min_child_weight subsample colsample_bytree     rmse
## 1  0.05         3                3      0.80             1.00 20732.22
## 2  0.05         3                3      0.50             1.00 20752.65
## 3  0.05         3                3      1.00             1.00 20989.27
## 4  0.05         3                3      0.65             1.00 21018.13
## 5  0.05         3                3      1.00             0.80 21425.00
## 6  0.05         3                3      0.80             0.80 21444.68
## 7  0.05         3                3      1.00             0.65 21597.04
## 8  0.05         3                3      0.65             0.80 21890.11
## 9  0.05         3                3      0.80             0.65 21907.55
## 10 0.05         3                3      0.65             0.65 22047.80
## 11 0.05         3                3      0.50             0.80 22211.92
## 12 0.05         3                3      0.50             0.65 22460.97
## 13 0.05         3                3      0.80             0.50 26071.94
## 14 0.05         3                3      1.00             0.50 26555.12
## 15 0.05         3                3      0.65             0.50 26577.24
## 16 0.05         3                3      0.50             0.50 26952.51# xgb-regularize
hyper_grid <- expand.grid(eta = .05,max_depth = 3, min_child_weight = 3,subsample = .8, colsample_bytree = 1,#gamma = c(1, 100, 1000, 10000),#lambda = c(1e-2, 0.1, 1, 100, 1000, 10000),alpha = c(1e-2, 0.1, 1, 100, 1000, 10000), #<<rmse = 0 # a place to dump results
)# grid search
tick <- proc.time()
for(i in seq_len(nrow(hyper_grid))) {set.seed(123)m <- xgb.cv(data = X,label = Y,nrounds = 6000,objective = "reg:squarederror",early_stopping_rounds = 50, nfold = 10,verbose = 0,params = list( eta = hyper_grid$eta[i], max_depth = hyper_grid$max_depth[i],min_child_weight = hyper_grid$min_child_weight[i],subsample = hyper_grid$subsample[i], #<<colsample_bytree = hyper_grid$colsample_bytree[i],#gamma = hyper_grid$gamma[i], #lambda = hyper_grid$lambda[i]#, alpha = hyper_grid$alpha[i] #<<) )hyper_grid$rmse[i] <- min(m$evaluation_log$test_rmse_mean)
}
tock <- proc.time() - tick;tockarrange(hyper_grid, rmse)
##    eta max_depth min_child_weight subsample colsample_bytree alpha     rmse
## 1 0.05         3                3       0.8                1 1e+02 20581.31
## 2 0.05         3                3       0.8                1 1e+03 20605.30
## 2 0.05         3                3       0.8                1 1e+04 20615.19
## 3 0.05         3                3       0.8                1 1e-01 20732.23
## 4 0.05         3                3       0.8                1 1e-02 20732.23
## 5 0.05         3                3       0.8                1 1e+00 20732.23# final-xgb-model
# parameter list
params <- list(eta = .05,max_depth = 3, min_child_weight = 3,subsample = .8, colsample_bytree = 1,alpha = 100
)# final cv fit
set.seed(123)
tick <- proc.time()
final_cv <- xgb.cv(data = X,label = Y,nrounds = 6000,objective = "reg:squarederror",early_stopping_rounds = 50, nfold = 10,verbose = 0,params = params 
) 
tock <- proc.time() - tick;tockfinal_cv$evaluation_log %>%ggplot(aes(x=iter,y=test_rmse_mean)) +geom_line()# train final model
ames_final_xgb <- xgboost(data = X,label = Y,nrounds = final_cv$best_iteration, objective = "reg:squarederror",params = params, verbose = 0
)# xgb-vip
vip::vip(ames_final_xgb, num_features = 25)# xgb-pdp
ames_final_xgb %>%pdp::partial(pred.var = "Gr_Liv_Area", n.trees = ames_final_xgb$niter, grid.resolution = 50, train = X) %>%autoplot(rug = TRUE, train = X)# top-bottom-vip
ames_vi <- vi(ames_final_xgb, feature_names = colnames(X))
feats <- c(head(ames_vi, n = 4)$Variable, tail(ames_vi, n = 4)$Variable)
pds <- lapply(feats, FUN = function(x) {pd <- cbind(x, pdp::partial(ames_final_xgb, pred.var = x, train = X))names(pd) <- c("xvar", "xval", "yhat")pd
})
pds <- do.call(rbind, pds)
pds$xvar <- factor(pds$xvar,levels=feats)
ggplot(pds, aes(x = xval, y = yhat)) +geom_line(size = 1.5) +geom_hline(yintercept = mean(ames$Sale_Price), linetype = 2, col = "red2") +facet_wrap( ~ xvar, scales = "free_x", nrow = 2) +labs(x = "", y = "Partial dependence") +theme_light()## test data测试集上面预测# recipe
test <- recipe(Sale_Price ~ ., data = ames_train) %>%step_other(all_nominal(), threshold = .005) %>%step_integer(all_nominal()) %>%prep(training = ames_train) %>%bake(new_data = ames_test)# obtain X for test data
xgtest <- xgb.DMatrix(as.matrix(test %>% select(-Sale_Price)))# make prediction and calculate error
test <- test %>%mutate(prediction = predict(ames_final_xgb, xgtest)) %>%mutate(error = (prediction-Sale_Price)^2)# plot
test %>% ggplot(aes(Sale_Price,prediction)) +geom_point()# test error
test %>%summarize(mean(error)) %>%sqrt()save.image("6_boosting_CCB_cohort2.RData")#??????1
e1<-Sys.time()
print(e1-s)

        总的来说,RStudio是一个功能强大的工具,可用于机器学习推广,帮助用户在数据分析和模型开发过程中更高效地工作。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/718265.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

SQL 基本条件查询DQL 练习

DQL DQL&#xff08;Data Query Language&#xff09;是SQL语言中的一种类型&#xff0c;用于执行数据查询操作。它是SQL的一部分&#xff0c;用于从数据库中检索数据。DQL语句用于从一个或多个表中选择、过滤和排序数据。常见的DQL查询语句包括SELECT、FROM、WHERE、GROUP BY…

U盘无法读取?轻松掌握正确解决方法!

“为什么我的u盘插入电脑后会显示无法读取呢&#xff1f;想查看一些比较重要的文件&#xff0c;但就是无法读取U盘&#xff0c;想问问大家&#xff0c;我应该怎么操作呢&#xff1f;” U盘作为一种便捷的数据存储设备&#xff0c;广泛应用于我们的日常生活和工作中。然而&#…

独立游戏《星尘异变》UE5 C++程序开发日志2——创建并编写一个C++类

在本篇日志中&#xff0c;我们将要用一个C类来实现一个游戏内的物品&#xff0c;同时介绍UCLASS、USTRUCT、UPROPERTY的使用 一、创建一个C类 我们在UE5的"内容侧滑菜单"中&#xff0c;在右侧空白中右键选择"新建C类"&#xff0c;然后可以选择一个想要的…

python70-Python的函数入门,了解下函数

函数是执行特定任务的一段代码,程序通过将一段代码定义成函数,并为该函数指定一个函数名,这样即可在需要的时候多次调用这段代码。因此,函数是代码复用的重要手段。学习函数需要重点掌握定义函数、调用函数的方法。 与函数紧密相关的另一个知识点是lambda表达式。lamda表达…

Spring AOP(Aspect-Oriented Programming,面向切面编程)介绍

Spring AOP&#xff08;Aspect-Oriented Programming&#xff0c;面向切面编程&#xff09;是Spring框架的一个重要模块&#xff0c;它提供了一种强大的方式来帮助开发者实现横切关注点&#xff08;cross-cutting concerns&#xff09;的模块化。横切关注点是指那些影响多个模块…

Linux设备模型(十一) - platform设备

一&#xff0c;platform device概述 在Linux2.6以后的设备驱动模型中&#xff0c;需关心总线、设备和驱动这3个实体&#xff0c;总线将设备和驱动绑定。在系统每注册一个设备的时候&#xff0c; 会寻找与之匹配的驱动&#xff1b;相反的&#xff0c;在系统每注册一个设备的时…

【Redis】实际应用 - 缓存

文章目录 1. 缓存的基本概念2. Redis作为缓存的优势2.1 内存存储2.2 持久性选项2.3 数据结构丰富 3. Redis缓存的使用3.1 安装和配置Redis3.2 连接到Redis3.3 存储和获取数据3.4 设置过期时间 4. 缓存策略4.1 LRU&#xff08;最近最少使用&#xff09;4.2 数据失效4.3 主动刷新…

可让照片人物“开口说话”阿里图生视频模型EMO,高启强普法

3 月 1 日消息&#xff0c;阿里巴巴研究团队近日发布了一款名为“EMO&#xff08;Emote Portrait Alive&#xff09;”的 AI 框架&#xff0c;该框架号称可以用于“对口型”&#xff0c;只需要输入人物照片及音频&#xff0c;模型就能够让照片中的人物开口说出相关音频&#xf…

PDN分析及应用系列二-简单5V电源分配-Altium Designer仿真分析-AD

PDN分析及应用系列二 —— 案例1:简单5V电源分配 预模拟DC网络识别 当最初为PCB设计打开PDN分析仪时,它将尝试根据公共电源网络命名法从设计中识别所有直流电源网络。 正确的DC网络识别对于获得最准确的模拟结果非常重要。 在示例项目中已经识别出主DC网络以简化该过程。 …

Vulnhub靶机:Bellatrix

一、介绍 运行环境&#xff1a;Virtualbox 攻击机&#xff1a;kali&#xff08;10.0.2.4&#xff09; 靶机&#xff1a;Bellatrix&#xff08;10.0.2.9&#xff09; 目标&#xff1a;获取靶机root权限和flag 靶机下载地址&#xff1a;https://www.vulnhub.com/entry/hogwa…

Leetcode 3070. Count Submatrices with Top-Left Element and Sum Less Than k

Leetcode 3070. Count Submatrices with Top-Left Element and Sum Less Than k 1. 解题思路2. 代码实现 题目链接&#xff1a;3070. Count Submatrices with Top-Left Element and Sum Less Than k 1. 解题思路 这一题就是一个二维的累积数组的问题&#xff0c;我们直接求一…

网络学习:MPLS技术基础知识

目录 一、MPLS技术产生背景 二、MPLS网络组成&#xff08;基本概念&#xff09; 1、MPLS技术简介&#xff1a;Multiprotocol Lable Switching&#xff0c;多协议标签交换技术 2、MPLS网络组成 三、MPLS的优势 四、MPLS的实际应用 一、MPLS技术产生背景 1、IP采用最长掩码…

Power BI vs Superset BI 调研报告

调研结论 SupersetPower BI价格开源①. Power BI Pro 每人 $10/月($120/年/人) ②. Power BI Premium 每人 $20/月($240/年/人) ③. Power BI Embedded:4C10G $11W/年 权限基于角色的访问控制,支持细粒度的访问: 表级别、库级别、图表级别,看板级别,用户级别 基于角色…

每天一个数据分析题(一百八十五)

给定下述Python代码段&#xff0c;试问哪个选项正确描述了该代码段的功能&#xff1f; data_raw[‘gender’] data_raw[‘gender’].map({‘Male’: 1, ‘Female’: 0}) A. 代码中对gender变量进行了独热编码(One-Hot Encoding)&#xff0c;并将gender中的缺失值填充为类别平…

深度学习API——keras初学

keras定义&#xff1a; Keras是一个深度学习API&#xff08;人工神经网络库&#xff09;&#xff0c;使用Python语言编写的github开源项目&#xff0c;主要开发者为谷歌工程师。Keras底层可调用不同的机器学习平台&#xff0c;如TensorFlow、Theano或micsoft-CNTK。 作用&…

Tomcat的配置文件

Tomcat的配置文件详解 一.Tomcat的配置文件 Tomcat的配置文件默认存放在$CATALINA_HOME/conf目录中&#xff0c;主要有以下几个&#xff1a; 1.server.xml: Tomcat的主配置文件&#xff0c;包含Service, Connector, Engine, Realm, Valve, Hosts主组件的相关配置信息&#x…

【推荐】免费AI论文写作神器-「智元兔 AI」

还在为写论文焦虑&#xff1f;免费AI写作大师来帮你三步搞定&#xff01; 智元兔AI是ChatGPT的人工智能助手&#xff0c;并且具有出色的论文写作能力。它能够根据用户提供的题目或要求&#xff0c;自动生成高质量的论文。 不论是论文、毕业论文、散文、科普文章、新闻稿件&…

#WEB前端(浮动与定位)

1.实验&#xff1a; 2.IDE&#xff1a;VSCODE 3.记录&#xff1a; float、position 没有应用浮动前 应用左浮动和右浮动后 应用定位 4.代码&#xff1a; <!DOCTYPE html> <html lang"en"> <head><meta charset"UTF-8"><me…

pyqt5怎么返回错误信息给页面(警告窗口)

在软件设计中&#xff0c;我们可能会遇到对异常的处理&#xff0c;有些异常是用户需要看到的&#xff0c;比如说&#xff0c;当我们登录出错的时候&#xff0c;后端需要给我们返回响应的错误信息&#xff0c;就像下图实现的这样。 类似这种效果&#xff0c;我们该如何实现&…

javaWebssh题库管理系统myeclipse开发mysql数据库MVC模式java编程计算机网页设计

一、源码特点 java ssh题库管理系统是一套完善的web设计系统&#xff08;系统采用ssh框架进行设计开发&#xff09;&#xff0c;对理解JSP java编程开发语言有帮助&#xff0c;系统具有完整的源代码和数据库&#xff0c;系统主要采用B/S模式开发。开发环境为TOMCAT7.0,Mye…