【人工智能】—基于成都市各区(市)县租房价格预测建模研究

引言

随着城市化进程的加速,人口流动日益频繁,租房市场作为城市生活的重要组成部分,其价格波动对居民生活质量和城市经济发展具有显著影响。成都市,作为中国西部地区的经济、文化、交通和科技中心,近年来吸引了大量人才和企业,租房需求持续增长。然而,租房价格的不确定性给租户和房东带来了诸多不便。为了更好地理解租房市场的动态,预测租房价格成为一项重要的研究课题。

研究方法

本文将采用多种数据分析方法,包括统计分析、机器学习等,以确保模型的准确性和可靠性。

研究目标

本文旨在通过构建基于成都市各区(市)县的租房价格预测模型,分析影响租房价格的关键因素。

数据信息

数据源自某租房平台网站,数据为公开数据,通过整合形成表格,本数据需要进行清洗,没有国外数据好用。

过程……

读入数据:

import matplotlib.pylab as plt
import re
import numpy as np
import seaborn as sns
import pandas as pd
plt.rcParams['font.sans-serif'] = ['SimHei'] #解决中文显示
plt.rcParams['axes.unicode_minus'] = False   #解决符号无法显示
import warnings
warnings.filterwarnings('ignore')
# 导入plotly库,这是一个基于Web的交互式图表库,允许创建丰富的、交互式的数据可视化图表。  
import plotly as py    
# 导入cufflinks库,这是一个用于Pandas DataFrame的Plotly绘图接口,可以让Pandas DataFrame直接通过cufflinks的API绘制Plotly图表。  
import plotly.express as px
import plotly.graph_objects as go  df = pd.read_csv('成都.csv')
df.tail()

原始数据长下面这样,显示后5行:
在这里插入图片描述
我们先看下数据信息、重复值、缺失值情况:
在这里插入图片。描述有4列存在缺失值情况,181行数据重复。

# 删除缺失值
df.dropna(inplace=True)
# 删除重复值
df.drop_duplicates(inplace=True)
df.shape

删完剩余2786行, 8列。

数据清洗:

# 定义一个函数,用于从字符串中提取括号前的中文部分  
def extract_chinese_before_brackets(s):  # 检查传入的参数s是否为字符串类型  if isinstance(s, str):  # 使用正则表达式搜索字符串s,查找从开头到第一个全角左括号(之前的所有内容  match = re.search(r'^(.*?)(', s)  # 如果找到了匹配项  if match:  # 返回匹配到的内容(即括号前的所有字符)  return match.group(1)  else:  # 如果没有找到匹配项(即没有括号或括号前没有内容),返回空字符串  return ''  else:  # 如果传入的参数s不是字符串类型,直接返回空字符串  return ''  # 应用上面定义的函数到DataFrame的'楼层'列  
# 使用apply方法,将函数应用于'楼层'列的每一个元素  
# 并将函数的返回值(即每个元素括号前的中文部分)存储在新的列'楼层类型'中  
df['楼层类型'] = df['楼层'].apply(extract_chinese_before_brackets)  df.tail()

上面定义一个函数,用于提取“楼层”列最左边的中文文字,存储于新建列“楼层类型”列并显示后5行,详见下图:
在这里插入图片描述

# 使用str.extract方法从'楼层'列的每个字符串中提取括号内的数字(\d+)  
# 这里的正则表达式'((\d+)层)'用于匹配全角左括号'('后跟着一个或多个数字'\d+',然后是全角右括号和'层'字  
# 提取的数字(即括号内的内容)将被存储在新的列'楼房层数'中  
df['楼房层数'] = df['楼层'].str.extract(r'((\d+)层)')    
# 使用drop方法删除原始的'楼层'列  
# 参数columns='楼层'指定了要删除的列名  
# inplace=True表示在原地修改DataFrame,而不是返回一个新的DataFrame  
df.drop(columns='楼层', inplace=True)    
# 使用head方法查看修改后的DataFrame的前几行(默认是前5行)  
# 这有助于验证'楼房层数'列是否已正确添加,并且'楼层'列是否已被删除  
df.head()

再利用正则表达式,提取出括号内的数字,也就是楼层并存储于新列,显示前5行数据,详见下图:
在这里插入图片描述

# 提取的结果将被分配到新的列'卧室间数'、'客厅间数'和'卫生间数'
df[['卧室间数', '客厅间数', '卫生间数']] = df['户型'].str.extract(r'(\d+)室(\d+)厅(\d+)卫', expand=True)  
df.drop(columns='户型', inplace=True)
df.head()

新建三列’卧室间数’, ‘客厅间数’, '卫生间数’用于存储户型内的如“3室1厅2卫 ”便于后续的机器学习,还是利用正则表达式提取,详见下图:
在这里插入图片描述

df[['区(市)县', '地域', '楼盘名称']] = df['位置'].str.split('-', expand=True, n=2)
df.drop(columns='位置', inplace=True)
df.head()

新建’区(市)县’, ‘地域’, '楼盘名称’三列,用于存储“位置”列如“青羊-外光华-凯德风尚 ”用于后续的数据分析,详见下图:
在这里插入图片描述
现在我们来看看“朝向”列有哪些不重复的唯一值:
在这里插入图片描述可以看到国内的数据很乱,现在要做的是有“东”或“西”字眼的我们统一把他替换为“东西”,有“南”或“北”字眼的我们统一把他替换为“南北”。继续写个函数来处理数据。

# 定义转换函数  
def transform_direction(direction):  if pd.isna(direction):  # 检查是否为 NaN  return np.nan  # 或者你可以选择返回其他默认值,如 '未知'  if isinstance(direction, str):  # 确保是字符串类型  if '东' in direction or '西' in direction:  return '东西'  elif '南' in direction or '北' in direction:  return '南北'  else:  return direction  # 返回原始字符串(这里可能包含'未知'等)  else:  return np.nan  # 如果不是字符串类型,返回 NaN(或其他默认值)  # 将 '朝向' 列转换为字符串类型,并处理 NaN 值  
df['朝向'] = df['朝向'].astype(str)    
# 应用转换函数到 Series 的每个元素  
df['朝向'] = df['朝向'].apply(transform_direction)  
df.tail()

处理完成,显示后5行,详见下图:

在这里插入图片描述再看下其他列有没有问题:
在这里插入图片描述没啥问题,现在将数字类型的列转为相对应的类型:

df = df.astype({'金额': 'int','楼房层数': 'int','卧室间数': 'int','客厅间数': 'int','卫生间数': 'int'}) # 指定字段转指定类型
df.info()

在这里插入图片描述
搞定,进入下一阶段内容。

探索性分析(EDA)

# 使用Plotly绘制箱型图  
fig = go.Figure(data=[go.Box(  y=df['金额'],  # 这里y轴对应你的租金数据  name='房屋租金'    # 图例名称  
)])  # 自定义图表标题和轴标签  
fig.update_layout(title='房屋租金——箱型图',  yaxis_title='租金',  xaxis_title='')  # 箱型图通常不需要x轴标题,除非你有多个箱型图并列  # 显示图表  
fig.show()

在这里插入图片描述
从上图可以看出,大部分房屋月租金都比较集中,成都市最高的租金为45000元/月,最小的为500元/月,中位数为2500元/月,还有四分位距、决策边界等内容。

# 对DataFrame按'区(市)县'进行分组,并获取每个组的'房屋租金'数据  
grouped = df.groupby('区(市)县')['金额']  # 创建一个空的图表对象  
fig = go.Figure()  # 遍历每个组,为每个组添加一个箱型图轨迹  
for name, group in grouped:  fig.add_trace(go.Box(  y=group,  name=name,  boxpoints='all',  # 显示所有点  jitter=0.3,       # 点的抖动量,以防重叠  pointpos=-1.8      # 点的位置  ))  # 自定义图表布局  
fig.update_layout(  title='按区(市)县分组的房屋租金——箱型图',  yaxis_title='租金',  xaxis_title='',  xaxis=dict(  type='category',  # 设置x轴为类别轴  categoryorder='array',  # 自定义类别顺序  categoryarray=list(grouped.groups.keys())  # 将dict_keys转换为列表  )  
)  # 显示图表  
fig.show()

在这里插入图片描述分区县绘制的箱型图,我们重点关注一下“三遗”之城都江堰,最高的房租为6000元/月。

from scipy.stats import gaussian_kde  # 假设df是你的DataFrame,且包含'房屋面积'列  # 提取房屋面积数据  
x = df['房子大小'].values  # 计算KDE  
kde = gaussian_kde(x)  
# 生成KDE曲线的x轴数据点(这里假设你想要覆盖的范围是x的最小值到最大值,步长为0.1)  
x_kde = np.linspace(x.min(), x.max(), 300)  
# 计算KDE曲线在这些点上的y值  
y_kde = kde(x_kde)  # 绘制直方图  
fig = go.Figure()  
fig.add_trace(go.Histogram(  x=x,  histnorm='probability density',  # 使得直方图的面积等于1,与KDE曲线可比较  name='直方图'  
))  # 绘制KDE曲线  
fig.add_trace(go.Scatter(  x=x_kde,  y=y_kde,  mode='lines',  name='KDE曲线'  
))  # 自定义图表布局  
fig.update_layout(  title='房屋面积分布(直方图+KDE)',  xaxis_title='房屋面积',  yaxis_title='概率密度'  
)  # 显示图表  
fig.show()

在这里插入图片描述要解读这种图表,需要观察直方图中条形的高度和KDE曲线的形状。如果直方图的条形较高,表示在相应的面积区间内房屋较多;KDE曲线的峰值则表示最可能的房屋面积。通过比较直方图和KDE曲线,可以分析房屋面积的分布模式,例如是否存在一个或多个常见的面积区间,或者面积分布是否均匀。

# 创建一个散点图  
fig = go.Figure(data=go.Scatter(  x=df['房子大小'],  y=df['金额'],  mode='markers',  # 设置为散点图  marker=dict(  size=10,     # 散点大小  color='blue',# 散点颜色  opacity=0.8  # 散点透明度  )  
))  # 自定义图表布局  
fig.update_layout(  title='房屋面积与租金——散点图',  xaxis_title='房屋面积',  yaxis_title='房屋租金'  
)  # 显示图表  
fig.show()

在这里插入图片描述
散点图主要是解释相关性的图表,不懂的可以点击链接转到我的博客详细查看。蓝色框框内左边的数字是面积,右边是房租。
上图实际就是一个坐标轴,分x和y轴,每个点代表每个数值,单个数据叫标量,一组数据叫向量,坐标轴内可以视作向量空间。

# 计算每个出租方式的计数  
value_counts = df['类型'].value_counts()  # 创建饼图数据  
labels = value_counts.index.tolist()  # 获取标签(出租方式)  
values = value_counts.values.tolist()  # 获取计数  # 绘制饼图  
fig = go.Figure(data=[go.Pie(labels=labels, values=values, hole=0.3, textinfo='label+percent', insidetextorientation='radial')])  # 自定义图表布局  
fig.update_layout(  title='出租方式分布——饼图',  font_size=12,  # 你可以根据需要调整字体大小  legend_title_text='出租方式'  # 如果你需要图例(对于饼图通常不需要,但这里作为示例)  
)  # 注意:饼图通常不需要图例,因为每个切片都直接标记了标签和百分比  
# 如果你确实需要图例(尽管这在饼图中不常见),你可能需要以一种不同的方式来实现它  # 显示图表  
fig.show()

在这里插入图片描述从上图可以看出,整租占比达到80.7%。

# 创建箱形图数据  
fig = go.Figure()  # 遍历'出租方式'的唯一值,为每个类别绘制一个箱形图  
for category in df['类型'].unique():  subset = df[df['类型'] == category]  fig.add_trace(go.Box(  y=subset['金额'],  name=category,  marker=dict(  color='rgb(0, 0, 0)',  # 箱体的颜色  outliercolor='rgba(219, 64, 82, 0.6)',  # 异常值的颜色  line=dict(  color='rgb(0,0,0)',  width=1.5  )  ),  boxmean='sd'  # 'sd'表示使用标准差标记平均值,你也可以设置为'mean'来直接使用平均值  ))  # 自定义图表布局  
fig.update_layout(  title='按出租方式分组的房屋租金——箱形图',  yaxis_title='房屋租金',  xaxis_title='出租方式',  boxmode='group'  # 箱形图的显示模式,'group'表示每个类别的箱形图并排显示  
)  # 显示图表  
fig.show()

在这里插入图片描述从上图可以看出,整租的租金浮动较大,而合租的租金区间很小。合租的租金价格在2100元/月以下区间,仅有1个房屋租金是2100元/月,其余都往下在走。

sns.barplot(data=df,x='朝向',y='金额')
plt.show()

在这里插入图片描述南北朝向的房子明显租金更高。

# 计算每个楼层的计数  
floor_counts = df['楼层类型'].value_counts()  # 创建饼图数据  
fig = go.Figure(data=[go.Pie(  labels=floor_counts.index,  # 标签是楼层的唯一值  values=floor_counts.values,  # 值是每个楼层的计数  hole=0.3,  # 设置饼图的中心空洞大小  textinfo='label+percent',  # 在饼图上显示标签和百分比  insidetextorientation='radial'  # 文本方向为径向  
)])  # 更新图表的布局  
fig.update_layout(  title='楼层分布——饼图',  # 设置图表的标题  annotations=[dict(text=str(round(value, 2))+'%', x=0.5, y=0.5,  xref='paper', yref='paper',  showarrow=False, font=dict(size=10),  textangle=0 if i == 0 else i*360/len(floor_counts))  for i, value in enumerate(floor_counts.values)],  # 注释文本的位置需要手动调整,这里使用了一种简单的方法,但可能需要根据实际情况调整  
)  # 显示图表  
fig.show()  

在这里插入图片描述
上图展示了成都市楼层分布情况。

sns.barplot(data=df,x='楼层类型',y='金额')
plt.show()

在这里插入图片描述低楼层租金略微高于中楼层,中楼层租金略微高于高楼层。

# 相关性分析
numeric_columns_simplified = df.select_dtypes(include='number')
sns.heatmap(numeric_columns_simplified.corr(),vmax=1,annot=True,linewidths=0.5,cbar=False,cmap='YlGnBu',annot_kws={'fontsize':12})
plt.xticks(fontsize=10)
plt.yticks(fontsize=10)
plt.title('房屋特征皮尔逊相关系数矩阵——热力图',fontsize=17)
plt.show()

在这里插入图片描述跟房租最相关的是他自己,1也就是100%相关,第二相关的是房子大小68%,需要注意的是楼房层数是负相关,也就是楼层越高房屋租金越低。

from wordcloud import WordCloud  
# 将'楼层信息'列中的所有文本合并成一个长字符串  
text = ' '.join(df['楼盘名称'].astype(str))  font_path = '/Library/Fonts/Arial Unicode.ttf'  # macOS上的示例路径  # 创建词云对象,并指定中文字体  
wordcloud = WordCloud(width=800, height=400, background_color='black', font_path=font_path).generate(text)  # 使用matplotlib显示词云  
plt.figure(figsize=(10, 5))  
plt.imshow(wordcloud, interpolation='bilinear')  
plt.axis('off')  # 不显示坐标轴  
plt.show()

在这里插入图片描述
根据楼盘名称绘制的词云图,可以看出,“保利天悦”出现的频率很高。

机器学习

特征工程:

# 特征筛选
new_df = df[['金额', '区(市)县', '类型', '朝向', '楼层类型', '房子大小',  '楼房层数', '卧室间数', '客厅间数', '卫生间数']]
new_df = new_df.astype('str')
new_df

选取以下内容作为特征:

在这里插入图片描述很多中文,我们需要把他转为数字,变成计算机熟悉的分类数据:

from sklearn.preprocessing import LabelEncoder  # 定义一个函数,用于对pandas Series进行标签编码  
def label_encode(series):  # 创建一个LabelEncoder实例  le = LabelEncoder()  # 使用LabelEncoder的fit_transform方法对Series进行拟合和转换  # 这将Series中的类别(通常是字符串)转换为从0到n_classes-1的整数  transformed_series = le.fit_transform(series)  # 返回转换后的Series  return transformed_series  # 假设new_df是一个已经存在的DataFrame  
# 使用apply函数将label_encode函数应用到DataFrame的每一列上  
# axis=0表示函数沿着列(垂直方向)应用,即每一列被视为一个Series进行处理  
# 注意:这里直接使用apply可能会导致一些问题,特别是如果DataFrame包含非对象类型的列  
# 因为LabelEncoder只能用于对象类型(如字符串)的列  
# 但为了注释的目的,我们假设所有列都是对象类型  
new_df = new_df.apply(label_encode, axis=0)
new_df

在这里插入图片描述

上图已经全部为了数字。

划分训练集和测试集:

from sklearn.model_selection import train_test_split
# 准备数据
X = new_df.drop('金额',axis=1)
y = new_df['金额']
# 划分数据集
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2,random_state=42)
print('训练集大小:',X_train.shape[0])
print('测试集大小:',X_test.shape[0])

在这里插入图片描述

定义模型评估函数:

from sklearn.metrics import r2_score, mean_absolute_error, mean_squared_error  
# 导入sklearn库中用于评估模型性能的三个指标:R^2分数、平均绝对误差(MAE)、均方误差(MSE)  # 定义一个训练模型并输出模型的评估指标的函数  
def train_model(ml_model):  # 打印传入的模型类型或实例  print("模型名称: ", ml_model)        # 使用训练数据拟合模型。这里假设X_train和y_train是全局变量或已在此函数外部定义  model = ml_model.fit(X_train, y_train)        # 在训练数据上评估模型的性能(这一步主要用于调试或查看过拟合情况,通常不用训练集评估模型最终性能)  print("模型预测准确率: ", model.score(X_train, y_train))        # 使用训练好的模型对测试集进行预测  predictions = model.predict(X_test)        # 计算并打印R^2分数,评估模型的预测性能  r2score = r2_score(y_test, predictions)  print("R方: ", r2score)        # 计算并打印平均绝对误差(MAE),衡量预测值与真实值之间差异的平均绝对值  print('平均绝对误差(MAE):', mean_absolute_error(y_test,predictions))        # 计算并打印均方误差(MSE),衡量预测值与真实值之间差异的平方的平均值  print('均方误差(MSE):', mean_squared_error(y_test,predictions))        # 计算并打印均方根误差(RMSE),是MSE的平方根,与预测值的尺度相同,便于理解  print('均方根误差(RMSE):', np.sqrt(mean_squared_error(y_test,predictions)))  # 真实值和预测值的差值(绘制残差分布图)sns.distplot(y_test - predictions)

构建线性回归模型:

# 导入LinearRegression类  
from sklearn.linear_model import LinearRegression    
# 创建LinearRegression的实例  
lg = LinearRegression()    
# 调用train_model函数,传入LinearRegression实例作为参数  
train_model(lg)

在这里插入图片描述

构建决策树模型:

# 构建决策树回归
from sklearn.tree import DecisionTreeRegressor
# 初始化DecisionTreeRegressor并设置防止过拟合的参数  
tree = DecisionTreeRegressor()  
train_model(tree)

在这里插入图片描述

构建xgboost模型:

# 构建xgboost回归模型
from xgboost import XGBRegressor
xgb = XGBRegressor(learning_rate=1.4, n_estimators=1000) 
train_model(xgb)

在这里插入图片描述

计算各特征重要程度:

# 首先,定义特征标签列表,这里假设X_train是一个DataFrame,其列名即为特征名  
feat_labels = X_train.columns[0:]  # 获取X_train的所有列名作为特征标签    
# 注意:这里假设xgb是一个已经训练好的XGBoost模型实例,该模型具有feature_importances_属性  
# feature_importances_属性包含了模型中每个特征的重要性评分  
# importances = xgb.feature_importances_  
importances = tree.feature_importances_  
# 使用argsort函数对重要性评分进行排序,并通过[::-1]反转数组,以得到重要性从高到低的索引  
# 这样,indices数组中的第一个索引对应最重要的特征  
indices = np.argsort(importances)[::-1]  # 初始化两个列表,用于存储特征和它们对应的重要性评分  
index_list = []  
value_list = []  # 遍历排序后的索引和特征数量(X_train.shape[1]),将特征和重要性评分添加到列表中  
# 注意:range(X_train.shape[1])实际上生成的是从0到特征数-1的索引,但在这里我们将其与indices结合使用  
# 并在打印时添加了1,以便特征编号从1开始显示(如果偏好从0开始,则可以去掉f+1)  
for f, j in zip(range(X_train.shape[1]), indices):  index_list.append(feat_labels[j])  # 将特征名添加到index_list  value_list.append(importances[j])  # 将重要性评分添加到value_list  print(f + 1, feat_labels[j], importances[j])  # 打印特征编号、名称和重要性评分  # 使用matplotlib的pyplot模块创建一个图形  
plt.figure(figsize=(10,6))  # 设置图形的大小为10x6英寸  # 绘制水平条形图,展示特征的重要性评分  
# 注意:这里使用了[::-1]来反转列表,因为matplotlib默认是从下到上绘制条形图  
# 但我们想要从最重要的特征开始,即从图形顶部开始绘制  
plt.barh(index_list[::-1], value_list[::-1])  # 设置y轴刻度标签的字体大小  
plt.yticks(fontsize=12)  # 设置图形的标题和字体大小  
plt.title('各特征重要程度排序', fontsize=14)  # 显示图形  
plt.show()

从下图可以看出,影响房屋租金特征排序最高的是房子大小,接着是楼房层数,详见下图:

在这里插入图片描述

# 模型预测
y_pred = tree.predict(X_test)
result_df = pd.DataFrame()
result_df['真实值'] = y_test
result_df['预测值'] = y_pred
result_df.sample(2)

随机选择两个真实值和预测值对比,对了1个,感觉模型有些过拟合了,想要再准点,还需要对模型调超参数,由于比较复杂,今天就不展示了。

还有一个知识点需要给大家讲,下面其实是一个错误示范,之前中文转数字对数据进行了标准化,但在预测时未对y_pred进行相应的逆变换,预测值看起来比原始数据(房屋租金)小了很多,所以下面的数值是标准化后的数值,并不是原始数据。
在这里插入图片描述

数据可视化(真实值和预测值对比):

# 创建一个新的图形,并设置其大小为10x6英寸  
plt.figure(figsize=(10,6))      
# 绘制预测值。这里只取前200个预测值(y_pred[:200])和对应的索引(range(len(y_test))[:200])  
# 使用蓝色('b')线条表示预测值,并设置图例标签为'predict'  
plt.plot(range(len(y_test))[:200], y_pred[:200], 'b', label='预测值')    
# 绘制测试集的真实值。同样只取前200个真实值(y_test[:200])和对应的索引  
# 使用红色('r')线条表示真实值,并设置图例标签为'test'  
plt.plot(range(len(y_test))[:200], y_test[:200], 'r', label='真实值')    
# 添加图例,并设置其位置在图形的右上角,字体大小为15  
plt.legend(loc='upper right', fontsize=15)    
# 设置x轴的标签为'the number of house',并通过fontdict字典设置其字体权重和大小  
plt.xlabel('the number of house', fontdict={'weight': 'normal', 'size': 15})    
# 设置y轴的标签为'value of Price',同样通过fontdict字典设置其字体权重和大小  
plt.ylabel('value of Price', fontdict={'weight': 'normal', 'size': 15})    
# 显示图形  
plt.show()

在这里插入图片描述
本文数据集可以点击本文上方下载,创作不易,点赞、评论、收藏是我创作的动力!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/41941.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

为什么独立站需要高质量的GPB外链?

独立站需要高质量的GPB外链,主要是因为它们能显著提升网站的可信度和可见性。高质量的外链相当于得到其他权威网站的认可和推荐,这会让搜索引擎认为你的内容有价值,从而提升你的搜索排名。试想一下,当其他有影响力的网站愿意链接到…

请求接口在控制台报cors跨域问题

我的问题是:BASE_URL没有和本地IP设置一致 刚开始:(这个不是我本地电脑的地址) 所以我要把:这个地址改为我本地电脑的ip(http://192.168.2.50:8087) BASE_URL: http://localhost:8087/api/ 或…

单位电脑文档怎么加密?哪种方法最有效?

单位电脑文档的加密是保障信息安全的重要措施之一,它可以防止未经授权的访问和数据泄露。 选择最佳的加密方法取决于您的具体需求,包括文档的敏感程度、加密的便捷性、成本、以及是否需要跨平台兼容性。下面是几种常见的加密方法及其优缺点,…

昇思学习打卡-8-FCN图像语义分割

目录 FCN介绍FCN所用的技术训练数据的可视化模型训练模型推理FCN的优点和不足优点不足 FCN介绍 FCN主要用于图像分割领域,是一种端到端的分割方法,是深度学习应用在图像语义分割的开山之作。通过进行像素级的预测直接得出与原图大小相等的label map。因…

若依微服务初始化搭建教程

文章目录 🥝从Gitee拉取代码🍄初始化项目配置配置项目maven配置项目JDKmaven - clean - install 🍒数据源配置创建config / seata数据库创建ry-cloud数据源导入ry-cloud数据 🍰启动Nacos下载Nacos修改Nacos配置双击startup.cmd启动…

GraphRAG:AI的全局文本理解革新

前言 在人工智能领域,处理和理解大量文本数据始终是一个挑战。随着大型语言模型(LLMs)的出现,自动化地进行复杂的语义理解和文本摘要变得可能。检索增强生成(RAG)方法因其能有效结合检索与生成技术&#x…

C++基础语法之重载引用和命名空间等

1.C关键字 c的关键字比我们的c语言的关键字多,c包容C语言并对C语言进行了补充,但是我们对关键字的学习是在我们后面逐渐学习的。这里我们的只是提供一个表格对齐了解一下。 2.命名空间 我们c出现了命名空间的概念,用关键字namespace来定义。…

论文阅读 - Intriguing properties of neural networks

Intriguing properties of neural networks 经典论文、对抗样本领域的开山之作 发布时间:2014 论文链接: https://arxiv.org/pdf/1312.6199.pdf 作者:Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow,…

信息技术课堂上如何有效防止学生玩游戏?

防止学生在信息技术课堂上玩游戏需要综合运用教育策略和技术手段。以下是一些有效的措施,可以用来阻止或减少学生在课堂上玩游戏的行为: 1. 明确课堂规则 在课程开始之初,向学生清楚地说明课堂纪律,强调不得在上课时间玩游戏。 制…

电阻负载柜的工作原理是什么?

电阻负载柜是用于模拟电网中各种负载特性的设备,广泛应用于电力系统、新能源发电、电动汽车充电站等领域。其工作原理主要包括以下几个方面: 1. 结构组成:电阻负载柜主要由变压器、调压器、电阻器、控制器、保护装置等部分组成。其中&#xf…

理解神经网络的通道数

理解神经网络的通道数 1. 神经网络的通道数2. 输出的宽度和长度3. 理解神经网络的通道数3.1 都是错误的图片惹的祸3.1.1 没错但是看不懂的图3.1.2 开玩笑的错图3.1.3 给人误解的图 3.2 我或许理解对的通道数3.2.1 动图演示 1. 神经网络的通道数 半路出嫁到算法岗,额…

数据防泄密软件精选|6款好用的数据防泄漏软件强推

某科技公司会议室,CEO张总、CIO李总、信息安全主管王经理正围绕最近发生的一起数据泄露事件展开讨论。 张总(忧虑): 大家,这次的数据泄露事件对我们来说是个沉重的打击。客户信息的外泄不仅损害了我们的信誉,还可能面…

DAY2:插件学习

文章目录 插件学习ClangGoogle TestCMakeDoxygen 收获 插件学习 Clang 是什么:Clang 是指 LLVM 项目的编译器的前端部分,支持对 C 家族语言(C、C、Objective-C)的编译。Clang 的功能包括:词法分析、语法分析、语义分析、生成中间中间代码 L…

【源码+文档+调试讲解】智能仓储系统 JSP

摘 要 随着科学技术的飞速发展,社会的方方面面、各行各业都在努力与现代的先进技术接轨,通过科技手段来提高自身的优势,智能仓储系统当然也不能排除在外。智能仓储系统是以实际运用为开发背景,运用软件工程开发方法,采…

小车解决连接 Wi-Fi 后还不能上网问题

小车解决连接 Wi-Fi 后还不能上网问题 跟大家讲讲:为什么小车连接我们自己的热点以后还是不能联网呢? 小车连接我们的热点以后需要访问外面的网络,我们访问网络使用域名来进行的,所以要对域名进行解析,但是小车原来的域…

猫咪浮毛太多怎么处理?6年铲屎官最值得买的猫毛空气净化器分享

作为一位拥有6年铲屎经验的铲屎官,家中既有宝宝又有毛孩子的铲屎官家庭来说,空气中的宠物异味和猫毛不仅影响生活质量,更关乎家人的健康。普通空气净化器虽然能够提供基本的空气净化,但对于养猫家庭的特定需求,如去除宠…

使用 YOLOv8 实现人体姿态检测

引言 在计算机视觉的各种应用中,人体姿态检测是一项极具挑战性的任务,它能够帮助我们理解人体各部位的空间位置。本文将详细介绍如何使用 YOLOv8 和 Python 实现一个人体姿态检测系统,涵盖模型加载、图像预处理、姿态预测到结果可视化的全流…

《基于 Kafka + Flink + ES 实现危急值处理措施推荐和范围校准》

📢 大家好,我是 【战神刘玉栋】,有10多年的研发经验,致力于前后端技术栈的知识沉淀和传播。 💗 🌻 近期刚转战 CSDN,会严格把控文章质量,绝不滥竽充数,欢迎多多交流。&am…

爬虫-豆瓣读书排行榜

获取数据 requests库 获取数据环节需要用到requests库。安装方式也简单 pip install requests 爬取页面豆瓣读书 Top 250 用requests库来访问 import requests res requests.get(https://book.douban.com/top250/) 解析: 导入requests库调用了requests库中的…

2024年文化研究与数字媒体国际会议 (CRDM 2024)

2024年文化研究与数字媒体国际会议 (CRDM 2024) 2024 International Conference on Cultural Research and Digital Media 【重要信息】 大会地点:珠海 大会官网:http://www.iccrdm.com 投稿邮箱:iccrdmsub-conf.com 【注意:稿将…