人工智能与数据分析:新时代的趋势和机会

目录

  • 写在开头
  • 1. 融合AI和数据分析的趋势
    • 1.1 趋势变化
    • 1.2 数据驱动目标转换
  • 2 对数据分析行业的影响
    • 2.1 技能需求
    • 2.2 工作流程和角色的变化
    • 2.3 创新和业务驱动的数据分析
  • 3.场景变化
    • 3.1 场景1:智能决策支持系统
      • 3.1.1 智能决策支持系统的架构设计
      • 3.1.2 Python代码演示
    • 3.2 个性化用户体验
      • 3.2.1 个性化用户体验的实现
      • 3.2.2 Python代码演示
        • 例子1:简单的推荐算法演示
        • 例子2:利用scikit-surprise进行实现
    • 3.3 预测性分析的崛起
      • 3.3.1 预测性分析的实现
      • 3.3.2 python代码演示
    • 结论

写在开头

在当今数字化和信息化的时代,人工智能(AI)和数据分析作为两大前沿技术,正迎来新时代的挑战与机遇。本博客将深入探讨人工智能与数据分析的融合,分析未来的发展趋势,并通过具体的场景展示它们在不同领域中的应用。

1. 融合AI和数据分析的趋势

融合AI和数据分析是未来的重要趋势。通过将AI技术与数据分析相结合,我们能够更全面地理解和利用数据,为企业决策提供更精准的依据。

1.1 趋势变化

  • 数据规模不断增大: 随着数字化时代的到来,企业和机构积累了大量的数据。传统的数据分析方法难以处理如此大规模的数据,而AI技术能够更有效地从中提取有价值的信息。

  • 模式识别和预测需求增加: 企业对于模式识别和未来趋势的预测需求也在增加。传统数据分析在这方面存在局限,而机器学习等AI技术能够从历史数据中学习,提供更准确的预测。

  • 个性化需求的崛起: 消费者对于个性化产品和服务的需求不断增加。通过AI与数据分析的结合,企业可以更好地理解用户需求,提供个性化的解决方案。

1.2 数据驱动目标转换

未来数据驱动业务的目标可能将会从下面3各方面发生变化。

  1. 自动化决策和智能决策支持:

    • 自动化决策流程: AI技术在数据分析中的应用使得决策过程更加自动化。通过使用机器学习算法和大数据分析,企业可以建立智能系统,这些系统能够从历史数据中学习,自动做出实时决策。这种自动化不仅提高了效率,还能够在短时间内应对复杂的业务环境。

    • 实时智能决策支持: 结合AI和数据分析,企业可以获得实时的智能决策支持。实时分析可以帮助企业及时了解当前情况,从而做出更具前瞻性和准确性的决策。这对于需要迅速反应市场变化的行业尤为关键。

    • 决策模型的解释性: 随着AI在决策制定中的应用增加,对于决策模型的解释性也变得愈加重要。透明度和可解释性的需求推动了对于黑盒模型的改进,以便决策者更好地理解模型的工作原理,增加对决策的信任。

  2. 个性化体验和客户关系管理:

    • 个性化推荐和服务: AI和数据分析的结合为企业提供了个性化的客户体验。通过分析大量用户数据,企业可以预测客户需求,提供个性化的产品推荐和服务。这不仅提高了客户满意度,还有助于提升销售效果。

    • 客户细分和定制化营销: 利用AI进行数据分析,企业可以更细致地将客户分成不同的群体,理解其需求和偏好。这为企业提供了定制化的营销策略,使其能够更有针对性地推出产品和服务。

    • 情感分析和客户反馈: AI技术还能够用于分析客户的情感和反馈,从而更好地理解客户满意度、忠诚度和需求变化。这有助于企业及时调整策略,改进产品,并建立更紧密的客户关系。

  3. 实时数据分析和业务智能:

    • 实时数据处理: AI的快速处理能力使得实时数据分析成为可能。企业可以通过实时监控和分析来获取当前业务状态,快速作出决策。这对于零售、金融和制造等需要实时决策的行业尤为关键。

    • 深度学习和复杂数据分析: 随着深度学习等先进技术的应用,企业可以更深入地分析大规模、复杂的数据集,发现隐藏在数据中的模式和关联。这有助于企业更全面地理解业务环境,制定更精准的战略。

    • 业务智能平台的兴起: 面向业务用户的智能分析工具和平台也在兴起,使非技术专业人士能够更轻松地进行数据分析和获取洞察。这种趋势推动了业务智能的发展,使更多人能够参与到数据驱动的决策过程中。

综合来看,融合AI和数据分析的趋势推动了企业决策的智能化、个性化服务的提升以及实时数据分析能力的增强。这些趋势将在不同行业中产生深远的影响,驱动着数字化时代的发展。

2 对数据分析行业的影响

2.1 技能需求

2.1.1 扩展技能范围

融合AI的数据分析将对数据从业者的技能要求提出更高的挑战。传统的数据分析技能仍然是基础,但从业者需要扩展其技能范围,包括机器学习、深度学习、自然语言处理等AI相关领域。具备对这些技术的理解和应用能力将成为未来数据分析专业人士的重要标志。

2.1.2 持续的培训与学习

融合AI的数据分析趋势意味着未来的从业者将需要更加持续的培训和学习。由于技术的不断演进,数据分析专业人士需要不断更新自己的知识,跟上最新的技术发展。这将推动行业中更加强调终身学习和不断提升的文化。

2.1.3 跨学科的综合能力

未来的数据分析从业者需要拥有更强的跨学科综合能力。除了技术技能,他们还需要更好地理解业务领域,与领域专家合作,将数据分析的成果更好地应用于实际业务问题的解决。这种跨学科的协作能力将成为成功的数据分析专业人士的重要素质。

2.2 工作流程和角色的变化

2.2.1 自动化与协作的平衡

融合AI的数据分析将改变工作流程,自动化将越来越多地应用于数据清洗、特征提取等繁琐任务。这将使得从业者能够更专注于更具创造性和战略性的工作,如问题定义、模型解释和业务解释。同时,强调协作将成为工作流程中的重要一环,促进数据科学家与业务人员、领域专家之间的密切合作。

2.2.2 新兴角色的涌现

随着AI的融合,可能会涌现出新的数据分析角色。机器学习工程师、数据科学家、模型解释专家等可能成为数据分析团队中的常见角色。这些新兴的角色将在整个数据分析生态系统中发挥特定的作用,从而要求从业者适应新的工作动态和合作模式。

2.2.3 数据伦理与解释的重要性

随着数据分析的深入应用,数据伦理和解释问题将变得更加重要。从业者需要关注模型的公正性、透明性和可解释性,以确保数据分析的结果对决策者和业务部门具有可信度。数据伦理的考虑将成为数据分析工作中不可或缺的一部分。

2.3 创新和业务驱动的数据分析

2.3.1 业务理解的强调

融合AI的数据分析将强调对业务的深刻理解。从业者需要更好地沟通和理解业务需求,将技术应用到实际问题中。这将推动数据分析从业者更积极地参与业务决策和战略制定,成为业务发展的重要支持者。

2.3.2 实验与创新的鼓励

AI的融合将鼓励从业者更积极地进行实验和创新。通过尝试新的技术、算法和方法,从业者可以发现更有效的解决方案,为企业创造更大的价值。这种实验精神将成为数据分析领域创新的推动力。

2.3.3 数据驱动文化的深入

融合AI的数据分析将加深数据驱动文化在组织中的根深蒂固。数据分析将不再仅仅是一个支持性的角色,而是整个组织决策和战略制定过程中的关键驱动力。成功的组织将建立起一种强调数据驱动决策的文化,并将数据分析视为业务成功的关键组成部分。

3.场景变化

3.1 场景1:智能决策支持系统

想象一下,未来有这样的一个企业决策支持系统。该系统通过融合AI和数据分析,实时分析市场趋势、用户行为等大量数据,为企业提供智能化、实时的决策建议。这种系统能够帮助企业更迅速、准确地应对市场变化,提高竞争力。

3.1.1 智能决策支持系统的架构设计

  1. 问题定义与目标设定

在构建智能决策支持系统之前,首先需要清晰地定义问题,并明确定义系统的决策目标。这包括明确系统是用于分类、回归、聚类还是其他任务,以及决策的具体业务目标。

  1. 数据收集与预处理

在数据收集阶段,系统需要从多个来源收集数据,这可能包括结构化数据、非结构化数据、实时数据等。数据预处理包括缺失值处理、异常值检测和处理、数据标准化等,以确保数据的质量和一致性。

  1. 特征工程与选择

特征工程是将原始数据转化为模型可以理解的特征的过程。这可能包括特征的变换、生成新的特征、处理文本或图像数据等。特征选择是选择最具信息量的特征,以提高模型的性能和降低过拟合的风险。

4.模型选择与训练

在模型选择阶段,需要选择适当的机器学习或深度学习模型。这可能涉及到尝试多个算法、模型调优和超参数调整。模型训练是使用标记的训练数据对模型进行训练,以使其能够泛化到未见过的数据。

5.模型评估与优化

模型评估需要使用测试数据集来评估模型的性能。这可能包括准确性、精确度、召回率、F1分数等指标的评估。如果模型性能不够理想,需要进行优化,包括调整模型参数、尝试不同的特征工程方法等。

6.部署与监控

在模型训练和优化后,将模型部署到生产环境中。这可能涉及将模型嵌入到决策支持系统中,或者以API的形式提供服务。同时,需要建立监控系统来追踪模型的性能,及时检测模型性能下降或失效。

3.1.2 Python代码演示

为了演示一个简单的智能决策支持系统,我们将以一个假想的招聘场景为例。假设我们有一个包含应聘者信息的数据集,我们希望根据这些信息预测每个应聘者是否适合公司的文化。我们将使用一个决策树分类器作为我们的决策支持系统。

import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier
from sklearn.metrics import accuracy_score, classification_report# 模拟数据生成
np.random.seed(12)# 特征:工作经验、沟通能力、团队合作、学历
data = {'工作经验': np.random.randint(1, 20, 100),'沟通能力': np.random.randint(5, 10, 100),'团队合作': np.random.randint(5, 10, 100),'学历': np.random.choice(['本科', '硕士', '博士'], 100),'适应公司文化': np.random.choice([1, 0], 100, p=[0.8, 0.2])  # 70%适应,30%不适应
}df = pd.DataFrame(data)# 将学历进行独热编码
df = pd.get_dummies(df, columns=['学历'], drop_first=True)# 划分训练集和测试集
X = df.drop('适应公司文化', axis=1)
y = df['适应公司文化']
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=10)# 创建决策树分类器
model = DecisionTreeClassifier(random_state=12)# 训练模型M
model.fit(X_train, y_train)# 在测试集上进行预测
predictions = model.predict(X_test)# 评估模型性能
accuracy = accuracy_score(y_test, predictions)
print(f'Accuracy: {accuracy:.2f}')# 打印分类报告
print(classification_report(y_test, predictions))# 获取特征重要性
feature_importance = model.feature_importances_# 创建包含特征名和对应重要性的DataFrame
feature_importance_df = pd.DataFrame({'Feature': X.columns,'Importance': feature_importance
})# 按重要性降序排序
feature_importance_df = feature_importance_df.sort_values(by='Importance', ascending=False)# 打印特征重要性
print("特征重要性排序:")
print(feature_importance_df)

运行上述代码后,我们可以得到下面的结果:
1

根据模型评估结果和特征重要性的排序,从业务角度进行一些决策点:

预测某个员工是否适应公司

准确度 (Accuracy)为0.85,表示模型在测试集上的整体准确率为 85%。这是一个相对较高的准确度,类别 1(适应公司文化)的性能相对较好,而类别 0(不适应公司文化)的性能较差。
根据这个信息我们可以收集员工的数据,然后预测该员工是否适应公司文化。

特征重要性排序

  • 工作经验 (Experience): 是最重要的特征,其重要性为 0.417。这表明工作经验对于模型做出适应公司文化的决策贡献最大。

  • 团队合作 (Teamwork): 是第二重要的特征,其重要性为 0.239。团队合作也对决策有一定的贡献。

  • 沟通能力 (Communication): 在这个场景中,沟通能力的重要性为 0.215,仅次于团队合作。

  • 学历 (Education): 学历的重要性相对较小,但本科学历的重要性(0.079)稍高于硕士学历(0.050)。

未来应用

  • 招聘策略优化: 由于工作经验是最重要的特征,公司可以在招聘时更加注重应聘者的工作经验,特别是有相关行业经验的候选人。

  • 培训和发展: 如果团队合作和沟通能力是公司文化适应的关键因素,公司可以通过培训和发展计划来加强团队合作和沟通技能。

  • 学历的权衡: 学历对模型的决策影响相对较小,但本科学历可能略为重要。公司在制定学历要求时可以考虑平衡学历和其他更为重要的因素。

3.2 个性化用户体验

3.2.1 个性化用户体验的实现

1 用户行为和兴趣分析

在个性化用户体验的架构中,首先进行用户行为和兴趣的深入分析。这可以包括:

  • 历史行为分析: 跟踪用户在平台上的浏览、点击、购买、收藏等行为,形成用户行为的时间序列数据。

  • 内容分析: 分析用户对不同类型内容的偏好,包括文章、视频、产品等。

  • 社交网络分析: 如果适用,分析用户在社交网络上的关系和互动,以提取更多的用户特征。

2 数据收集与用户画像建模

数据收集是实现个性化用户体验的基础。收集的数据应包括用户行为数据、用户基本信息、设备信息等。用户画像建模的步骤包括:

  • 数据清洗和预处理: 处理缺失值、异常值,对数据进行标准化和归一化。

  • 特征工程: 从原始数据中提取有用的特征,可能包括用户属性、行为序列、时间特征等。

  • 用户画像构建: 将用户的特征组合成用户画像,这可以是一个向量、矩阵或其他形式,用于描述用户的兴趣和行为。

3 推荐系统的应用

推荐系统是实现个性化用户体验的核心。在架构中,推荐系统的步骤包括:

  • 选择合适的推荐算法: 根据业务需求和数据情况,选择协同过滤、内容推荐、深度学习推荐等算法。

  • 模型训练: 使用历史数据训练推荐模型,例如,使用协同过滤算法训练用户-物品关系。

  • 实时推荐: 在用户与平台交互时,实时更新推荐结果,确保推荐的时效性。

4 实时个性化调整

个性化用户体验需要实时调整和优化。这可以通过:

  • 实时监控用户行为: 监控用户在平台上的实时行为,例如点击、购买等。

  • 实时更新用户画像: 根据实时行为,及时更新用户画像,确保画像的准确性。

  • 实时调整推荐策略: 根据实时的用户画像,动态调整推荐系统的策略,提高推荐准确性。

3.2.2 Python代码演示

例子1:简单的推荐算法演示
import numpy as np
from sklearn.metrics.pairwise import cosine_similarity# 生成用户-物品评分矩阵
# 行代表用户,列代表物品,数值为评分(0表示未评分)
ratings = np.array([[5, 3, 0, 1],[4, 0, 0, 1],[1, 1, 0, 5],[0, 0, 4, 4],[0, 1, 5, 0],
])# 计算用户之间的相似度(余弦相似度)
user_similarity = cosine_similarity(ratings)# 定义一个函数来进行基于用户的协同过滤推荐
def user_based_recommendation(user_id, user_similarity, ratings):# 获取当前用户对物品的评分user_ratings = ratings[user_id, :]# 找到与当前用户最相似的用户similar_user = np.argmax(user_similarity[user_id, :])# 获取最相似用户对物品的评分similar_user_ratings = ratings[similar_user, :]# 找到最相似用户评分中当前用户未评分的物品unrated_items = np.where(user_ratings == 0)[0]# 根据最相似用户的评分,为当前用户推荐物品recommendations = similar_user_ratings[unrated_items]# 返回推荐物品及其预测评分return list(zip(unrated_items, recommendations))# 示例:为用户0推荐物品
user_id_to_recommend = 0
recommendations = user_based_recommendation(user_id_to_recommend, user_similarity, ratings)print(f"为用户 {user_id_to_recommend} 推荐的物品及其预测评分:{recommendations}")
例子2:利用scikit-surprise进行实现

在使用surprise进行预测时,需要安装scikit-surprise包,下面是对应的安装命令。

pip install scikit-surprise

下面是一个样例的代码,用来模拟进行产品推荐:

from surprise import Dataset, Reader, SVD, accuracy
from surprise.model_selection import train_test_split# 生成用户-物品评分数据
data = {'user_id': ['User1', 'User2', 'User3', 'User4', 'User5'],'item_id': ['Item1', 'Item2', 'Item3', 'Item4', 'Item5'],'rating': [5, 3, 1, 4, 2],
}# 创建DataFrame
import pandas as pd
df = pd.DataFrame(data)# 定义Reader对象,用于加载数据
reader = Reader(rating_scale=(1, 5))# 加载数据到Dataset对象
dataset = Dataset.load_from_df(df[['user_id', 'item_id', 'rating']], reader)# 划分训练集和测试集
trainset, testset = train_test_split(dataset, test_size=0.2, random_state=11)# 使用SVD算法训练模型
model = SVD(random_state=11)
model.fit(trainset)# 在测试集上进行预测
predictions = model.test(testset)# 评估模型性能
accuracy.rmse(predictions)# 示例:为用户'User1'预测未评分的物品
user_id_to_recommend = 'User1'
unrated_items = df.loc[df['user_id'] == user_id_to_recommend]['item_id'].values
predictions_user1 = [model.predict(user_id_to_recommend, item) for item in unrated_items]print(f"为用户 {user_id_to_recommend} 推荐的物品及其预测评分:")
for i, prediction in enumerate(predictions_user1):print(f"Item: {unrated_items[i]}, Predicted Rating: {prediction.est:.2f}")

运行上面的代码,我们可以得到下面的结果:
3.2.1
从上面的结果中,我们可以得到下面的结论:

  • RMSE(均方根误差)是评估模型预测与实际值之间差异的指标。上方RMSE值为0.0000表示模型在测试集上,这表示完美预测,即其预测值与实际值完全一致。这简直就是瞎猫碰上死耗子。
  • 对于用户’User1’,模型预测他对物品’Item1’的评分为3.61。这表示根据模型的推荐,用户可能会对’Item1’给出约3.61的评分。

现在我们将这个结果应用到实际业务中:

  • 模型性能评估: RMSE为0.0000是非常罕见的,通常意味着模型在测试集上能够完美预测。然而,需要谨慎对待这样的结果,因为在实际情况中,过度拟合或者泛化性能不佳可能导致在新数据上的表现不佳。

  • 推荐场景中的应用: 对于用户’User1’,模型预测他对’Item1’的评分为3.61。这个预测评分可以用于向用户推荐物品。在这种理想的情况下,可以相对自信地认为模型的预测较为准确。

  • 用户体验与反馈: 尽管RMSE为0.0000,但仍然需要关注用户的实际体验和反馈。收集用户的行为数据和反馈信息,确保模型在实际使用中也能够提供符合用户期望的推荐结果。

3.3 预测性分析的崛起

3.3.1 预测性分析的实现

预测性分析是通过使用统计算法和机器学习技术对历史数据进行分析,以了解未来事件的可能发生情况。下面将详细介绍预测性分析的实现过程。

  • 1.问题定义

在开始任何预测性分析项目之前,首先需要清晰地定义问题和目标。明确你想要预测的是什么,例如销售量、用户行为、市场趋势等。确保定义的问题是明确且可量化的,以便为后续分析提供明确的方向。

  • 2.数据收集与整理

搜集与问题相关的数据,这可能包括来自数据库、文件、API等不同来源的数据。对数据进行整理,处理缺失值、异常值,进行数据类型转换,以确保数据的质量和一致性。

  • 3.探索性数据分析(EDA)

进行探索性数据分析,通过统计描述、可视化等手段了解数据的分布、相关性、异常值等特征。EDA有助于对数据的整体情况有一个初步的了解,指导后续特征工程和模型选择。

  • 4.特征工程

特征工程是构建模型的关键步骤,包括特征提取、特征转换和特征选择。在这一阶段,你可能会进行以下操作:

特征提取: 从原始数据中提取新的特征,如日期特征、文本特征的处理等。
特征转换: 对特征进行转换,如标准化、归一化、独热编码等。

  • 5.模型选择与训练

选择适当的预测模型,根据问题的性质选择回归、分类等不同类型的模型。在训练集上训练模型,并进行模型调优。

  • 6.模型评估

使用测试集评估模型的性能,选择合适的评估指标如均方误差(MSE)、准确率、召回率等。可以使用交叉验证等方法提高模型评估的可靠性。

  • 7.结果解释与可解释性

解释模型的预测过程和结果,通过可解释性工具(如SHAP值)帮助理解模型的预测。这对业务用户和决策者理解预测结果的逻辑和因果关系至关重要。

  • 8.结果可视化与报告

通过可视化手段,将预测结果以直观的方式呈现。生成报告,向利益相关者传达分析过程、模型性能和预测结果,以支持决策。

3.3.2 python代码演示

基于销量预测的代码,我这里就不做详细赘述,之前的话有文章进行详细介绍,这里可以参考对应文章的位置:

时间序列进行预测

结论

人工智能与数据分析在新时代呈现出协同发展的趋势,为各行业带来了前所未有的机遇。从智能决策支持系统到个性化用户体验,再到预测性分析和自动化数据清洗,这些应用场景不仅提高了效率,还为企业创造了更多商机。通过Python代码的示例,我们可以看到这些技术在实际应用中的灵活性和强大性。

然而,随着这些技术的广泛应用,我们也要正视其中的挑战,如数据隐私和伦理问题。在迎接新时代的挑战和机遇时,不仅需要技术的创新,还需要建立健全的法规和政策体系,确保人工智能与数据分析的发展是可持续的、公正的。

总体而言,我们正站在人工智能与数据分析协同发展的新时代,期待未来这一强大组合为我们带来更多创新、智能和便利。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/224558.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

RocketMQ —消费重试

消费者出现异常,消费某条消息失败时, Apache RocketMQ 会根据消费重试策略重新投递该消息进行故障恢复。本文介绍消费重试机制的原理、版本兼容性和使用建议。 一、应用场景​ Apache RocketMQ 的消费重试主要解决的是业务处理逻辑失败导致的消费完整性…

DICOM 文件中,VR,VL,SQ,图像二进制的几个注意点

DICOM 文件的结构,在网上有很多的学习资料,这里只介绍些容易混淆的概念,作为回看笔记。 1. 传输语法 每个传输语法,起都是表达的三个概念:大小端、显隐式、压缩算法 DICOM Implicit VR Little Endian: 1.2.840.1000…

解决VSCode打开终端Terminal闪退的问题

一、背景 在新电脑上使用了VSCode,但是一打开Terminal,Terminal马上就消失了,在网上找了很久,都没有找到对应的分析 二、解决思路 首先,是从这个文档中找到了灵感,这个文档里面汇集了大部分的问题&#…

孩子都能学会的FPGA:第三十二课——用FPGA实现一个通用的SPI主机发送模块

(原创声明:该文是作者的原创,面向对象是FPGA入门者,后续会有进阶的高级教程。宗旨是让每个想做FPGA的人轻松入门,作者不光让大家知其然,还要让大家知其所以然!每个工程作者都搭建了全自动化的仿…

二百一十五、Flume——Flume拓扑结构之复制和多路复用的开发案例(亲测,附截图)

一、目的 对于Flume的复制和多路复用拓扑结构,进行一个小的开发测试 二、复制和多路复用拓扑结构 (一)结构含义 Flume 支持将事件流向一个或者多个目的地。 (二)结构特征 这种模式可以将相同数据复制到多个channe…

微信生态下的私域流量载体有哪些?

私域流量的本质就是:降低我的获客成本,提高我产品服务的复购率,增加我和用户之间的粘性,挖掘用户的终身价值。 私域流量一般我们特指微信体系的个人号、公众号、社群和小程序,现在朋友圈和视频号也成为了打造微信私域…

HubSpot和AI的完美结合:解锁业务增长密码

随着数字化时代的发展,智能营销已经成为企业走向成功的关键之一。在这个领域的领先者之一,HubSpot积极整合人工智能(AI)技术,为数字营销、销售和服务带来了新的可能性。今天运营坛将带领大家深入探讨HubSpot和人工智能…

活动预告 | 微盟技术沙龙 - Elasticsearch 在微盟的实践 12/21/2023

微盟技术沙龙 「微盟技术沙龙」是由微盟研发中心发起并联合各方小伙伴为开发者举办的系列技术沙龙,从用户,产品,技术等方面与开发者进行交流。 微盟技术沙龙关注开发者在实际应用中遇到的问题。提供最真实的干货,以技术会友&…

GPU 性能测试软件:GPU-Z,2023 年 9 月 12 日更新

GPU-Z是一款用于Windows操作系统的免费工具,它用于查看和监控计算机的图形处理单元(GPU)信息。这个工具是专为计算机硬件爱好者、游戏玩家、系统管理员和技术支持人员设计的 GPU-Z 的特点 GPU信息:GPU-Z能够显示关于您计算机中G…

命令执行 [BUUCTF 2018]Online Tool1

打开题目 我们代码审计一下 if (isset($_SERVER[HTTP_X_FORWARDED_FOR])) { $_SERVER[REMOTE_ADDR] $_SERVER[HTTP_X_FORWARDED_FOR]; } 如果存在xxf头且不为空,则将xxf头内容(真实的客户端ip)赋给ROMOTE_ADDR(代理服务器传过…

如何使用蜘蛛池蚂蚁SEO

​蜘蛛池是一种利用搜索引擎爬虫进行推广营销的方式。它的核心是建立一个能够吸引搜索引擎爬虫的网站群,这些网站能够产生大量的优质内容,并形成一个巨大的网站群,从而吸引更多的搜索引擎爬虫。 如何联系蚂蚁seo? baidu搜索&…

【C语言(十二)】

数据在内存中的存储 一、整数在内存中的存储 整数的2进制表示方法有三种,即 原码、反码和补码 有符号的整数,三种表示方法均有符号位和数值位两部分,符号位都是用0表示“正”,用1表示“负”,最高位的⼀位是被当做符号…

无参数RCE知识点

什么是无参数RCE? 无参rce,就是说在无法传入参数的情况下,仅仅依靠传入没有参数的函数套娃就可以达到命令执行的效果 核心代码 if(; preg_replace(/[^\W]\((?R)?\)/, , $_GET[code])) { eval($_GET[code]); } 这段代码的核心就是只…

西工大计院计算机系统基础实验二(配置gdb插件)

第二次实验是二进制炸弹实验,为了简化操作,并且让大家接下来能够按照作者之前已经为网安院写好的博客西工大网络空间安全学院计算机系统基础实验二(清楚实验框架及phase_1)-CSDN博客来走,大家需要下载一款好用的gdb插件…

canvas基本绘制对象

目录 绘制画布 设置画布 绘制圆形 绘制矩形填充渐变色 绘制文字及文字样式 绘制画布 <canvas id"canvas" width"800" height"600"></canvas> 设置画布 //获得画布元素var canvasdocument.getElementById(canvas);var ctxca…

基于Java (spring-boot)的二手物品交易平台

​ 一、项目介绍 1、管理员功能 &#xff08;1&#xff09;登录&#xff1a;管理员能够根据账号访问系统。 &#xff08;2&#xff09;用户管理&#xff1a;管理员可以添加、删除、修改用户信息&#xff0c;查看用户列表&#xff0c;对用户进行管理和控制。例如&#xff0c…

Python将Labelme文件的标注信息绘制到图片上

Python将Labelme文件的标注信息绘制到图片上 前言前提条件相关介绍实验环境Python将Labelme文件的标注信息绘制到图片上代码实现输出结果 前言 由于本人水平有限&#xff0c;难免出现错漏&#xff0c;敬请批评改正。更多精彩内容&#xff0c;可点击进入Python日常小操作专栏、O…

怎么把图片转文字?这几个图片转文字方法一定要知道!

怎么把图片转文字&#xff1f;无论是从书籍、网络还是社交媒体上&#xff0c;我们经常需要从图片中提取文字来进行复制、编辑或翻译。手动操作耗时耗力&#xff0c;效率低下&#xff0c;那么怎么把图片转文字呢&#xff1f;今天我将介绍三种不同的方法来实现图片转文字。 图片转…

OceanMind海睿思案例入选第二届中国数据治理年会“DCMM百项优秀案例”

近日&#xff0c;中国电子信息行业联合会在北京成功举办“第二届中国数据治理年会”。 本届大会以“数据强基、智领未来”为主题&#xff0c;汇聚我国数据治理领域的资深专家、学者、企业大咖同台论道&#xff0c;共话数据未来的发展与创新。 中新赛克海睿思作为DCMM3级乙方代…