Python爬虫实战入门:豆瓣电影Top250(保你会,不会来打我)

文章目录

      • 需求
      • 所需第三方库
        • requests模块
        • lxml模块
          • 了解 lxml模块和xpath语法
          • xpath语法-基础节点选择语法
      • 实战教程
      • 完整代码

需求

目标网站: https://movie.douban.com/top250
需求: 爬取电影中文名英文名电影详情页链接导演主演上映年份国籍类型评分评分人数, 并保存到csv文件当中
目标url: https://movie.douban.com/top250

所需第三方库

  1. requests
  2. lxml

安装

requests安装命令:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple requests
lxml安装命令:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple lxml

简介

requests模块

requests 是 Python 编程语言中一个常用的第三方库,它可以帮助我们向 HTTP 服务器发送各种类型的请求,并处理响应。

  • 向 Web 服务器发送 GET、POST 等请求方法;
  • 在请求中添加自定义标头(headers)、URL 参数、请求体等;
  • 自动处理 cookies;
  • 返回响应内容,并对其进行解码;
  • 处理重定向和跳转等操作;
  • 检查响应状态码以及请求所消耗的时间等信息。
lxml模块
了解 lxml模块和xpath语法

lxml 是 Python 编程语言中一个常用的第三方库,它提供了一个高效而简单的方式来解析和处理 XML 和 HTML 文档。

  • 从文件或字符串中读取 XML 或 HTML 文档;
  • 使用 XPath 或 CSS 选择器来查找和提取文档中的数据;
  • 解析 XML 或 HTML 文档,并将其转换为 Python 对象或字符串;
  • 对文档进行修改、重构或序列化;
  • 处理命名空间和 CDATA 等特殊情况。

对html或xml形式的文本提取特定的内容,就需要我们掌握lxml模块的使用和xpath语法。

  • lxml模块可以利用XPath规则语法,来快速的定位HTML\XML 文档中特定元素以及获取节点信息(文本内容、属性值)
  • XPath (XML Path Language) 是一门在 HTML\XML 文档中查找信息的语言,可用来在 HTML\XML 文档中对元素和属性进行遍历
    • W3School官方文档:http://www.w3school.com.cn/xpath/index.asp
  • 提取xml、html中的数据需要lxml模块和xpath语法配合使用
xpath语法-基础节点选择语法
  1. XPath 使用路径表达式来选取 XML 文档中的节点或者节点集。
  2. 这些路径表达式和我们在常规的电脑文件系统中看到的表达式非常相似。
  3. 使用chrome插件选择标签时候,选中时,选中的标签会添加属性class=“xh-highlight”

xpath定位节点以及提取属性或文本内容的语法

表达式描述
nodename选中该元素。
/从根节点选取、或者是元素和元素间的过渡。
//从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
.选取当前节点。
选取当前节点的父节点。
@选取属性。
text()选取文本。

xpath语法-节点修饰语法

可以根据标签的属性值、下标等来获取特定的节点

节点修饰语法

路径表达式结果
//title[@lang=“eng”]选择lang属性值为eng的所有title元素
/bookstore/book[1]选取属于 bookstore 子元素的第一个 book 元素。
/bookstore/book[last()]选取属于 bookstore 子元素的最后一个 book 元素。
/bookstore/book[last()-1]选取属于 bookstore 子元素的倒数第二个 book 元素。
/bookstore/book[position()>1]选择bookstore下面的book元素,从第二个开始选择
//book/title[text()=‘Harry Potter’]选择所有book下的title元素,仅仅选择文本为Harry Potter的title元素
/bookstore/book[price>35.00]/title选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

关于xpath的下标

  • 在xpath中,第一个元素的位置是1
  • 最后一个元素的位置是last()
  • 倒数第二个是last()-1

xpath语法-其他常用节点选择语法

  • // 的用途
    • //a 当前html页面上的所有的a
    • bookstore//book bookstore下的所有的book元素
  • @ 的使用
    • //a/@href 所有的a的href
    • //title[@lang=“eng”] 选择lang=eng的title标签
  • text() 的使用
    • //a/text() 获取所有的a下的文本
    • //a[texts()=‘下一页’] 获取文本为下一页的a标签
    • a//text() a下的所有的文本
  • xpath查找特定的节点
    • //a[1] 选择第一个s
    • //a[last()] 最后一个
    • //a[position()<4] 前三个
  • 包含
    • //a[contains(text(),“下一页”)]选择文本包含下一页三个字的a标签**
    • //a[contains(@class,‘n’)] class包含n的a标签

实战教程

打开网站

https://movie.douban.com/top250

在这里插入图片描述
进入网站之后鼠标右击检查,或者F12来到控制台,点击网络,然后刷新
在这里插入图片描述

刷新之后,点击那个放大镜搜索你需要的的数据内容,这样可以直接找到你所需要的数据包

在这里插入图片描述
点击进入数据包之后,首先要查看我们需要的数据是否都在这个数据包里面,如果我们需要的数据在这个数据包里面不全,则这个数据包可能不是我们需要的,要另外进行查找;如果我们需要的数据在这个数据包里面都有,那么这个数据包是我们所需要的数据包,接下来我们就点击标头,里面有我们需要的url等信息。
在这里插入图片描述
在这里插入图片描述

# 导入模块
import requests# 目标url
url = 'https://movie.douban.com/top250'# 发送请求, 获取响应
res = requests.get(url)  # 标头里面的请求方法是GET, 所以这里我们使用get请求方法
print(res.text)

在这里插入图片描述
我们打印之后发现并没有输出任何内容,这是因为对于爬虫来说,有时候网站可能会采取一些反爬虫措施,以防止爬虫程序过度访问网站或者获取网站数据。那么为了避免反爬,我们需要设置合适的请求头信息来模拟真实浏览器行为,设置合适的 User-Agent 和其他请求头信息,使请求看起来更像是来自正常的浏览器访问。

那么 User-Agent 要在哪里找呢?
别急,其实这个也在我们的标头里面,我们用鼠标向下滑动就可以找到 User-Agent

在这里插入图片描述

# 导入模块
import requests# 目标url
url = 'https://movie.douban.com/top250'# 添加请求头信息
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'
}
# 发送请求, 获取响应  这里的headers=是一个关键字
res = requests.get(url, headers=headers)  # 标头里面的请求方法是GET, 所以这里我们使用get请求方法print(res.text)

注意:这里的请求头信息要以字典的格式写入

在这里插入图片描述
可以看到,我们在添加了请求头信息后,再次运行就有了输出内容,我们可以用CTRL + F查找一些数据,看这个打印出来的数据是否是我们需要的,还有看数据打印是否有缺失,如果有,则证明还是有反爬,还需要添加其他一些反爬参数,不同的网站所需要的反爬参数不一样但也不能一次性把所有的参数全部添加,有些可能是参数陷阱,添加了反而会报错

接下来就是进行数据提取,也就需要我们导入lxml模块。

lxml模块的使用

  1. 导入lxml 的 etree 库

    from lxml import etree

  2. 利用etree.HTML,将html字符串(bytes类型或str类型)转化为Element对象,Element对象具有xpath的方法,返回结果的列表

    html = etree.HTML(text) 
    ret_list = html.xpath("xpath语法规则字符串")
    
  3. xpath方法返回列表的三种情况

    • 返回空列表:根据xpath语法规则字符串,没有定位到任何元素
    • 返回由字符串构成的列表:xpath字符串规则匹配的一定是文本内容或某属性的值
    • 返回由Element对象构成的列表:xpath规则字符串匹配的是标签,列表中的Element对象可以继续进行xpath
# 导入模块
import requests
from lxml import etree# 目标url
url = 'https://movie.douban.com/top250'# 添加请求头信息
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36'
}
# 发送请求, 获取响应  这里的headers=是一个关键字
res = requests.get(url, headers=headers)  # 标头里面的请求方法是GET, 所以这里我们使用get请求方法# 网页源码
html = res.text# 实例化etree对象
tree = etree.HTML(html)

利用XPATH语法进行数据提取
在这里插入图片描述
点击响应,我们可以看到,我们所需要的电影名等信息都在这个<div class="info">这个标签里面,那么我们就可以直接利用xpath语法找到这个标签。

# 利用xpath找到<div class="info">这个标签
divs = tree.xpath('//div[@class="info"]')
print(divs)

在这里插入图片描述
可以看到,打印出来的是列表数据类型,既然是列表,我们就可以利用循环遍历列表里面的元素,而且我们需要的电影数据也在这些标签元素里面。
这里以一部电影为例,其他电影数据分布与第一部电影类似,搞定了第一部,其他的就可以通过循环来实现
在这里插入图片描述
前面我们已经找到了<div class="info">这个标签,返回的数据类型是一个列表,循环遍历这个列表里的元素,那么我们接下来找标签元素就可以直接以<div class="info">为父节点来查找他的子孙级标签。

这里就以电影中文名为例,<div class="info">的下一级标签是<div class="hd">在下一级就是一个a标签,然后就是电影中文名所在的<span class="title">标签。

# 利用xpath找到<div class="info">这个标签
divs = tree.xpath('//div[@class="info"]')
# print(divs)
for div in divs:title = div.xpath('./div[@class="hd"]/a/span/text()')print(title)break

xpath里面的 ./ 代表当前节点,也就是<div class="info">标签;最后的text()是获取标签里的文本内容。这里用break终止循环,我们只要查看一下打印的数据正不正确就行了。
在这里插入图片描述
返回的数据类型还是列表,可以看到:电影中文名就是列表的第一个元素,外文名就是第二个元素,直接利用索引取值就行了。
另外我们可以看到外文名有一些\xa0/\xa0这样的符号,\xa0 是一个 Unicode 字符,表示非断行空格。我们利用索引取值之后可以用字符串中的strip函数将它给去除。

for div in divs:# title = div.xpath('./div[@class="hd"]/a/span/text()')# print(title)title_cn = div.xpath('./div[@class="hd"]/a/span/text()')[0]title_en = div.xpath('./div[@class="hd"]/a/span/text()')[1].strip('\xa0/\xa0')print(title_cn, title_en)break

在这里插入图片描述
这样就获得了中文名和外文名。

电影详情页链接也可以用上面类似的方法获取。

for div in divs:# 电影详情页链接links = div.xpath('./div[@class="hd"]/a/@href')[0]print(links)break

但这里有一点需要注意,我们这里不是要获取a标签里的文本内容,而是要获取a标签里的href属性值。xpath中可以用@获取标签里面的属性值。
在这里插入图片描述
获取导演主演上映年份国籍电影类型
在这里插入图片描述
可以看到导演主演上映年份国籍电影类型其实都在一个p标签里面,那么我们只要获取到这个p标签,然后利用索引取值就行了。

for div in divs:# 导演director = div.xpath('./div[@class="bd"]/p/text()')[0].strip().split('导演: ')[1].split('主演: ')[0]print(director)# 主演try:act = div.xpath('./div[@class="bd"]/p/text()')[0].strip().split('导演: ')[1].split('主演: ')[1]# print(act)except IndexError as e:print('无主演信息...')print(act)# 上映年份Release_year = div.xpath('./div[@class="bd"]/p/text()')[1].strip().split('/')[0]print(Release_year)# 国籍nationality = div.xpath('./div[@class="bd"]/p/text()')[1].strip().split('/')[1].strip()print(nationality)# 类型genre = div.xpath('./div[@class="bd"]/p/text()')[1].strip().split('/')[2].strip()print(genre)break

这里要注意一下,有些电影可能会没有主演信息,如果按照常规方法那样的的话,当没有获取到数据就会报错,为了避免这种情况的发生,可以用异常处理一下,这样就算没有获取到信息也不会报错,程序还是可以继续进行,其他地方像上映年份前后都有&nbsp这样的符号,这其实是是 HTML 中的实体字符,表示一个非断行空格。中间还有/的符号,像这样的我们可以先利用split函数将/去掉,然后利用strip函数去除空格。
在这里插入图片描述
在这里插入图片描述

for div in divs:# 评分score = div.xpath('./div[@class="bd"]/div/span[2]/text()')[0]print(score)# 评分人数num_score = div.xpath('./div[@class="bd"]/div/span[4]/text()')[0]print(num_score)break

最后的评分和评分人数所在同一级的不同span标签里面,而且它们还具有同一个父级标签<div class="star">,这里我们只要注意在取span标签时,它的索引是从1开始的,而不是从0开始
在这里插入图片描述
到这里我们都是爬取一页的电影数据,并没有进行翻页处理,那怎么进行翻页处理呢?
我们可以点击其他页数,查看一下其url的变化

第一页的url: https://movie.douban.com/top250?start=0&filter=
第二页的url: https://movie.douban.com/top250?start=25&filter=
第三页的url: https://movie.douban.com/top250?start=50&filter=
...

我们可以发现它的start的参数随着翻页是发生变化的,变化规律类似与一个表达式:(页数 - 1) * 25

for page in range(1, 11):# 目标urlurl = f'https://movie.douban.com/top250?start={(page - 1) * 25}&filter='# 发送请求, 获取响应res = requests.get(url, headers=headers)# 打印响应信息print(res.text)

现在我们所有的数据都爬完了,现在就要进行数据保存了,这里我们是要保存到csv文件中,就要借助于csv这个内置模块。

将数据写入到csv文件中需要以特定的格式写入,一种是列表嵌套元组,一种是列表嵌套字典。这里我们使用列表嵌套字典的方式写入。别问,问就是习惯了
应为字典里面要有所有电影的数据信息,为了方便,我们直接在循环内部定义一个字典,每一部电影的数据都放在一个字典中。而所有的字典都在一个列表当中,所以我们直接将列表定义在循环外面就行了。

with open('豆瓣电影Top250.csv', 'w', encoding='utf-8-sig', newline='') as f:# 1. 创建对象writer = csv.DictWriter(f, fieldnames=('电影中文名', '电影英文名', '电影详情页链接', '导演', '主演', '上映年份', '国籍', '类型', '评分', '评分人数'))# 2. 写入表头writer.writeheader()# 3. 写入数据writer.writerows(moive_list)

我们将数据组织为字典的列表,并使用 csv.DictWriter() 将数据写入到 CSV 文件中。需要注意的是,在使用 csv.DictWriter() 时,我们首先调用了 writeheader() 方法写入表头信息,然后通过循环逐行写入数据。

完整代码

# 导入模块
import requests
from lxml import etree
import csv# 请求头信息
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36'
}moive_list = []for page in range(1, 11):# 目标urlurl = f'https://movie.douban.com/top250?start={(page - 1) * 25}&filter='# 发送请求, 获取响应res = requests.get(url, headers=headers)# 打印响应信息# print(res.text)# 网页源码html = res.text# 实例化etree对象tree = etree.HTML(html)divs = tree.xpath('//div[@class="info"]')# print(divs)for div in divs:dic = {}title = div.xpath('./div[@class="hd"]/a/span[@class="title"]/text()')# 电影中文标题title_cn = ''.join(title).split('\xa0/\xa0')[0]dic['电影中文名'] = title_cn# 电影英文标题title_en = div.xpath('./div[@class="hd"]/a/span[2]/text()')[0].strip('\xa0/\xa0')dic['电影英文名'] = title_en# 电影详情页链接links = div.xpath('./div[@class="hd"]/a/@href')[0]dic['电影详情页链接'] = links# print(links)# 导演director = div.xpath('./div[@class="bd"]/p/text()')[0].strip().split('导演: ')[1].split('主演: ')[0]dic['导演'] = director# print(director)# 主演try:act = div.xpath('./div[@class="bd"]/p/text()')[0].strip().split('导演: ')[1].split('主演: ')[1]# print(act)except IndexError as e:print(end='')dic['主演'] = act# 上映年份Release_year = div.xpath('./div[@class="bd"]/p/text()')[1].strip().split(' /')[0]dic['上映年份'] = Release_year# print(Release_year)# 国籍nationality = div.xpath('./div[@class="bd"]/p/text()')[1].strip().split(' /')[1].strip()dic['国籍'] = nationality# print(title_cn, nationality)# 类型genre = div.xpath('./div[@class="bd"]/p/text()')[1].strip().split(' /')[2].strip()dic['类型'] = genre# print(genre)# 评分score = div.xpath('./div[@class="bd"]/div/span[2]/text()')[0]dic['评分'] = score# print(score)# 评分人数num_score = div.xpath('./div[@class="bd"]/div/span[4]/text()')[0]dic['评分人数'] = num_score# print(dic)moive_list.append(dic)# print(len(moive_list))  # 检查数据是否全部爬取成功print(f'----------------------第{page}页爬取完成--------------------------------------')
print('-----------------------爬虫结束--------------------------')
# 数据保存
with open('豆瓣电影Top250.csv', 'w', encoding='utf-8-sig', newline='') as f:# 1. 创建对象writer = csv.DictWriter(f, fieldnames=('电影中文名', '电影英文名', '电影详情页链接', '导演', '主演', '上映年份', '国籍', '类型', '评分', '评分人数'))# 2. 写入表头writer.writeheader()# 3. 写入数据writer.writerows(moive_list)

在这里插入图片描述
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/746169.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

AIGC笔记--关节点6D位姿按比例融合

1--核心代码 6D位姿一般指平移向量和旋转向量&#xff0c;Maya软件中关节点的6D位姿指的是相对平移向量和欧拉旋转向量&#xff1b; 为了按比例融合两个Pose&#xff0c;首先需要将欧拉旋转向量转换为旋转矩阵&#xff0c;在将旋转矩阵转换为四元数&#xff0c;利用球面线性插值…

springboot项目自定义切面增强方法功能(springboot记录日志)

说明 背景&#xff1a;记录系统接口日志入库&#xff0c;包含接口方法、入参、回参、响应时间、操作人、操作时间等信息。 方案&#xff1a;添加自定义切面处理 一、自定义切面注解 package com.gstanzer.supervise.annotation;import com.gstanzer.supervise.enums.Busine…

中宣部防沉迷系统PHP版本(管局防沉迷验证-PHP-全版本-接口测试样例)

现在对接游戏&#xff0c;无论是登录还是支付都是要去对接防沉迷实名认证接口&#xff0c;但前期的话你要登录网络游戏防沉迷实名认证系统进行接口测试&#xff0c;$appid &#xff0c;$bizId&#xff0c;$key去接口测试页面找&#xff08;正式上线在密钥管理&#xff09;&…

【LeetCode每日一题】2864. 最大二进制奇数

一.题目要求 给你一个 二进制 字符串 s &#xff0c;其中至少包含一个 ‘1’ 。 你必须按某种方式 重新排列 字符串中的位&#xff0c;使得到的二进制数字是可以由该组合生成的 最大二进制奇数 。 以字符串形式&#xff0c;表示并返回可以由给定组合生成的最大二进制奇数。 注…

基于jsp+mysql+Spring+mybatis的SSM汽车保险理赔管理系统设计和实现

基于jspmysqlSpringmybatis的SSM汽车保险理赔管理系统设计和实现 博主介绍&#xff1a;多年java开发经验&#xff0c;专注Java开发、定制、远程、文档编写指导等,csdn特邀作者、专注于Java技术领域 作者主页 央顺技术团队 Java毕设项目精品实战案例《1000套》 欢迎点赞 收藏 ⭐…

vue3速查笔记

文章目录 一、创建Vue3.0工程1.使用 vue-cli 创建2.使用 vite 创建 二、常用 Composition API1.拉开序幕的setup2.ref函数3.reactive函数4.Vue3.0中的响应式原理vue2.x的响应式Vue3.0的响应式 5.reactive对比ref6.setup的两个注意点7.计算属性与监视1.computed函数2.watch函数3…

find_package 总结

本文参考&#xff1a;“轻松搞定CMake”系列之find_package用法详解 原理 find_package 即在指定目录CMAKE_MODULE_PATH 或 CMAKE_PREFIX_PATH查找对应的cmake文件。 find 模式 Module模式(默认)&#xff1a;查询Findxxx.cmake配置文件, 在CMAKE_MODULE_PATH 目录Config模式…

UGUI Text 重写Spacing字体间距

using UnityEngine; using UnityEngine.UI;[AddComponentMenu("UI/Effect/UGUITextSpacing")] [RequireComponent(typeof(UnityEngine.UI.Text))]//Text组件是必须的 public class UGUITextSpacing : BaseMeshEffect {public enum HorizontalAligmentType{Left,Cente…

Linux系统运维脚本:如何检测出Linux的僵尸进程、并清除僵尸进程

目 录 一、僵尸进程的定义及其危害 1、僵尸进程的定义 2、僵尸进程的危害 二、如何检测linux的僵尸进程 1、使用Top命令&#xff1a; 2、使用ps命令&#xff1a; 三、如何清除linux的僵尸进程 1. 确保父进程正确回收子进程 2. 重启父进程 3. 使用ini…

Mysql数据库“消失”的对象校验

文章目录 一、前言二、问题三、问题排查四、解决方式1.存储过程和函数的definer&#xff1a;2.修改event的definer:3.修改view的definer&#xff1a; 五、结束语 一、前言 最近在配合系统开发商进行上线的过程中&#xff0c;遇到了一个问题&#xff0c;从这个问题上&#xff0…

[SaaS] 家作->装修设计师

淘宝设计AI&#xff0c;人人都能成为装修设计师构建用户对未来家的想象&#xff0c;是家装家居多年来持续探索的方向&#xff0c;如今我们用AI帮助用户“更快、更好、更简单”看到自己未来的家。https://mp.weixin.qq.com/s/Pk1xztEd17JefXp79FHKNA其实就是个商品白底图inpaint…

SQLiteC/C++接口详细介绍-sqlite3类(一)

快速跳转文章列表&#xff1a;SQLite—系列文章目录 上一篇&#xff1a;SQLiteC/C接口简介 下一篇&#xff1a;SQLiteC/C接口详细介绍&#xff08;二&#xff09; 引言&#xff1a; SQLite C/C 数据库接口是一个流行的SQLite库使用形式&#xff0c;它允许开发者在C和C代码中嵌…

WPF布局、控件与样式

视频来源&#xff1a;https://www.bilibili.com/video/BV1HC4y1b76v/ 布局 常用布局属性 HorizontalAlignment&#xff1a;用于设置元素的水平位置VerticalAlignment&#xff1a;用于设置元素的垂直位置Margin&#xff1a;指定元素与容器的边距Height&#xff1a;指定元素的…

如何在Flutter中实现网络请求

在Flutter中实现网络请求有很多模块&#xff0c;可以使用http模块&#xff0c;也可以使用dio模块。 具体的用法在https://pub.dev/上面有&#xff0c;我们以前的的项目中用的是Dio库&#xff0c;它支持get post put delete还支持文件的上传下载。 import ‘package:dio/dio.d…

LeetCode hot100-11

239. 滑动窗口最大值给你一个整数数组 nums&#xff0c;有一个大小为 k 的滑动窗口从数组的最左侧移动到数组的最右侧。你只可以看到在滑动窗口内的 k 个数字。滑动窗口每次只向右移动一位。返回 滑动窗口中的最大值 。我的解法会超时&#xff0c;就比最暴力解法优化了一点点吧…

如何解决awtk动态图锯齿状

打开awtk安装目录sdk->awtk->awtk_config.py,找到该位置 VGCANVAS NANOVG # VGCANVASNANOVG_PLUS if OS_NAME Windows: TK_ROOT TK_ROOT.replace(\\, \\\\) NANOVG_BACKEND GLES2 else: NANOVG_BACKEND GL3 # VGCANVASCAIRO 注释掉 # NANOVG_BACKENDGLES2 # N…

uni-app开发介绍以及代码案例

uni-app是一个使用Vue.js开发所有前端应用的框架&#xff0c;它允许开发者编写一套代码&#xff0c;然后将其发布到iOS、Android、Web&#xff08;响应式&#xff09;、以及各种小程序&#xff08;如微信、支付宝、百度等&#xff09;等多个平台。uni-app在开发者数量、案例、跨…

解决驱动开发中<stdlib.h> no such file 的问题

前言 在进行驱动开发时&#xff0c;需要使用malloc等函数&#xff0c;导入C库<stdlib.h>出现bug。 嵌入式驱动学习专栏将详细记录博主学习驱动的详细过程&#xff0c;未来预计四个月将高强度更新本专栏&#xff0c;喜欢的可以关注本博主并订阅本专栏&#xff0c;一起讨论…

LeetCode 每日一题 2024/3/4-2024/3/10

记录了初步解题思路 以及本地实现代码&#xff1b;并不一定为最优 也希望大家能一起探讨 一起进步 目录 3/4 232. 用栈实现队列3/5 1976. 到达目的地的方案数3/6 2917. 找出数组中的 K-or 值3/7 2575. 找出字符串的可整除数组3/8 2834. 找出美丽数组的最小和3/9 2386. 找出数组…

深度学习十大算法-快速掌握!

自2006年深度学习概念被提出以来&#xff0c;20年快过去了&#xff0c;深度学习作为人工智能领域的一场革命&#xff0c;已经催生了许多具有影响力的算法。那么&#xff0c;你所认为深度学习的top10算法有哪些呢&#xff1f; 以下是大力哥我心目中的深度学习top10算法&#xff…