一、相关网站
二、相关代码
import requests
from lxml import etree
import csv
with open('拉钩Python岗位数据.csv', 'w', newline='', encoding='utf-8') as csvfile:fieldnames = ['公司', '规模','岗位','地区','薪资','经验要求']writer = csv.DictWriter(csvfile, fieldnames=fieldnames)writer.writeheader()for page in range(1,31):# url = 'https://www.lagou.com/wn/zhaopin?fromSearch=true&kd=python&city=%E5%85%A8%E5%9B%BD'url = f'https://www.lagou.com/wn/zhaopin?fromSearch=true&kd=python&pn={page}'headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'}data = {'fromSearch':'true','kd':'python','city':'全国'}response = requests.post(url=url,data=data,headers=headers)# print(response.text)result = etree.HTML(response.text)company = result.xpath('//div[@class="company-name__2-SjF"]/a/text()')scale = result.xpath('//div[@class="industry__1HBkr"]/text()')post = result.xpath('//div[@class="p-top__1F7CL"]/a/text()[1]')location = result.xpath('//div[@class="p-top__1F7CL"]/a/text()[2]')salt = result.xpath('//div[@class="p-bom__JlNur"]/span/text()')suffer = result.xpath('//div[@class="p-bom__JlNur"]/text()[1]')# print(company,scale,post,location,salt,suffer)for com, sca, pos, loc, sal,suf in zip(company, scale, post, location, salt,suffer):print(f'{com} ====== {sca} ====== {pos} ====== {loc} ===== {sal} ===== {suf}')writer.writerow({'公司': com, '规模': sca, '岗位': pos, '地区': loc, '薪资': sal,'经验要求':suf})
三、获取的结果
版权声明和免责声明 本博客提供的所有爬虫代码和相关内容(以下简称“内容”)仅供参考和学习之用。任何使用或依赖这些内容的风险均由使用者自行承担。我(博客所有者)不对因使用这些内容而产生的任何直接或间接损失承担责任。 严禁将本博客提供的爬虫代码用于任何违法、不道德或侵犯第三方权益的活动。使用者应当遵守所有适用的法律法规,包括但不限于数据保护法、隐私权法和知识产权法。 如果您选择使用本博客的爬虫代码,您应当确保您的使用行为符合所有相关法律法规,并且不会损害任何人的合法权益。在任何情况下,我(博客所有者)均不对您的行为负责。 如果您对本声明有任何疑问,或者需要进一步的澄清,请通过我的联系方式与我联系。 |