话说年末了,有工作的要考虑明年跳槽,没工作的要考虑明年找工作,那么都想好怎么搞了吗?
不知道怎么了解?没事,来,我们用python一键查看并分析!
1、使用的软件
python 3.8
pycharm 2021专业版 激活码
2、使用的内置模块
pprint >>> # 格式化输入模块
csv >>> # 保存csv文件
re >>> # re 正则表达式
time >>> # 时间模块
3、要安装的第三方模块
requests >>> # 数据请求模块
win + R 输入cmd 输入安装命令 pip install 模块名 ,如果出现爆红, 可能是因为网络连接超时,切换国内镜像源即可。
实在不会的话看我置顶文章
爬虫就是模拟浏览器,对于服务器发送请求,得到它返回响应的数据。
数据来源分析
首先确定目标,分析数据内容,可以从什么地方获取。
数据是通过哪个url地址发送什么请求方式,携带了那些请求头,然后得到数据(通过开发者工具进行抓包分析)
我们分析数据,是分析服务器返回数据,而不是元素面板,elements 是元素面板,前端代码渲染之后的内容。
代码实现步骤
兄弟们,最最最喜欢的环节到了,上代码。
import requests # 数据请求模块
import pprint # 格式化输入模块
import csv # 保存csv文件
import time # 时间模块
# 打开文件 等会进行保存 mode 是保存方式 a 追加写入
f = open('拉勾.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=[
'标题',
'公司名字',
'城市',
'薪资',
'经验',
'学历',
'详情页',
])
csv_writer.writeheader() # 写入表头
for page in range(1, 11):
# 1. 发送请求 字符串格式化输出 {}占位符
print(f'===================正在爬取第{page}页的数据内容===================')
time.sleep(2) # 延时2秒钟
url = 'https://www.lagou.com/jobs/v2/positionAjax.json' # 确定请求的url地址
# headers 请求头 爬虫就是模拟浏览器 对于服务器发送请求, 得到他返回响应数据
# headers 作用 伪装python代码的 把python代码伪装成浏览器 去发送请求 简单反爬一种手段
# user-agent 用户代理 浏览器的身份标识
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.93 Safari/537.36'
}
# data 请求参数, post请求 需要传递一个from data表单数据
# pycharm使用的小技巧一: 快速批量替换 选中 ctrl + R 输入正则表达式匹配规则
# pycharm使用的小技巧二: 翻译插件 可以去安装
data = {
'first': 'true',
'needAddtionalResult': 'false',
'city': '全国',
'px': 'new',
'pn': page,
'fromSearch': 'true',
'kd': 'python',
}
# 通过requests这个模块里面post请求方法 对于url地址发送请求, 并且给传递一个data请求参数, headers 请求头, 最后response变量接收
response = requests.post(url=url, data=data, headers=headers)
# <Response [200]> 放回的结果 response 对象 200 状态码 表示请求成功
# 2. 获取数据 response.json() 获取json字典数据 response.text 获取文本数据(字符串数据) response.content 二进制数据
# print(response.text)
# pprint.pprint(response.json())
# 3. 解析数据 字典数据类型, 解析数据 提取内容 可以根据键值对取值 根据冒号左边的内容, 提取冒号右边的内容
# 根据冒号左边的内容, 提取冒号右边的内容
result = response.json()['content']['positionResult']['result']
# pprint.pprint(result)
for index in result: # for循环 遍历 提取列表里面每一个元素
title = index['positionName'] # 标题
company_name = index['companyFullName'] # 公司名字
city = index['city'] # 城市
money = index['salary'] # 薪资
workYear = index['workYear'] # 经验
edu = index['education'] # 学历
href = f'https://www.lagou.com/wn/jobs/{index["positionId"]}.html'
# json.loads() 字符串数据转字典
dit = {
'标题': title,
'公司名字': company_name,
'城市': city,
'薪资': money,
'经验': workYear,
'学历': edu,
'详情页': href,
}
csv_writer.writerow(dit)
print(dit)
兄弟们觉得还行的话,记得三连哈~
版权说明 : 本文为转载文章, 版权归原作者所有 版权申明
原文链接 : https://blog.csdn.net/fei347795790/article/details/121982461
内容来源于网络,如有侵权,请联系作者删除!