-
2022-05-07 20:14:05
本性项目从淘车网爬取数据并将爬下来的数据生成excle表格
安装 lxml和XlsxWriter库的时候飘红,从Terminal和Python interpreter安装都不行,最后试了试cmd。好像是先从cmd用清华镜像装,再从Python interpreter装,刚开始Python interpreter也装不上
# -*- codeing = utf-8 -*- # @Time : 2022/5/6 21:42 下午 # @Auther :ywx # @File : 爬虫2.py # @Software: PyCharm import requests import xlrd import xlwt from lxml import etree import xlsxwriter url='https://beijing.taoche.com/landrover/' #设置请求头 headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.127 Safari/537.36 Edg/100.0.1185.50'} #通过状态码判断网页请求是否成功 def get(uel): response = requests.get(url,headers=headers) if response.status_code==200: print("success!") else: print("false") #爬 def parse(url): response = requests.get(url, headers=headers) #定义选择器 selector = etree.HTML(response.text) name = selector.xpath('//a/span/text()') originalprice = selector.xpath('//i[@class="onepaynor"]/text()') print(name,originalprice) # for i in range(len(name)): #print(name[i], originalprice[i]) #视频课创建表格 workbook = xlsxwriter.Workbook('taoche_spider.xlsx') worksheet = workbook.add_worksheet() for i in range(len(name)): #在第i行,第1列,写入originalprice worksheet.write(i,0,name[i]) for i in range(len(originalprice)): worksheet.write(i, 1, originalprice[i]) workbook.close() get(url) parse(url)
更多相关内容 -
我是如何把python爬虫获取到的数据写入Excel的?
2021-08-18 08:50:27如何将爬虫获取的数据写入Excel,这一点我在爬虫文章几乎都是采用这种方式来进行操作的 写入Excel的目的是为了后续更加方便的使用pandas对数据进行清洗、筛选、过滤等操作。 为进一步数据研究、可视化打基础。 ...如何将爬虫获取的数据写入Excel,这一点我在爬虫文章几乎都是采用这种方式来进行操作的
写入Excel的目的是为了后续更加方便的使用pandas对数据进行清洗、筛选、过滤等操作。
为进一步数据研究、可视化打基础。
1. 自定义写入Excel
python写入Excel的方式有很多,常用的支持python操作的库有
xlsxwriter、pandas、openpyxl
今天咱们只介绍我常用到的openpyxl
1. 创建workbook
2.创建worsheet
3.数据写入sheet
4.数据写入sheet
5.保存到excel
既然说到爬虫数据写入Excel。那我们直接上爬虫案例
网页的分析和数据的爬取我们可以参考:
Python实战|腾讯招聘你干什么?python可视化告诉你
如图我们现在已经成功的将数据打印出来了,接下来我们考虑的就是如何将这些数据保存到Excel中。
前面说到我们这里使用的Python库是openpyxl来实现这一操作。
所以第一步
openpyxl的下载
或者自行下载whl文件安装
https://www.lfd.uci.edu/~gohlke/pythonlibs/
导入库
使用import导入openpyxl库,为后续方便调用,
可以使用as关键字来简写库名
import openpyxl as op
1. 创建workbook
ws = op.Workbook()
2.创建worsheet
wb = ws.create_sheet(index=0)
3. 头文件
wb.cell(row=1, column=1, value='职位名称') wb.cell(row=1, column=2, value='国家') wb.cell(row=1, column=3, value='城市') wb.cell(row=1, column=4, value='职位分类') wb.cell(row=1, column=5, value='职位更新时间') wb.cell(row=1, column=6, value='职位要求')
3.数据写入sheet
# 加入count是为了换行写入数据 count = 2 # 要写入excel的数据 post_name = job['RecruitPostName'] # 职位名称 country_name = job['CountryName'] # 国家 loc_name = job['LocationName'] # 城市 category_name = job['CategoryName'] # 职位分类 last_up_time = job['LastUpdateTime'] # 职位更新时间 responsibility = job['Responsibility'] # 职位要求 # 打印获取到的数据 print(post_name, country_name, loc_name, category_name, last_up_time, responsibility) # 将数据写入到下一行 wb.cell(row=count, column=1, value=post_name) wb.cell(row=count, column=2, value=country_name) wb.cell(row=count, column=3, value=loc_name) wb.cell(row=count, column=4, value=category_name) wb.cell(row=count, column=5, value=last_up_time) wb.cell(row=count, column=6, value=responsibility) # count加1,进入到下一行写入数据 count += 1
4.保存excel
# 保存数据 ws.save('腾讯职位.xlsx')
四步走轻松将你的数据写入到Excel
还有更多的表头、边框、颜色设置等在此不再赘述哈
有需要的可自行百度哈。
2. 函数式写入Excel
import openpyxl as op id = [1, 2, 3] name = ['张三', '李四', '王五'] age = [21, 20, 122] address = ['北京', '上海', '广州'] infos = [id, name, age, address] def op_toexcel(data): # openpyxl库储存数据到excel wb = op.Workbook() # 创建工作簿对象 ws = wb['Sheet'] # 创建子表 ws.append(['序号', '姓名', '年龄', '住址']) # 添加表头 for i in range(len(data[0])): d = data[0][i], data[1][i], data[2][i], data[3][i] ws.append(d) # 每次写入一行 wb.save('测试.xlsx')
3. pandas写入Excel
id = [1, 2, 3] name = ['张三', '李四', '王五'] age = [21, 20, 122] address = ['北京', '上海', '广州'] infos = [id, name, age, address] # pandas库储存数据到excel def pd_toexcel(data): # 用字典设置DataFrame所需数据 dfData = { '序号': data[0], '姓名': data[1], '年龄': data[2], '住址': data[3] } # 创建DataFrame df = pd.DataFrame(dfData) # 存表,去除原始索引列(0,1,2...) df.to_excel('测试.xlsx', index=False)
如有不足之处,烦请大佬们不吝赐教。及时指正。一起进步!
-
Python 实战: 爬虫抓取网站数据 处理后存入Excel表_爬虫编程
2020-12-30 16:13:031.python 爬虫技术selenium和requests 2.python Excel表格处理 3.http请求的分析 4.python如何处理Json数据 处理办法:python 在网站爬取所有要素,程序中加入判断规则,输出成Excel表格。原来3天的工作量,现在1... -
python爬虫——爬取数据导入excel表
2020-07-25 19:31:04创建完成后,将数据导入到excel表中 【完整代码】 from bs4 import BeautifulSoup #解析网页 import re #正则表达式,进行文字匹配 import urllib.request,urllib.error #制定url,获取网页数据 import xlwt #进行...1、导入第三方库
requests库、re、html、xlwt
from bs4 import BeautifulSoup #解析网页 import re #正则表达式,进行文字匹配 import urllib.request,urllib.error #制定url,获取网页数据 import xlwt #进行excel操作 import sqlite3 #进行SQLite数据库操作
2、申请访问网页
def askURL(url): head = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.116 Safari/537.36" } #伪装成网页的形式,请求网页信息 request = urllib.request.Request(url,headers=head) html = "" try: response = urllib.request.urlopen(request) html = response.read().decode("utf-8") #print(html) except urllib.error.URLError as e: if hasattr(e,"code"): print(e.code) if hasattr(e,"reason"): print(e.reason) return html
url:想要爬取的网址
User-Agent获取方法:
3、获取数据(正则表达式)
#电影链接 findLink = re.compile(r'<a href="(.*?)">') #封面图片 findImgSrc = re.compile(r'<img.*src="(.*?)".*>',re.S) #电影名称 findTitle = re.compile(r'<span class="title">(.*)</span>') #评分 findRating = re.compile(r'<span class="rating_num" property="v:average">(.*)</span>') #评价人数 findJudge = re.compile(r'<span>(\d*)人评价</span>') #概况 findInq = re.compile(r'<span class="inq">(.*)</span>') #电影详细内容 findBd = re.compile(r'<p class="">(.*?)</p>',re.S)
通过查看网页源代码,找出要获取数据的“格式”,用正则表达式来获取数据
(.*?)是要获取的数据,不加括号则无法获取4、创建excel表
book = xlwt.Workbook(encoding="utf-8",style_compression=0) sheet = book.add_sheet('豆瓣电影Top250',cell_overwrite_ok=True) book.save('豆瓣电影Top250.xls')
创建完成后,将数据导入到excel表中
【完整代码】
from bs4 import BeautifulSoup #解析网页 import re #正则表达式,进行文字匹配 import urllib.request,urllib.error #制定url,获取网页数据 import xlwt #进行excel操作 import sqlite3 #进行SQLite数据库操作 def main(): baseurl = "https://movie.douban.com/top250?start=" #爬取网页 datalist = getData(baseurl) #保存数据 savepath = "豆瓣电影Top250.xls" saveData(datalist,savepath) #电影链接 findLink = re.compile(r'<a href="(.*?)">') #封面图片 findImgSrc = re.compile(r'<img.*src="(.*?)".*>',re.S) #电影名称 findTitle = re.compile(r'<span class="title">(.*)</span>') #评分 findRating = re.compile(r'<span class="rating_num" property="v:average">(.*)</span>') #评价人数 findJudge = re.compile(r'<span>(\d*)人评价</span>') #概况 findInq = re.compile(r'<span class="inq">(.*)</span>') #电影详细内容 findBd = re.compile(r'<p class="">(.*?)</p>',re.S) #爬取网页 def getData(baseurl): datalist = [] for i in range(0,10): url = baseurl + str(i*25) html = askURL(url) #逐一解析数据 soup = BeautifulSoup(html,"html.parser") for item in soup.find_all('div',class_="item"): #print(item) data = [] item = str(item) Link = re.findall(findLink,item)[0] data.append(Link) ImgSrc = re.findall(findImgSrc,item)[0] data.append(ImgSrc) Title = re.findall(findTitle,item) if len(Title)==2: ctitle = Title[0] data.append(ctitle) otitle = Title[1].replace("/","") data.append(otitle) else: data.append(Title[0]) data.append(' ') Rating = re.findall(findRating,item)[0] data.append(Rating) Judge = re.findall(findJudge,item)[0] data.append(Judge) Inq = re.findall(findInq,item) if len(Inq) !=0: Inq = Inq[0].replace("。","") data.append(Inq) else: data.append(" ") Bd = re.findall(findBd,item)[0] Bd = re.sub('<br(\s+)?/>(\s+)?'," ",Bd) data.append(Bd.strip()) datalist.append(data) #把处理好的一个电影信息存储到datalist中 #解析网页 return datalist #获取指定一个网页内容 def askURL(url): head = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.116 Safari/537.36" } #伪装成网页的形式,请求网页信息 request = urllib.request.Request(url,headers=head) html = "" try: response = urllib.request.urlopen(request) html = response.read().decode("utf-8") #print(html) except urllib.error.URLError as e: if hasattr(e,"code"): print(e.code) if hasattr(e,"reason"): print(e.reason) return html #保存数据 def saveData(datalist,savepath): print("save....") book = xlwt.Workbook(encoding="utf-8",style_compression=0) sheet = book.add_sheet('豆瓣电影Top250',cell_overwrite_ok=True) col = ("电影详情链接","封面链接","影片中文名","影片外国名","评分","评价数","概况","相关信息","") for i in range(0,8): sheet.write(0,i,col[i]) for i in range(0,250): print("第%d条"%(i+1)) data = datalist[i] for j in range(0,8): sheet.write(i+1,j,data[j]) book.save('豆瓣电影Top250.xls') main() print("爬取完毕")
【运行结果】
-
python爬虫-20-python如何操作excel,在excel中读取和写入数据
2022-06-12 18:55:381、介绍本身是有很多功能的,比如说格式调试,图表展示,公式计算等内容,但是对于我们在爬虫中,我们关注的仅仅是纯数据,其他的格式内容,咱们暂时不提。我们使用操作的时候,我们要使用两个模块,分别是和,下面...Excel
是Microsoft
为使用Windows
和Apple Macintosh
操作系统的电脑编写的一款电子表格软件。直观的界面、出色的计算功能和图表工具,再加上成功的市场营销,使Excel
成为最流行的个人计算机数据处理软件。在1993
年,作为Microsoft Office
的组件发布了5.0版之后,Excel
就开始成为所适用操作平台上的电子制表软件的霸主。1、介绍
excel
本身是有很多功能的,比如说格式调试,图表展示,公式计算等内容,但是对于我们在python
爬虫中,我们关注的仅仅是纯数据,其他的格式内容,咱们暂时不提。我们使用
python
操作excel
的时候,我们要使用两个模块,分别是xlrd
和xlwt
,下面我们就分别使用python
下的pip
命令来安装下这两个模块。2、安装
pip install xlrd=1.2.0 -i https://pypi.tuna.tsinghua.edu.cn/simple pip install xlwt -i https://pypi.tuna.tsinghua.edu.cn/simple
3、python读取excel表格
3.1 创建测试文件
首先我们先创建一个名字为
ceshi.xlsx
的测试文件,以供我们使用,文件如下:3.2 读取
excel
中所有sheet
的信息在这里有好几种方式,我们分别来尝试下;
(1)获取所有的
sheet
import xlrd Workbook = xlrd.open_workbook('ceshi.xlsx') Sheet_Names = Workbook.sheet_names() print(Sheet_Names)
运行结果如下:
['汇总', '姓名', '年龄', '地区', '出生年月', '爱好']
(2)根据索引获取
sheet
import xlrd Workbook = xlrd.open_workbook('ceshi.xlsx') Sheet_Names = Workbook.sheet_by_index(0) print(Sheet_Names.name)
运行结果如下:
汇总
从上面我们可以看到,我们根据索引为“0”,获取到了第一个
sheet
,那么同理,要获取第二个sheet
的话,我们是不是应该配置索引为“1”即可;(3)根据名字获取
sheet
import xlrd Workbook = xlrd.open_workbook('ceshi.xlsx') Sheet_Name = Workbook.sheet_by_name('出生年月') print(Sheet_Name.name)
运行结果如下:
出生年月
(4)获取所有
sheet
对象import xlrd Workbook = xlrd.open_workbook('ceshi.xlsx') Sheet_Names = Workbook.sheets() print(Sheet_Names) for i in Sheet_Names: print(i.name)
运行结果如下:
[<xlrd.sheet.Sheet object at 0x000001554E142E20>, <xlrd.sheet.Sheet object at 0x000001554E142F10>, <xlrd.sheet.Sheet object at 0x000001554E142F40>, <xlrd.sheet.Sheet object at 0x000001554E142F70>, <xlrd.sheet.Sheet object at 0x000001554E151A60>, <xlrd.sheet.Sheet object at 0x000001554E131DC0>] 汇总 姓名 年龄 地区 出生年月 爱好
3.3 获取该
sheet
中的行数和列数import xlrd WorkBook = xlrd.open_workbook('ceshi.xlsx') Sheet_Name = WorkBook.sheet_by_name('汇总') print("名字为{}的sheet中,一共有{}行".format(Sheet_Name.name, Sheet_Name.nrows)) print("名字为{}的sheet中,一共有{}列".format(Sheet_Name.name, Sheet_Name.ncols))
运行结果如下:
名字为汇总的sheet中,一共有9行 名字为汇总的sheet中,一共有5列
4、使用python获取excel中指定单元格的数据
Cell
就表示单元格,单元格也就是excel
中的最小单位,一个个小格子就是单元格。且,在
python
中,每一行和列都是从0开始,从左上角依次类推+1
的。4.1 获取指定行和列的
cell
对象方法:
sheet.cell(row,col)
示例代码:
import xlrd Workbook = xlrd.open_workbook('ceshi.xlsx') Sheet_Name = Workbook.sheet_by_index(0) print(Sheet_Name.cell(0, 1)) # 获取第0行,第1列的数据,也就是B1单元格的数据
运行结果如下:
text:'年龄'
4.2 获取指定行的某几列的
cell
对象方法:
sheet.row_slice(row,start_col,end_col)
示例代码:
import xlrd Workbook = xlrd.open_workbook('ceshi.xlsx') Sheet_Name = Workbook.sheet_by_index(0) print(Sheet_Name.row_slice(1, 0, 5)) # 获取第一行的0-5列之间的,不包括第5列
运行结果如下:
[text:'张三', number:18.0, text:'北京', xldate:36526.0, text:'吃饭']
4.3 获取指定列的某几行的
cell
对象方法:
sheet.col_slice(col,start_row,end_row)
示例代码如下:
import xlrd Workbook = xlrd.open_workbook('ceshi.xlsx') Sheet_Name = Workbook.sheet_by_index(0) print(Sheet_Name.col_slice(0, 0, 5)) # 获取第0列的,0-5行之间的数据,不包括第5行
运行结果如下:
[text:'姓名', text:'张三', text:'李四', text:'王五', text:'赵六']
4.4 获取指定行和列的值
方法:
sheet.cell_value(row,col)
示例代码如下:
import xlrd Workbook = xlrd.open_workbook('ceshi.xlsx') Sheet_Name = Workbook.sheet_by_index(0) print(Sheet_Name.cell_value(1, 2)) # 获取第1行,第二列的单元格的数据,即C2的数据
运行结果如下:
北京
4.5 获取指定行的某几列的值
方法:
sheet.row_values(row,start_col,end_col)
剩余内容请转至VX公众号 “运维家” ,回复 “181” 查看。
------ “运维家” ,回复 “181” ------
------ “运维家” ,回复 “181” ------
------ “运维家” ,回复 “181” ------
linux系统下,mknodlinux,linux目录写权限,大白菜能安装linux吗,linux系统创建文件的方法,领克linux系统怎么装软件,linux文本定位;
ocr识别linux,linux锚定词尾,linux系统使用记录,u盘有linux镜像文件,应届生不会Linux,linux内核64位,linux自启动管理服务;
linux计算文件夹大小,linux设备名称有哪些,linux能用的虚拟机吗,linux系统进入不了命令行,如何创建kalilinux,linux跟so文件一样吗。 -
使用python爬取网站数据并写入到excel中
2022-03-01 17:03:14文章目录前言一、使用python爬取网上数据并写入到excel中例子一:例子二:二、工具类总结 前言 记录一下使用python将网页上的数据写入到excel中 一、使用python爬取网上数据并写入到excel中 要爬取数据的网站: ... -
Python爬虫获取豆瓣电影并写入excel
2020-09-16 11:06:43主要介绍了Python爬虫获取豆瓣电影并写入excel ,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下 -
Python 爬虫数据写入csv文件中文乱码解决以及天眼查爬虫数据写入csv
2021-09-20 10:50:31python爬虫数据写入csv文件中文乱码,用’utf-8‘在pycharm中打开文件没有问题,但是用excel打开却出现了问题,以下为解决方法。 (最近在练习爬虫,这个博文是对自己学习的记录和分享,如果有问题,非常感谢各路... -
python制作爬虫并将抓取结果保存到excel中
2020-12-23 18:50:29学习Python也有一段时间了,各种理论知识大体上也算略知一二了,今天就进入实战演练:通过Python来编写一个拉勾网薪资调查的小爬虫。 第一步:分析网站的请求过程 我们在查看拉勾网上的招聘信息的时候,搜索Python,... -
Python爬虫写入excel数据内容不完整有空白行
2020-04-21 21:57:11excel上图: 爬虫跑的结果,上图: 那么问题出现了,每一组数据都确定是爬下来的,为什么单单这几行没有呢?百度没有看到任何相似问题,只好自己写了。观察发现,这几组数据是不完整的,少了一列,但是我们想要的... -
Python爬虫练习(3)——将数据导入excel表格
2020-11-30 11:09:09通过python爬虫抓取下来的数据要怎么存储呢,当然,把数据存储在txt文本中是一个不错的主意,但是,有事为了更加清晰的分析数据,可以将之存储在excel表格中,我之前是先将数据存储在txt文本中,然后再转存到excel中... -
python 爬虫+写入excel 小案例
2020-05-27 15:59:41xlwt 此库只能用来创建写入新的excel 表 import requests from bs4 import BeautifulSoup from openpyxl import load_workbook import xlwt headers = { "User-Agent": "Mozilla/5.0 (iPhone; CPU iPhone OS 13_2... -
python爬虫写入excel
2021-06-10 04:43:50python爬虫数据怎么排列好后存储到本地excel爬虫我也是接触了1个月,从python小白到现在破译各种反爬虫机制,我给你说说我的方向:学习使用解析网页的函数,例如: import urllib.request if __name__ == '__main__'... -
Python实现数据写入 Excel 的三种模块!
2020-12-21 09:58:24本文说明如何使用 xlsxwriter、pandas、openpyxl 三个库来实现数据写入 Excel,写入后的格式如下图所示: 以下为数据用例: import xlsxwriter as xw import pandas as pd import openpyxl as op "-------------... -
Python简单爬虫+excel数据分析(绘制数据图、排序、查找指定数据)
2021-12-05 16:57:21是否想用python实现处理excel数据?听我一一为你道来 所用到的模块有: import pandas as pd#数据分析 import xlrd#对爬取的excel进行查取与搜索 from pylab import * mpl.rcParams['font.sans-serif'] = ['SimHei'... -
用python包xlwt将数据写入Excel中
2020-12-10 15:23:16一般用两种格式的数据写入,不多说放上demo。1、列表形式写入import xlwtdef data_write(file_path, datas):f = xlwt.Workbook()sheet1 = f.add_sheet(u'sheet1',cell_overwrite_ok=True) #创建sheettitle = [] #... -
Python爬虫爬数据写入到EXCEL中
2020-11-24 03:56:11Python抓数据写到EXCEL中。以前都是写到txt中然后再导入到excel。现在直接写到excel中。#coding=utf-8import xlwtimport requestsfrom bs4 import BeautifulSoupimport sysreload(sys)sys.setdefaultencoding('utf8'... -
Python 爬虫并且将数据写入Excel
2020-12-16 14:34:57今天这里展示了一个简单的爬虫程序,并且对数据进行读取分析,最后写入Excel文件。难点在于分析HTML代码上,最起码您得看得懂HTML代码。requests库requests库功能很强大,这里我们需要用到它都只是我们给它一个网址... -
利用Python爬取的数据存入Excel表格
2019-10-09 14:54:16分析要爬取的内容的网页结构: demo.py: ...from openpyxl import workbook # 写入Excel表所用 from openpyxl import load_workbook # 读取Excel表所用 from bs4 import BeautifulSoup as bs ... -
Python--爬虫爬取的数据保存到excel
2021-03-13 15:38:51 利用python库xlwt将抽取的数据datalist写入excel表格,分四步: 以utf-8编码创建一个excel对象 创建一个sheet表 往单元格写入内容 保存表格 二、python3.9没有自带的xlwt模块和xlrd,需要自行下载 Win+R,输入... -
Python爬取豆瓣top250电影数据,并导入MySQL,写入excel
2020-12-21 22:10:03Python爬取豆瓣top250电影数据,并导入MySQL,写入excel 具体数据:电影链接、电影名称、电影评分、评分人数、电影概括 import pymysql import xlwt from bs4 import BeautifulSoup from urllib import request ... -
将Python爬虫结果保存到Excel
2020-07-06 13:00:36将Python爬虫结果保存到Excel -
完整python爬取网页数据写入excel保存xlsx格式
2021-09-02 20:57:15updating=False #以此写入数据 for i in range(len(data)): title=data[i]["title"] url=data[i]["url"] telphone=data[i]["telphone"] new_worksheet.cells[i,0].value=title new_worksheet.cells[i,1].value=url ... -
python爬虫数据excel保存
2018-11-26 20:33:541.excel格式的保存 import xlwt # 创建一个工作表的对象 workbook = xlwt.Workbook(encoding="...# 往表格里边填充数据 # 参数 第一个参数行号,第二个参数列 sheet.write(0,0,"姓名") sheet.write(... -
Python爬取数据并写入MySQL数据库的实例
2020-12-25 16:20:21首先我们来爬取 .../usr/bin/env python # coding=utf-8 import requests from bs4 import BeautifulSoup import MySQLdb print('连接到mysql服务器...') db = MySQLdb.connect("localhost", -
Python 教程:从 Python 爬虫到数据分析
2022-05-07 17:07:49数据分析是 Python 编程广泛应用的领域之一,数据分析员借助 Python 语法简单明晰、应用范围广泛的特性,通过爬虫、整合数据等多样化的依赖与函数,进一步提高数据分析的能力与效率。在这篇教程中,同学将整合之前所... -
Python利用get、post请求爬取数据并写入Excel表格
2021-11-15 19:44:011、获取“新书推荐模块”中设计类相关图书的基本信息(...一、python将数据写入Excel表格 将数据写入Excel表格利用的是openpyxl,直接pip install openpyxl即可安装 #创建工作簿 book = Workbook() #激活worksheet