当前位置: 首页 > news >正文

你第一个物流网站建设方案网站制作软件免费下载

你第一个物流网站建设方案,网站制作软件免费下载,为什么要用h5建站,深圳网站建设美橙互联python自动化爬虫实战 偶然的一次机会再次用到爬虫,借此机会记录一下爬虫的学习经历,方便后续复用。 需求:爬取网站数据并存入的csv文件中,总体分为两步 爬取网站数据存到到csv文件中 1、配置爬虫环境 1.1、下载自动化测试驱动 …

python自动化爬虫实战

偶然的一次机会再次用到爬虫,借此机会记录一下爬虫的学习经历,方便后续复用。

需求:爬取网站数据并存入的csv文件中,总体分为两步

  1. 爬取网站数据
  2. 存到到csv文件中

1、配置爬虫环境

1.1、下载自动化测试驱动

由于需要实现模拟手动点击浏览器的效果,因此笔者使用到了chromedriver.exe自动化驱动文件。这里选择谷歌浏览器相同版本的驱动。
驱动下载中心

比如:笔者浏览器为110版本,因此下载110版本的driver,因为window只有32位,因此不用犹豫直接下载chromedriver_win32.zip文件

在这里插入图片描述

1.2、下载需要的库文件

笔者这里用到了:requestseleniumbeautifulsoup4
在Setting中的Project项目下载对应的库文件
在这里插入图片描述

2、编写代码

以上爬虫环境配置完成后,接下来便可以编码了。
爬虫的基本逻辑:

  1. 配置谷歌浏览器的驱动文件和自动化测试文件
  2. 创建保存爬取数据的字典和设置读取的起始页码和结束页码
  3. 判断是否有下一页并进行等待,如果没有下一页则直接退出
  4. 解析读取到的页面信息
  5. 保存到csv文件中

根据以上的逻辑,大致就可以理解代码的意思了

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.chrome.service import Service
import csv# 1、设置自动化启动的浏览器和浏览器的驱动器
options = Options()
# 设置自己电脑的浏览器启动文件目录
options.binary_location = "C:\\Users\\wuming\\Google\\Chrome\\Application\\chrome.exe"
options.add_argument('–-incognito')
options.add_argument('--disable-infobars')
options.add_argument('--start-maximized')
# 自动化浏览器驱动器
driver = webdriver.Chrome(options=options, service=Service("D:\\chromedriver.exe"))# 2、设置爬取的网站
url = 'https://bj.zu.anjuke.com/fangyuan/'
driver.get(url)# 3、存储爬取的数据  -这里根据需要修改需要存储多少位
data = [['title', 'price', 'detail_url']]# 4、开始爬取数据
# 计数需要爬取多少数据,一页60条,5k则需要爬取10页,begin:起始页  end:结束页
begin = 1
end = 1
while True:# 4.1、等待下一页按钮出现try:next_button = WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.LINK_TEXT, '下一页 >')))except:break# 4.2、点击下一页按钮next_button.click()# 判断是否到达结束页,到达则退出if begin > end:breakbegin = begin + 1# 4.3、等待页面加载完成WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.CLASS_NAME, 'zu-itemmod')))# 4.4、解析页面数据house_list = driver.find_elements(By.CLASS_NAME, 'zu-itemmod')for house in house_list:title = house.find_element(By.TAG_NAME, 'h3').text.strip()price = house.find_element(By.TAG_NAME, 'strong').text.strip()detail_url = house.find_element(By.TAG_NAME, 'a').get_attribute('href')print(title, price, detail_url)# 4.5、向data中添加数据data.append([title, price, detail_url])driver.quit()# 5、将爬取的数据存入csv文件中
with open('D:\\wuming\\data.csv', 'w', newline='') as file:writer = csv.writer(file)for row in data:writer.writerow(row)

根据以上代码,相信大家已经可以爬取数据,至于内容的提取,则需要大家各显神通,后面会详细写一篇文章,说一说如何从爬取的网页中获取想要的信息。

http://www.khdw.cn/news/3639.html

相关文章:

  • 南宁网站制作建设百度知道网页版地址
  • 阿里云淘宝客网站建设教程自助网站建设
  • 东莞手机网站制作网站推广四个阶段
  • 潍坊建设部门管理网站深圳网站seo推广
  • 做那个免费视频网站推广seo网站
  • 帝国cms建站实例教程网络营销与直播电商专业学什么
  • 宁夏网站建设价格什么软件可以排名次
  • 公司找私人做网站表白网页制作免费网站制作
  • 纯文字排版设计网站互动营销是什么意思
  • 百度的网站收录怎么做360优化大师官方下载最新版
  • 深圳网站制作07551搜索引擎
  • 学校做网站有些什么好处免费个人网页制作
  • 公司网站的建设要注意什么网站怎么优化排名
  • sf网站怎么建设nba最新赛程
  • 网站建设费用怎么做分录今日新闻头条新闻今天
  • 网站执行速度市场营销师报名官网
  • 手机商城网站产品推广文案100字
  • 南京定制网站建设怎么收费黄金网站app视频播放画质选择
  • 品牌大气的网站设计百度客户端电脑版下载
  • 淄博免费建站seo怎么做关键词排名
  • 公司设计网站推荐搜索引擎优化的意思
  • 同个网站可以做多个外链吗怎么建个网站
  • 天津企业网站建设抚州网络推广
  • 建设公司官方网站网站seo策划
  • 泊头市建设局网站网络营销一个月能挣多少钱
  • 怎样做影视网站不侵权百度关键词价格查询软件
  • 如何创建自己的邮箱宁波专业seo服务
  • 网站如何做tag成都最好的seo外包
  • 深圳网站建设公司报价seo关键词排名点击工具
  • 可以兼职做翻译的网站或app软件开发外包