python+selenium对table表和分页处理

python+selenium编写实现爬虫过程:

  • 1.爬虫循环处理table表,
  • 2.table表分页处理,
  • 3.网页table所有内容循环处理
  • 4.获取隐藏的href超链接内容,
  • 5.所有数据本地csv保存,

代码如下:

from selenium.webdriver.chrome.options import Options
import pandas as pd
import math
from selenium import webdriver
import time
# 配置chrome的参数
options = Options()
options.add_argument('--headless')
# options.add_experimental_option('excludeSwitches', ['enable-automation']) #避开验证码
# 获取一个浏览器对象
browser = webdriver.Chrome(chrome_options=options)
browser.get("C:\\Users\\XXXX\\XXXX.html")
# 打印整个表格信息
# print(browser.find_element_by_xpath("//*[@id=\"versions-bom-layout\"]/div/div[5]/div/div/div/div[1]/table/tbody").text)
 
 
data = []  # 建立空列表存储表格信息
# 获取总页数(通过二次定位方法进行定位)
# total_pages1 = len(browser.find_element_by_class_name("pagination").find_elements_by_tag_name("li")) - 2
# print("total_pages is %s" % (total_pages1))
 
# 共有多少个组件需要提取
total_num = \
    browser.find_element_by_xpath("//*[@id=\"versions-bom-layout\"]/div/div[5]/div/div/div/div[1]/div").text.split(
        '共')[1]
print(f'total_num====::::::::{total_num}')
 
total_pages = math.ceil(int(total_num) / 100) + 1  # 每页显示100个组件, 获取总页数
print(f'total_pages====::::::::{total_pages}')
time.sleep(10)  #
 
# total_pages = len(browser.find_element_by_tag_name('select').find_element_by_tag_name('option'))
for i in range(1, total_pages):  # page:总共有total_pages-1页
    # # 获取分页输入框标签的定位
    # inputpage = browser.find_element_by_xpath("//*[@id='pager_center']/table/tbody/tr/td[5]/input")
    # # 首先清除输入框里面的数字
    # inputpage.clear()
    # # 然后发送页码,我们为了方便,就把第一页也写在了里面
    # inputpage.send_keys(str(i))
    # # 最后模拟键盘点击Enter键
    # inputpage.send_keys(Keys.ENTER)
    # # 为了是数据刷新出来,做了一个小小的死延时处理
 
    time.sleep(10)  # 让浏览器先加载一下动态页面
    t_body = browser.find_element_by_tag_name('tbody')  # 定位表格主体
    tr_list = t_body.find_elements_by_tag_name('tr')  # 定位表格每一行
    numbers = len(tr_list)
    print(f'tr_list[0].text===={tr_list[0].text}')
 
    # for i in range(numbers):
    for tr in tr_list:
        td_list = tr.find_elements_by_tag_name('td')  # 定位表格每个单元格
        lst = []  # 建立空列表存储每行信息
        for td in td_list:
            # lst.append("B-momv2core-121-anyreport-BinaryScan")  # 添加版本信息
            lst.append(td.text)  # 添加每个单元格的文本信息
            href = td_list[4].find_element_by_tag_name('a').get_attribute("href")  # 获当前行第5个td单元格的超链接
        print(u"第n行第n列的text:", href)
        lst.append(href)  # print(u"第一行第二列的text:", href)  # 添加文件链接
        data.append(lst)  # 添加每行信息
 
    # 点击下一页逻辑判断
    # 如果table只有1页,不作处理,直接退出循环
    # 如果table只有2页,点击下一页处理条件(total_pages == 3 and i == 1)
    # 如果table2页以上,点击下一页处理条件(total_pages > 3 and i < (total_pages - 1))
    if total_pages == 3 and i == 1:
        browser.find_element_by_xpath("//*[contains(text(),'下一页')]").click()
 
    elif total_pages > 3 and i < (total_pages - 1):
        browser.find_element_by_xpath("//*[contains(text(),'下一页')]").click()
 
df = pd.DataFrame(data,
                  columns=['选择', '策略', '审核', '版本组', '匹配数', '3', '4', '5', '6', '7', '8', '9', '10', '来源链接'])
df.to_csv('获取未知xxx.csv', encoding='utf_8_sig')
browser.quit()

效果图:

到此这篇关于python+selenium对table表和分页处理的文章就介绍到这了,更多相关python+selenium table表,分页处理内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • Python+Selenium自动化实现分页(pagination)处理

    场景 对分页来说,我们最感兴趣的是下面几个信息 总共有多少页 当前是第几页 是否可以上一页和下一页 代码 下面代码演示如何获取分页总数及当前页数.跳转到指定页数 #coding:utf-8 from selenium import webdriver import time driver = webdriver.Chrome() driver.get("https://segmentfault.com/news") # 获得所有分页的数量 # -2是因为要去掉上一个和下一个 total

  • python+selenium对table表和分页处理

    python+selenium编写实现爬虫过程: 1.爬虫循环处理table表, 2.table表分页处理, 3.网页table所有内容循环处理 4.获取隐藏的href超链接内容, 5.所有数据本地csv保存, 代码如下: from selenium.webdriver.chrome.options import Options import pandas as pd import math from selenium import webdriver import time # 配置chrom

  • 学习Python selenium自动化网页抓取器

    直接入正题---Python selenium自动控制浏览器对网页的数据进行抓取,其中包含按钮点击.跳转页面.搜索框的输入.页面的价值数据存储.mongodb自动id标识等等等. 1.首先介绍一下 Python selenium ---自动化测试工具,用来控制浏览器来对网页的操作,在爬虫中与BeautifulSoup结合那就是天衣无缝,除去国外的一些变态的验证网页,对于图片验证码我有自己写的破解图片验证码的源代码,成功率在85%. 详情请咨询QQ群--607021567(这不算广告,群里有好多P

  • python+selenium自动化框架搭建的方法步骤

    环境及使用软件信息 python 3 selenium 3.13.0 xlrd 1.1.0 chromedriver HTMLTestRunner 说明: selenium/xlrd只需要再python环境下使用pip install 名称即可进行对应的安装. 安装完成后可使用pip list查看自己的安装列表信息. chromedriver:版本需和自己的chrome浏览器对应,百度下载. 作用:对chrome浏览器进行驱动. HTMLTestRunner:HTMLTestRunner是Pyt

  • python selenium中Excel数据维护指南

    接着python里面的xlrd模块详解(一)中我们我们来举一个实例: 我们来举一个从Excel中读取账号和密码的例子并调用: ♦1.制作Excel我们要对以上输入的用户名和密码进行参数化,使得这些数据读取自Excel文件.我们将Excel文件命名为data.xlsx,其中有两列数据,第一列为username,第二列为password. ♦2.读取Excel代码如下 #-*- coding:utf-8 -*- import xlrd,time,sys,unittest #导入xlrd等相关模块 c

  • BootStrap Table实现server分页序号连续显示功能(当前页从上一页的结束序号开始)

    前言 在使用bootstrap table的时候难免会用到分页,分页它提供了两种方式:client客户端分页.server服务端分页两种方式. 在项目中一般是不用client分页的,一般表格数据量大,用client分页会导致缓存爆炸,所以我们选择server分页. 存在即合理,client也是可以用的(数据量特别少的时候),相对于server方式,它的分页序号是自动连续的.而server方式分页的序号就不连续的了(每一页都是从1开始,而不是从上一页的结束序号开始),本文就着重解决这个问题. 原始

  • python+selenium实现登录账户后自动点击的示例

    公司在codereview的时候限制了看代码的时间,实际上不少代码属于框架自动生成,并不需要花费太多时间看,为了达标,需要刷点时间(鼠标点击网页固定区域).我想到可以利用自动化测试的手段完成这种无效的体力劳动. 首先,明确一下需求: 自动打开网页 登陆账号 每隔一定时间点击一下固定区域 我想到的方案有两个,sikuli或者python+selenium.sikuli的优点是逻辑操作简单直接,使用图片作为标示,缺点是需要窗口固定,并且无法后台运行.selenium稍复杂一定,但是运行速度快,窗口可

  • Python+selenium实现截图图片并保存截取的图片

    这篇文章介绍如何利用Selenium的方法进行截图,在测试过程中,是有必要截图,特别是遇到错误的时候进行截图.在selenium for Python中主要有三个截图方法,我们挑选其中最常用的一种. 截图技能对于测试人员来说应该是较为重要的一个技能. 在自动化测试中,截图可以帮助我们直观的定位错误.记录测试步骤. 记得以前在给某跨国银行做自动化项目的时候,某银的PM要求我们自动化测试的每一步至少需要1个截图,以证明每个功能都被自动化测试给覆盖过,在这种情况下截图就成了证明自动化测试有效性的重要手

  • python selenium UI自动化解决验证码的4种方法

    本文介绍了python selenium UI自动化解决验证码的4种方法,分享给大家,具体如下: 测试环境 windows7+ firefox50+ geckodriver # firefox浏览器驱动 python3 selenium3 selenium UI自动化解决验证码的4种方法:去掉验证码.设置万能码.验证码识别技术-tesseract.添加cookie登录,本次主要讲解验证码识别技术-tesseract和添加cookie登录. 1. 去掉验证码 去掉验证码,直接通过用户名和密码登陆网

  • python导出hive数据表的schema实例代码

    本文研究的主要问题是python语言导出hive数据表的schema,分享了实现代码,具体如下. 为了避免运营提出无穷无尽的查询需求,我们决定将有查询价值的数据从mysql导入hive中,让他们使用HUE这个开源工具进行查询.想必他们对表结构不甚了解,还需要为之提供一个表结构说明,于是编写了一个脚本,从hive数据库中将每张表的字段即类型查询出来,代码如下: #coding=utf-8 import pyhs2 from xlwt import * hiveconn = pyhs2.connec

  • python selenium 获取标签的属性值、内容、状态方法

    获取标签内容 使用element.attribute()方法获取dom元素的内容,如: dr = driver.find_element_by_id('tooltip') dr.get_attribute('data-original-title') #获取tooltip的内容 dr.text #获取该链接的text 获取标签属性 link=dr.find_element_by_id('tooltip') link.value_of_css_property('color') #获取toolti

随机推荐