python爬虫爬取网页表格数据
用python爬取网页表格数据,供大家参考,具体内容如下
from bs4 import BeautifulSoup
import requests
import csv
import bs4
#检查url地址
def check_link(url):
try:
r = requests.get(url)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except:
print('无法链接服务器!!!')
#爬取资源
def get_contents(ulist,rurl):
soup = BeautifulSoup(rurl,'lxml')
trs = soup.find_all('tr')
for tr in trs:
ui = []
for td in tr:
ui.append(td.string)
ulist.append(ui)
#保存资源
def save_contents(urlist):
with open("D:/2016年中国企业500强排行榜.csv",'w') as f:
writer = csv.writer(f)
writer.writerow(['2016年中国企业500强排行榜'])
for i in range(len(urlist)):
writer.writerow([urlist[i][1],urlist[i][3],urlist[i][5]])
def main():
urli = []
url = "http://www.maigoo.com/news/463071.html"
rs = check_link(url)
get_contents(urli,rs)
save_contents(urli)
main()
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。
您可能感兴趣的文章:
- 通过抓取淘宝评论为例讲解Python爬取ajax动态生成的数据(经典)
- Python实现爬取知乎神回复简单爬虫代码分享
- python爬取网站数据保存使用的方法
- 以视频爬取实例讲解Python爬虫神器Beautiful Soup用法
- 利用Python爬取可用的代理IP
- Python使用Scrapy爬虫框架全站爬取图片并保存本地的实现代码
- python爬虫爬取快手视频多线程下载功能
- python爬取m3u8连接的视频
- python定向爬取淘宝商品价格
- python爬虫爬取淘宝商品信息(selenum+phontomjs)
赞 (0)
