爬虫:爬取腾讯疫情数据

    • 网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。
    • 今天这篇文章将通过短短的14行代码让你体验爬虫的神奇。**
  • 网页结构
  • 代码实现
  • 爬取的数据
  • 结语

网络爬虫(又称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。

今天这篇文章将通过短短的14行代码让你体验爬虫的神奇。**

网页结构

首先打开腾讯疫情网址:https://news.qq/zt2020/page/feiyan.htm?from=timeline&isappinstalled=0#/

右键检查,分析网页

找到我们需要的数据所在的网址:https://api.inews.qq/newsqa/v1/automation/foreign/country/ranklist

代码实现

找到网址,下面就是相关代码实现了。
首先导入Python相关库:
requests :网页请求,获取原始数据
json:网页解析,去除多余字符
pandas:数据处理

import requests
import json
import pandas as pd
#爬虫——爬取腾讯疫情实时数据
url='https://api.inews.qq/newsqa/v1/automation/foreign/country/ranklist'
#网页请求
r=requests.get(url)
#获取原始数据
content=json.loads(r.text)
#解析数据
df=pd.DataFrame(columns=['国家和地区','确诊人数','死亡病例','治愈病例'])
#按类处理数据
for i in range(len(content['data'])):
    df.loc[i+1]=[content['data'][i]['name'],
                        content['data'][i]['confirm'],
                        content['data'][i]['dead'],
                        content['data'][i]['heal']]
df.to_csv('E://腾讯疫情数据2.csv',index=0,encoding='utf_8_sig')
#将数据保存到CSV文件
print("爬取完毕")

爬取的数据

结语

程序菜鸟一个,欢迎大家关注、批评指正,以后还会分享更多有趣的知识。

更多推荐

爬虫:爬取腾讯疫情数据