本文只介绍解决相应问题的解决思路,做技术分享,请勿滥用,否则后果自负。

前言

最近在网站看书的时候,遇到了一种iframe嵌套的网站,然后就习惯性的考虑了进行数据获取的时候应该如何解决。

分析

进入网站点击下一页发现地址栏并不发生变化,但是改变地址栏的相应页面数字的时候小说的页数能够随着变化,我觉得很大可能是ajax绑定了数据。之后打开f12审查元素,又打开网页源码进行查看网页源码进行比较,发现f12审查元素中存在一个iframe标签,在这个iframe标签中存在小说相应的数据,如下图:

之后查看源码中并不存在iframe相关的内容,只有一个form表单

如果在这个状态下直接使用requests请求网址肯定是获取不到任何数据的,因为requests获取到的就是网站的源码。如果图省事的话可以直接考虑使用selenium,只要网站上看得到的都可以使用selenium进行获取,另外也是可以考虑使用requests进行分析network中各个请求进行获取数据。下面从两个角度对该问题进行解决。

思路一:使用requests获取数据

1.分析network

如果直接请求地址栏中的url是不可能获取到小说相关的内容的。因此先从network下手,看看点击下一页之后网站的发起请求的情况。点击下一页之后发现出现三个请求,并且出现了3?t=一串数字

打开第一个文件发现里边的链接恰好就是下一个访问的链接

进入第二个链接发现里边的内容恰好就是小说内容

由此可以得出我们只要获取到第一个链接就可以得到小说的内容。

2.分析网页源码中的js部分

从1中我们得出只要能够获得链接1我们就能获取到数据,分析网页源码的目的也就是为了找到构造这个链接的js部分。首先肯定会考虑那个form表单,看看有什么用处,在里边的参数有一个${m}感觉有点像后端的EL表达式,数据是从后端传过来的。此路解决起来可能有点难度,继续看看其他的js方法,发现有一个方法里构造的url和我们在1中发现的第一个url极度相似

两个参数,一个pageIndex不用说了肯定是页码,但是这个t是什么,然后可以考虑在全局中搜索一下

发现如下

{t}仅仅是个字符,被一个方法替换了(new Date().getTime():获取时间戳),看这个方法应该是和时间有关系,那么t应该就是time的意思,然后去在线js执行一下方法

3.构造url进行访问

用上边的时间戳构造url

成功获取到信息

现在url地址栏的信息则为1中的第二个链接

4.正则匹配url

使用requests进行请求的时候,看源码发现那个url与网站源码有些出入,按照requests请求后的源码解决即可。

把中间的jsessionid相关的东西匹配出来之后替换掉

于是就匹配出来了,之后使用replace换成相应的内容就可以了

代码如下:

import requests

import re

import time

from bs4 import BeautifulSoup

user_agent ="Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"

headers = {'User-Agent': user_agent}

url="http://shuxiang.chineseall/v3/book/read/qDkFg/EPUB/1"

res=requests.get(url=url,headers=headers)

res_text=res.text

patterns='/v3/book/.+\?t={t}'#Reader Url正则匹配规则

url_true=re.findall(patterns,res_text)#对整体进行匹配

re_text=re.findall(";.*?/",url_true[0])#匹配出来jsessionid

print(re_text[0])

print(url_true[0].replace(re_text[0],"/").replace("{pageIndex}","1").replace("{t}",str(int(time.time()))))#将链接中的jsessionid除去加入pagenumber以及时间戳

newurl="http://shuxiang.chineseall"+url_true[0].replace(re_text[0],"/").replace("{pageIndex}","4").replace("{t}",str(int(time.time())))

result=requests.get(newurl,headers=headers)

print(result.text)

soup=BeautifulSoup(result.text,'lxml')

print(soup.find_all('p'))

运行结果:

思路二:使用selenium获取数据

1.找到iframe的class或者id

使用selenium中的switch_to.frame(id)就可以转达框架内进行操作

代码如下:

from selenium import webdriver

from bs4 import BeautifulSoup

from selenium.webdriver import ActionChains

b_driver = webdriver.Chrome()

url_str="http://shuxiang.chineseall/v3/book/read/OtuGg/EPUB/"

url=[url_str+str(i)for i in range(2,8)]

#actions=ActionChains(b_driver)

f=open("D:\\研究数据爬取\\datatext.txt",'a')

def getTexts(url,urla):

webdriver.Chrome()

b_driver.get(url)

b_driver.switch_to.frame('epubViewFrame')#转入iframe标签内

page=b_driver.page_source

print(page)

soup=BeautifulSoup(page,'lxml')

soup_text=soup.select('p[class="content"]')

for i in range(0,len(soup_text)):

print(soup_text[i].string)

if soup_text[i].string==None:

f.write(" ")

else:

f.write(soup_text[i].string)

f.write("\n")

f.write("*"*30+"\n")

b_driver.switch_to.window(b_driver.window_handles[-1])#使用新的标签进行访问下一个链接

b_driver.get(urla)

for i in range(1,len(url)):

if i==len(url):

break

else:

getTexts(url[i],url[i+1])

效果如下:

总结

遇到需要爬取iframe内的信息网站的时候如果不要求时间的话完全可以使用selenium来爬取就可以,任何的js或者ajax对其都没有什么作用,但是如果有$cbc以及webdriver检测的话可能selenium就不行了。requests相对麻烦一些,因为需要抓包看一下相关的链接情况。最后还是要提醒一下,写任何的爬虫都不要给网站服务器造成负担,设置合理的休眠时间。

更多推荐

python爬虫网站代码嵌套多层_网络爬虫|网页中嵌套iframe框架内容爬取的两种思路...