python爬取网页时会不会加载css,js等内容

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python爬取网页时会不会加载css,js等内容相关的知识,希望对你有一定的参考价值。

python爬取网页时,一般不会执行css渲染,也不会执行js脚本解析,只会爬取网页中的文字内容。 参考技术A 不会执行css渲染,也不会执行js脚本解析。
除非你使用Selenium或者其他的JS解释器去执行,或者操控浏览器。

python+selenium+PhantomJS爬取网页动态加载内容

一般我们使用python的第三方库requests及框架scrapy来爬取网上的资源,但是设计javascript渲染的页面却不能抓取,此时,我们使用web自动化测试化工具Selenium+无界面浏览器PhantomJS来抓取javascript渲染的页面,下面实现一个简单的爬取

环境搭建

准备工具:python3.5,selenium,phantomjs

我的电脑里面已经装好了python3.5

安装Selenium

pip3 install selenium

安装Phantomjs  

按照系统环境下载phantomjs,下载完成之后,将phantomjs.exe解压到python的script文件夹下

使用selenium+phantomjs实现简单爬虫

from selenium import webdriver


driver = webdriver.PhantomJS()
driver.get(‘http://www.baidu.com‘)   #加载网页
data = driver.page_source   #获取网页文本
driver.save_screenshot(‘1.png‘)   #截图保存
print(data)
driver.quit()

selenium+phantomjs的一些使用方法

设置请求头里的user-Agent

from selenium import webdriver
from selenium.webdriver.common.desired_capabilities import DesiredCapabilities


dcap = dict(DesiredCapabilities.PHANTOMJS)  #设置useragent
dcap[‘phantomjs.page.settings.userAgent‘] = (‘Mozilla/5.0 (Macintosh; Intel Mac OS X 10.9; rv:25.0) Gecko/20100101 Firefox/25.0 ‘)  #根据需要设置具体的浏览器信息
driver = webdriver.PhantomJS(desired_capabilities=dcap)  #封装浏览器信息
driver.get(‘http://www.baidu.com‘)   #加载网页
data = driver.page_source   #获取网页文本
driver.save_screenshot(‘1.png‘)   #截图保存
print(data)
driver.quit()

请求超时设置

webdriver类中有三个和时间相关的方法:

1.pageLoadTimeout    设置页面完全加载的超时时间,完全加载即完全渲染完成,同步和异步脚本都执行完

2.setScriptTimeout    设置异步脚本的超时时间

3.implicitlyWait         识别对象的智能等待时间

from selenium import webdriver

driver = webdriver.PhantomJS()
driver.set_page_load_timeout(5)  #设置超时时间
driver.get(‘http://www.baidu.com‘)
print(driver.title)
driver.quit()

设置浏览器窗口大小

调用启动的浏览器不是全屏的,有时候会影响我们的某些操作,所以我们可以设置全屏 

driver.maximize_window()  #设置全屏
driver.set_window_size(‘480‘,‘800‘) #设置浏览器宽480,高800  

元素定位

from selenium import webdriver

driver = webdriver.PhantomJS()
driver.set_page_load_timeout(5)
driver.get(‘http://www.baidu.com‘)
try:
    driver.get(‘http://www.baidu.com‘)
    driver.find_element_by_id(‘kw‘)  # 通过ID定位
    driver.find_element_by_class_name(‘s_ipt‘)  # 通过class属性定位
    driver.find_element_by_name(‘wd‘)  # 通过标签name属性定位
    driver.find_element_by_tag_name(‘input‘)  # 通过标签属性定位
    driver.find_element_by_css_selector(‘#kw‘)  # 通过css方式定位
    driver.find_element_by_xpath("//input[@id=‘kw‘]")  # 通过xpath方式定位
    driver.find_element_by_link_text("贴吧")  # 通过xpath方式定位
    print(driver.find_element_by_id(‘kw‘).tag_name ) # 获取标签的类型
except Exception as e:
    print(e)
driver.quit()

 操作浏览器前进或后退

from selenium import webdriver
driver = webdriver.PhantomJS()
try:
    driver.get(‘http://www.baidu.com‘)   #访问百度首页
    driver.save_screenshot(‘1.png‘)
    driver.get(‘http://www.sina.com.cn‘) #访问新浪首页
    driver.save_screenshot(‘2.png‘)
    driver.back()                           #回退到百度首页
    driver.save_screenshot(‘3.png‘)
    driver.forward()                        #前进到新浪首页
    driver.save_screenshot(‘4.png‘)
except Exception as e:
    print(e)
driver.quit()

以上是关于python爬取网页时会不会加载css,js等内容的主要内容,如果未能解决你的问题,请参考以下文章

怎么爬取网页的动态内容,很多都是js动态生

python动态爬取网页

如何用python爬取js动态生成内容的页面

怎么用python爬虫爬取可以加载更多的网页

完美解决python flask如何直接加载html,css,js,image等下载的网页模板

Python爬虫学习——使用selenium和phantomjs爬取js动态加载的网页