python 网络爬虫报错“UnicodeDecodeError: 'utf-8' codec can't decode byte 0x8b in position”解决方案(

Posted 秋华

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python 网络爬虫报错“UnicodeDecodeError: 'utf-8' codec can't decode byte 0x8b in position”解决方案(相关的知识,希望对你有一定的参考价值。

Python3.x爬虫,

发现报错“UnicodeDecodeError: ‘utf-8‘ codec can‘t decode byte 0x8b in position 1:invalid start byte”,一直在找文件的错误,最后经过网友的提示,错误原因竟然是我的报头中有一条:

 

“‘Accept-Encoding‘: ‘gzip, deflate‘”

 

这一条是我从Fiddler直接复制过来的,为什么用浏览器可以正常浏览,而用Python模仿就不行呢?

 

综合网上的解释:

 

这句话的意思是本地接收压缩格式的数据,服务器传过来压缩格式gzip的文件,而解压这种gzip文件只能用deflate算法,浏览器能够自动解压,程序却不能自动解压gzip,需要额外进行设置才行,设置方法参考https://www.crifan.com/set_accept_encoding_header_to_gzip_deflate_return_messy_code/

 

总结:写爬虫程序时候还是不要写‘Accept-Encoding‘: ‘gzip, deflate‘了,就让服务器传原始文件过来吧,不用压缩了。

 

以上是关于python 网络爬虫报错“UnicodeDecodeError: 'utf-8' codec can't decode byte 0x8b in position”解决方案(的主要内容,如果未能解决你的问题,请参考以下文章

python3网络爬虫学习——基本库的使用

Python3网络爬虫实战-21使用Urllib:处理异常

python10行代码,让你成功伪装逃过反爬虫程序

爬虫学习之-python插入mysql报错

Python爬虫报错:"HTTP Error 403: Forbidden"

python_爬虫 Scrapy 安装报错一整套处理流程