用juniversalchardet解决爬虫乱码问题

Posted yutingliuyl

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了用juniversalchardet解决爬虫乱码问题相关的知识,希望对你有一定的参考价值。

原创文章,转载请注明。


        爬虫往往会遇到乱码问题。最简单的方法是依据http的响应信息来获取编码信息。但假设对方站点的响应信息不包括编码信息或编码信息错误,那么爬虫取下来的信息就非常可能是乱码。

       好的解决的方法是直接依据页面内容来自己主动推断页面的编码。

如Mozilla公司的firefox使用的universalchardet编码自己主动检測工具。

       juniversalchardet是universalchardet的java版本号。

源代码开源于 https://github.com/thkoch2001/juniversalchardet

       自己主动编码主要是依据统计学的方法来推断。详细原理。能够看http://www-archive.mozilla.org/projects/intl/UniversalCharsetDetection.html

       如今以Java爬虫经常使用的httpclient来解说怎样使用。看下面关键代码:

UniversalDetector encDetector = new UniversalDetector(null);
    while ((l = myStream.read(tmp)) != -1) {
        buffer.append(tmp, 0, l);
        if (!encDetector.isDone()) {
            encDetector.handleData(tmp, 0, l);
        }
    }
encDetector.dataEnd();
String encoding = encDetector.getDetectedCharset();
if (encoding != null) {
    return new String(buffer.toByteArray(), encoding);
}
encDetector.reset();
myStream.read(tmp)) 读取httpclient得到的流。我们要做的就是在读流的同一时候,运用juniversalchardet来检測编码,假设有符合特征的编码的出现,则最后可通过detector.getDetectedCharset()
能够得到编码。否则返回null。至此,检測工作结束。通过String的构造方法来进行按一定编码构建字符串。




       

以上是关于用juniversalchardet解决爬虫乱码问题的主要内容,如果未能解决你的问题,请参考以下文章

python爬虫抓取到的数据用网页打开时是乱码,怎么解决

Python 爬虫数据写入csv文件中文乱码解决以及天眼查爬虫数据写入csv

网络爬虫在爬取网页时,响应头没有编码信息...如何解决保存在本地的乱码问题?

python爬虫抓下来的网页,中间的中文乱码怎么解决

java爬虫一段话里的部分字符乱码解决

node爬虫解决网页编码为gb2312结果为乱码的方法