python爬有道翻译

Posted JDLiao

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了python爬有道翻译相关的知识,希望对你有一定的参考价值。

 

在有道翻译页面中打开开发者工具,在Headers板块找到Request URL以及相应的data。

 

import urllib.request
import urllib.parse
import json

content=input(请输入需要翻译的内容:)

#_o要去掉,否则会出先error_code:50的报错
url=http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule

data={}
#开发者工具里有,i和doctype键不可少
data[i]=content
data[from]=AUTO
data[to]=AUTO
data[smartresult]=dict
data[client]=fanyideskweb
data[salt]=15695569180611
data[sign]=5b0565493d812bc5e713b895c12d615d
data[doctype]=json
data[version]=2.1
data[keyfrom]=fanyi.web
data[action]=FY_BY_REALTTIME

#将字典类型的请求数据转化为url编码,并将编码类型转变为‘utf-8‘类型
data=urllib.parse.urlencode(data).encode(utf-8)

#向url请求data的响应结果
response=urllib.request.urlopen(url,data)

#读取返回数据内容,decode是转换返回数据的格式为str
html=response.read().decode(utf-8)

#使用json将字符串转化成字典
target=json.loads(html)

#结果在key=‘translateResult‘的三层列表的key=‘tgt‘中
print("翻译结果:%s" %(target[translateResult][0][0][tgt]))

 

  

上面这种很大可能被有道网页给识别出来不是人工在访问,而是代码在访问。

此时我们可以加个‘User-Agent’代理。通过设置User Agent来达到隐藏身份的目的,一般情况下浏览器是通过User-Agent来识别的。

 

通过调用urllib.request.Request()来设置UA。

 

class urllib.request.Request(url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None)

This class is an abstraction of a URL request.

  url should be a string containing a valid URL. 

  headers should be a dictionary #headers要为字典

 

有两种方法设置User Agent:

    1.在创建Request对象的时候,填入headers参数(包含User Agent信息),这个Headers参数要求为字典;

    2.在创建Request对象的时候不添加headers参数,在创建完成之后,使用add_header()的方法,添加headers。

import urllib.request
import urllib.parse
import json
import time


while True:
    
    content=input(请输入需要翻译的内容(输入"q!退出程序"):)

    if content==q!:
        break;

    #_o要去掉,否则会出先error_code:50的报错
    url=http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule
    
    ‘‘‘
    第一种方法
    head={}
    head[‘User-Agent‘]=‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36‘
    ‘‘‘
    
    data={}
    #开发者工具里有,i和doctype键不可少
    data[i]=content
    data[from]=AUTO
    data[to]=AUTO
    data[smartresult]=dict
    data[client]=fanyideskweb
    data[salt]=15695569180611
    data[sign]=5b0565493d812bc5e713b895c12d615d
    data[doctype]=json
    data[version]=2.1
    data[keyfrom]=fanyi.web
    data[action]=FY_BY_REALTTIME

    #将字典类型的请求数据转化为url编码,并将编码类型转变为‘utf-8‘类型
    data=urllib.parse.urlencode(data).encode(utf-8)

    ‘‘‘
    第一种方法
    req=urllib.request.Request(url,data,head)
    ‘‘‘
    #第二种方法设置User Agent
    #创建Request对象
    req=urllib.request.Request(url,data)
    req.add_header(User-Agent,Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36)

    #传入创建好的Request对象
    response=urllib.request.urlopen(req)

    #读取响应信息并解码
    html=response.read().decode(utf-8)

    #使用json将字符串转化成字典
    target=json.loads(html)

    #结果在key=‘translateResult‘的三层列表的key=‘tgt‘中
    print("翻译结果:%s" %(target[translateResult][0][0][tgt]))

    #5秒一次
    time.sleep(5)
    

 

以上是关于python爬有道翻译的主要内容,如果未能解决你的问题,请参考以下文章

反反爬实战网易有道翻译(免费即时的多语种在线翻译)

Python反编译调用有道翻译(附完整代码)

python百度翻译爬虫

Python爬虫|有道翻译(简易版)

爬有道翻译

有道词典翻译(携带请求头和post参数请求)