URL编码与解码
Posted gccbuaa
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了URL编码与解码相关的知识,希望对你有一定的参考价值。
比如。Url參数字符串中使用key=value键值对这种形式来传參,键值对之间以&符号分隔,如/s?q=abc&ie=utf-8。
假设你的value字符串中包括了=或者&,那么势必会造成接收Url的server解析错误。因此必须将引起歧义的&和=符号进行转义。也就是对其进行编码。
又如,Url的编码格式採用的是ASCII码。而不是Unicode,这也就是说你不能在Url中包括不论什么非ASCII字符,比如中文。
否则假设client浏览器和服务端浏览器支持的字符集不同的情况下,中文可能会造成问题。
Url编码的原则就是使用安全的字符(没有特殊用途或者特殊意义的可打印字符)去表示那些不安全的字符。
预备知识:URI是统一资源标识的意思,通常我们所说的URL仅仅是URI的一种。
典型URL的格式例如以下所看到的。以下提到的URL编码,实际上应该指的是URI编码。
foo:
//example.com:8042/over/there?
name=ferret#nose
\_/ \______________/ \________/\_________/ \__/
| | | | |
scheme authority path query fragment
RFC3986文档规定。Url中仅仅同意包括英文字母(a-zA-Z)、数字(0-9)、-_.~4个特殊字符以及全部保留字符。
RFC3986文档对Url的编解码问题做出了具体的建议,指出了哪些字符须要被编码才不会引起Url语义的转变,以及对为什么这些字符须要编码做出了对应的解释。
US-ASCII字符集中没有相应的可打印字符:Url中仅仅同意使用可打印字符。
US-ASCII码中的10-7F字节全都表示控制字符,这些字符都不能直接出如今Url中。同一时候,对于80-FF字节(ISO-8859-1),因为已经超出了US-ACII定义的字节范围。因此也不能够放在Url中。
保留字符:Url能够划分成若干个组件。协议、主机、路径等。有一些字符(:/?
#[]@)是用作分隔不同组件的。比如:冒号用于分隔协议和主机,/用于分隔主机和路径。?用于分隔路径和查询參数,等等。
另一些字符(!$&‘()*+,;=)用于在每一个组件中起到分隔作用的,如=用于表示查询參数中的键值对。&符号用于分隔查询多个键值对。当组件中的普通数据包括这些特殊字符时。须要对其进行编码。
RFC3986中指定了下面字符为保留字符:! * ‘ ( ) ; : @ & = + $ , / ? # [ ]
不安全字符:另一些字符。当他们直接放在Url中的时候,可能会引起解析程序的歧义。
这些字符被视为不安全字符。原因有非常多。
- 空格:Url在传输的过程,或者用户在排版的过程,或者文本处理程序在处理Url的过程。都有可能引入无关紧要的空格,或者将那些有意义的空格给去掉。
- 引號以及<>:引號和尖括号通经常使用于在普通文本中起到分隔Url的作用
- #:通经常使用于表示书签或者锚点
- %:百分号本身用作对不安全字符进行编码时使用的特殊字符。因此本身须要编码
- {}|\^[]`~:某一些网关或者传输代理会篡改这些字符
须要注意的是,对于Url中的合法字符。编码和不编码是等价的。可是对于上面提到的这些字符,假设不经过编码,那么它们有可能会造成Url语义的不同。
因此对于Url而言,仅仅有普通英文字符和数字,特殊字符$-_.+!*‘()还有保留字符,才干出如今未经编码的Url之中。其它字符均须要经过编码之后才干出如今Url中。
可是因为历史原因。眼下尚存在一些不标准的编码实现。比如对于~符号,尽管RFC3986文档规定,对于波浪符号~,不须要进行Url编码,可是还是有非常多老的网关或者传输代理会进行编码。
怎样对Url中的非法字符进行编码
Url编码通常也被称为百分号编码(Url Encoding,also known as percent-encoding),是由于它的编码方式很easy,使用%百分号加上两位的字符——0123456789ABCDEF——代表一个字节的十六进制形式。
Url编码默认使用的字符集是US-ASCII。比如a在US-ASCII码中相应的字节是0x61。那么Url编码之后得到的就是%61。我们在地址栏上输入http://g.cn/search?q=%61%62%63,实际上就等同于在google上搜索abc了。又如@符号在ASCII字符集中相应的字节为0x40,经过Url编码之后得到的是%40。
对于非ASCII字符。须要使用ASCII字符集的超集进行编码得到对应的字节,然后对每一个字节运行百分号编码。
对于Unicode字符,RFC文档建议使用utf-8对其进行编码得到对应的字节,然后对每一个字节运行百分号编码。如"中文"使用UTF-8字符集得到的字节为0xE4 0xB8 0xAD 0xE6 0x96 0x87,经过Url编码之后得到"%E4%B8%AD%E6%96%87"。
假设某个字节相应着ASCII字符集中的某个非保留字符。则此字节无需使用百分号表示。比如"Url编码",使用UTF-8编码得到的字节是0x55 0x72 0x6C 0xE7 0xBC 0x96 0xE7 0xA0 0x81,因为前三个字节相应着ASCII中的非保留字符"Url",因此这三个字节能够用非保留字符"Url"表示。终于的Url编码能够简化成"Url%E7%BC%96%E7%A0%81" ,当然,假设你用"%55%72%6C%E7%BC%96%E7%A0%81"也是能够的。
因为历史的原因,有一些Url编码实现并不全然遵循这种原则,以下会提到。
javascript中的escape, encodeURI和encodeURIComponent的差别
Javascript中提供了3对函数用来对Url编码以得到合法的Url,它们各自是escape / unescape, encodeURI / decodeURI和encodeURIComponent / decodeURIComponent。
因为解码和编码的过程是可逆的。因此这里仅仅解释编码的过程。
这三个编码的函数——escape,encodeURI。encodeURIComponent——都是用于将不安全不合法的Url字符转换为合法的Url字符表示,它们有下面几个不同点。
安全字符不同:
以下列出了这三个函数的安全字符(即函数不会对这些字符进行编码)
- escape(69个):*/@+-._0-9a-zA-Z
- encodeURI(82个):!#$&‘()*+,/:;=?
@-._~0-9a-zA-Z
- encodeURIComponent(71个):!‘()*-._~0-9a-zA-Z
兼容性不同:escape函数是从Javascript 1.0的时候就存在了,其它两个函数是在Javascript 1.5才引入的。可是因为Javascript 1.5已经很普及了。所以实际上使用encodeURI和encodeURIComponent并不会有什么兼容性问题。
对Unicode字符的编码方式不同:这三个函数对于ASCII字符的编码方式同样,均是使用百分号+两位十六进制字符来表示。可是对于Unicode字符,escape的编码方式是%uxxxx,当中的xxxx是用来表示unicode字符的4位十六进制字符。这样的方式已经被W3C废弃了。可是在ECMA-262标准中仍然保留着escape的这样的编码语法。encodeURI和encodeURIComponent则使用UTF-8对非ASCII字符进行编码。然后再进行百分号编码。
这是RFC推荐的。因此建议尽可能的使用这两个函数替代escape进行编码。
适用场合不同:encodeURI被用作对一个完整的URI进行编码,而encodeURIComponent被用作对URI的一个组件进行编码。从上面提到的安全字符范围表格来看,我们会发现,encodeURIComponent编码的字符范围要比encodeURI的大。
我们上面提到过,保留字符通常是用来分隔URI组件(一个URI能够被分割成多个组件,參考预备知识一节)或者子组件(如URI中查询參数的分隔符)。如:号用于分隔scheme和主机。?号用于分隔主机和路径。因为encodeURI操纵的对象是一个完整的的URI,这些字符在URI中本来就有特殊用途,因此这些保留字符不会被encodeURI编码。否则意义就变了。
组件内部有自己的数据表示格式,可是这些数据内部不能包括有分隔组件的保留字符,否则就会导致整个URI中组件的分隔混乱。因此对于单个组件使用encodeURIComponent,须要编码的字符就很多其它了。
表单提交
当html的表单被提交时,每一个表单域都会被Url编码之后才在被发送。因为历史的原因,表单使用的Url编码实现并不符合最新的标准。比如对于空格使用的编码并非%20。而是+号。假设表单使用的是Post方法提交的,我们可以在HTTP头中看到有一个Content-Type的header。值为application/x-www-form-urlencoded。大部分应用程序均能处理这样的非标准实现的Url编码,可是在clientJavascript中。并没有一个函数可以将+号解码成空格。仅仅能自己写转换函数。还有,对于非ASCII字符。使用的编码字符集取决于当前文档使用的字符集。
比如我们在Html头部加上
<meta http-equiv="Content-Type" content="text/html; charset=gb2312" />
这样浏览器就会使用gb2312去渲染此文档(注意,当HTML文档中没有设置此meta标签,则浏览器会依据当前用户喜好去自己主动选择字符集,用户也能够强制当前站点使用某个指定的字符集)。
当提交表单时,Url编码使用的字符集就是gb2312。
之前在使用Aptana(为什么专指aptana以下会提到)遇到一个非常迷惑的问题,就是在使用encodeURI的时候,发现它编码得到的结果和我想的非常不一样。以下是我的演示样例代码:
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"> <html xmlns="http://www.w3.org/1999/xhtml"> <head> <meta http-equiv="Content-Type" content="text/html; charset=gb2312" /> </head> <body> <script type="text/javascript"> document.write(encodeURI("中文")); </script> </body> </html>
执行结果输出%E6%B6%93%EE%85%9F%E6%9E%83。显然这并非使用UTF-8字符集进行Url编码得到的结果(在Google上搜索"中文"。Url中显示的是%E4%B8%AD%E6%96%87)。
所以我当时就非常质疑,难道encodeURI还跟页面编码有关,可是我发现,正常情况下。假设你使用gb2312进行Url编码也不会得到这个结果的才是。后来最终被我发现,原来是页面文件存储使用的字符集和Meta标签中指定的字符集不一致导致的问题。
Aptana的编辑器默认情况下使用UTF-8字符集。也就是说这个文件实际存储的时候使用的是UTF-8字符集。可是由于Meta标签中指定了gb2312。这个时候,浏览器就会依照gb2312去解析这个文档,那么自然在"中文"这个字符串这里就会出错,由于"中文"字符串用UTF-8编码过后得到的字节是0xE4 0xB8 0xAD 0xE6 0x96 0x87,这6个字节又被浏览器拿gb2312去解码,那么就会得到另外三个汉字"涓枃"(GBK中一个汉字占两个字节)。这三个汉字在传入encodeURI函数之后得到的结果就是%E6%B6%93%EE%85%9F%E6%9E%83。因此。encodeURI使用的还是UTF-8,并不会受到页面字符集的影响。
对于包括中文的Url的处理问题。不同浏览器有不同的表现。比如对于IE。假设你勾选了高级设置"总是以UTF-8发送Url",那么Url中的路径部分的中文会使用UTF-8进行Url编码之后发送给服务端,而查询參数中的中文部分使用系统默认字符集进行Url编码。为了保证最大互操作性,建议所有放到Url中的组件所有显式指定某个字符集进行Url编码,而不依赖于浏览器的默认实现。
另外,非常多HTTP监视工具或者浏览器地址栏等在显示Url的时候会自己主动将Url进行一次解码(使用UTF-8字符集)。这就是为什么当你在Firefox中訪问Google搜索中文的时候。地址栏显示的Url包括中文的缘故。但实际上发送给服务端的原始Url还是经过编码的。
你能够在地址栏上使用Javascript訪问location.href就能够看出来了。
在研究Url编解码的时候千万别被这些假象给迷惑了。
以上是关于URL编码与解码的主要内容,如果未能解决你的问题,请参考以下文章