快捷搜索:  汽车  科技

hexbase64urlencode编码方案对比(hexbase64urlencode编码方案对比)

hexbase64urlencode编码方案对比(hexbase64urlencode编码方案对比)Linux下gridsite-clients包实现了urlencode命令,如下:urlencode编码,看名字就知道是设计用来给url编码的,对于a-z,A-Z,0-9,.,-和_ ,urlencode都不会做任何处理原样输出,而其它字节会被编码为%xx(16进制)的形式,其中xx就是这个字节对应的hex编码。# abc这3个英文字符会被echo编码为3个字节,然后被xxd编码为6个hex字符 $ echo -n abc|xxd -ps 616263 # 解码hex数据 $ echo 616263|xxd -ps -r abcbase64编码base64编码,它将字节数据中的每6个bit使用字母(a-zA-Z)、数字(0-9)、 、/总共64个字符等效表示,故每3个字节(8bit)会被编码为4个base64中的字符。 由于数据中的字节数不一定是3的整数倍,当字节数对3求模后,多1个字节

原创:打码日记(微信公众号ID:codelogs),欢迎分享,转载请保留出处。

简介

在工作过程中,我们慢慢会了解到hex、base64、urlencode这3种常见的字节编码方案,它们是如此的熟悉,可是经常我们自己也说不清为啥要使用它们,下面我会详细解释下。

hex编码

hex编码,又称十六进制编码(也称base16),一般用于方便人们查看二进制文件内容,它将字节数据中的每4个bit使用数字(0-9)、字母(A-F)共16个字符等效表示,由于一个字节有8个bit,所以一个字节会被编码为2个hex字符,具体规则如下:

hexbase64urlencode编码方案对比(hexbase64urlencode编码方案对比)(1)

Linux中可使用xxd来做hex编解码,如下:

# abc这3个英文字符会被echo编码为3个字节,然后被xxd编码为6个hex字符 $ echo -n abc|xxd -ps 616263 # 解码hex数据 $ echo 616263|xxd -ps -r abcbase64编码

base64编码,它将字节数据中的每6个bit使用字母(a-zA-Z)、数字(0-9)、 、/总共64个字符等效表示,故每3个字节(8bit)会被编码为4个base64中的字符。 由于数据中的字节数不一定是3的整数倍,当字节数对3求模后,多1个字节时,那个字节会被编码为2个字符加2个=号(填充字符),多2个字节时,这2个字节会被编码为3个字符加1个=号(填充字符),刚好整除时,则不需要=号填充,具体规则如下:

hexbase64urlencode编码方案对比(hexbase64urlencode编码方案对比)(2)


Linux下可以使用base64这个命令做base64编解码

# 3个字母等于3个字节,所以会编码为4个base64字符,并没有=号 $ echo -n abc | base64 YWJj # 1个字节会被编码为2个base64字符,另加2个=号填充 $ echo -n a | base64 YQ== # 2个字节会被编码为3个base64字符,另加1个=号填充 $ echo -n ab|base64 YWI= # 解码base64数据 $ echo YWI= | base64 -d ab

另外,base64编码有一些常见的变种,以下3种是常见的:

  1. MimeBase64 每76个字符后会添加换行符\r\n,便于阅读。
  2. UrlBase64 由于Base64编码使用了 /两个字符,这与url命名规则冲突(/在url中是路径分隔符, 会被urldecode为空格字符),这个变种将 /这两个字符更换为- _,如下:
  3. NoPaddingBase64 由于Base64编码是对6bit进行编码,数据以8bit存储,当字节数不是3的整数倍时需要=号填充,这种方案就是去掉了=号,从上面的编码示例中也可以看出,加=号填充纯粹是为了保持base64编码字符串长度为4的整数倍,去掉=号其实不影响解析。
urlencode编码

urlencode编码,看名字就知道是设计用来给url编码的,对于a-z,A-Z,0-9,.,-和_ ,urlencode都不会做任何处理原样输出,而其它字节会被编码为%xx(16进制)的形式,其中xx就是这个字节对应的hex编码。

Linux下gridsite-clients包实现了urlencode命令,如下:

$ sudo apt install gridsite-clients $ urlencode 'a b' a b $ urlencode -d a b a b

使用python也很容易实现urlencode,可将其定义为 Linux 命名别名,方便使用,如下:

alias urlencode='python -c "import sys urllib as ul; print ul.quote_plus(sys.argv[1])"' alias urldecode='python -c "import sys urllib as ul; print ul.unquote_plus(sys.argv[1])"'

另外,不同的urlencode实现上也有些差异,比如某些urlencode会将空格编码为 (W3C标准规定),而另外一些实现中,空格会被编码为 (RFC 2396)。

注:java中的URLEncoder、javascript中的encodeURIComponent、html表单提交中的application/x-www-form-urlencode,这些都会将空格编码为 ,而一些web服务器在进行某些urldecode时会不认识 号,所以在使用这些函数进行urlencode编码时,最好将编码后的 替换为 ,如URLEncoder.encode(bytes "UTF-8").replace(" " " ")

两次urlencode解决乱码

在最开始遇到乱码问题时,在网上搜到一种 “客户端两次urlencode,服务端一次urldecode” 的乱码解决方案,并声称这样能彻底解决乱码。 然后很长一段时间我都是这样实践的,但一直不知道为什么,直到有一次我调试乱码问题调试到tomcat里面去才发现真相,原来web服务器对url都会自动做一次urldecode,urldecode后的字节使用server.xml中配置的uri-encoding字符编码转换成字符串,而如果uri-encoding这个字符编码配置与客户端使用的不同,就会出现乱码,下面用2个示例模拟一下:

  1. 客户端使用UTF-8进行一次urlencode,服务端tomcat使用uri-encoding的默认编码ISO-8859-1为例:

String sendParam = "好"; // 使用UTF-8进行urlencode,'好'编码为 好 String urlencodeSendParam = URLEncoder.encode(sendParam "UTF-8"); //....这里表示数据从客户端传至服务端 String urlencodeReceivedParam = urlencodeSendParam; // 使用ISO-8859-1进行urldecode后,好解码为乱码 好 ,注意这个解码是web服务器自动进行的 String receivedParam = URLdecoder.decode(urlencodeReceivedParam "ISO-8859-1"); // 会输出乱码 好 System.out.println(receivedParam);

  1. 如果客户端做两次urlencode,服务端做一次urldecode,过程如下:

String sendParam = "好"; // 使用UTF-8进行urlencode,'好'编码为好 String urlencodeSendParam = URLEncoder.encode(sendParam "UTF-8"); // 再使用UTF-8进行urlencode,好 编码为 %E5%A5%BD String urlencodeSendParam2 = URLEncoder.encode(urlencodeSendParam "UTF-8"); //....这里表示数据从客户端传至服务端 String urlencodeReceivedParam2 = urlencodeSendParam2; // 使用ISO-8859-1进行urldecode后,%E5%A5%BD 解码为好,注意这个解码是web服务器自动进行的 String urlencodeReceivedParam = URLDecoder.decode(urlencodeReceivedParam2 "ISO-8859-1"); // 使用UTF-8进行urldecode后,好解码为'好' String receivedParam = URLDecoder.decode(urlencodeReceivedParam "UTF-8"); // 会输出正确的'好'字 System.out.println(receivedParam);

从上面的两个示例中,应该不难看出,之所以前端2次编码,后端1次解码不会出现乱码,是因为前端在第1次urlencode后,数据就已经变成了纯英文,而纯英文先使用UTF-8的urlencode编码,再使用ISO-8859-1的urldecode解码,是可以完全还原数据的。另外,由于服务端的第二次urldecode是你自己写的,字符编码当然会和前端使用一致的UTF-8,故好字被无误的还原回来了。

为什么说英文可以先使用UTF-8的urlencode编码,再使用ISO-8859-1的urldecode解码呢?原因是java中的URLEncoder类其实是做了两件事,先使用字符编码将字符串转换为字节,然后对字节进行urlencode编码,因为urlencode算法本质作用就是将字节数据编码为等效的英文字符表示,只不过URLEncoder类将其封装为一步了,等效代码如下:

// 1. 使用字符编码,将字符串转换为字节串,因为urlencode是用来处理字节数据的 byte[] bytes=str.getBytes(charset); // 2. 将字节数据,使用urlencode算法,编码为英文字符串 String urlencodeStr = urlencode(bytes);

而对于UTF-8与ISO-8859-1来说,它们都是兼容ASCII码的,所以对于纯英文的urlencode编解码,编码数据是可以正确解码的,不信你可以把ISO-8859-1变成UTF-16试试,由于UTF-16是不兼容ASCII的,所以上面的方案处理后依然为乱码。

ps,虽然这种方案基本可以完美解决乱码(基于大多数主流字符编码兼容ASCII),但由于第二次urlencode编码又会将%编码为%,使得数据体积增大不少,所以非必要情况下,还是不要滥用比较好,能都用UTF-8就都用UTF-8吧。我以前经历过的项目都比较奇葩,多种编码混搭,才导致我要如此了解编码机制[-_-]。

这些编码有啥用?

这些编码的本质作用都是将字节数据转换为等效的纯英文形式,主要用在那些不方便查看、存储或传输原始字节数据的地方。
比如在html中,因为html本身就是纯文本的,不能直接放入原始字节数据,这时,我们可以将一些小图标(非文本数据)通过base64编码的方式内嵌到html中,以使得html页面与图标数据能在一次网络交互中返回,这种方案也称Data URI。

对比
  1. hex编码
    就算原文件是纯英文内容,编码后内容也和原文完全不一样,普通人难以阅读,但由于只有16个字符,听说一些程序员大牛能够记下他们的映射关系,从而达到读hex编码和读原文一样的效果。另外,数据在经过hex编码后,空间占用变成了原来的2倍。
  2. base64编码
    由64个字符组成,比hex编码更难阅读,但由于每3个字节会被编码为4个字符,所以,空间占用会是原来的4/3,比hex要节省空间。另外要注意的是,虽然Base64编码后的数据难以阅读,但不能将其做为加密算法使用,因为它解码都不需要你提供密钥啊。
  3. urlencode编码
    由于英文字符原样保留,对于以英文为主的内容,可读性最好,空间占用几乎不变,而对于非英文内容,每个字节会被编码为%xx的3个字符,空间占用是原来的3倍,所以urlencode是一个对英文友好的编码方案。
总结

除了hex base64 urlencode编码之外,其实还有base32 base58这样的编码,但它们只是编码方式不同罢了,本质作用是相同的,即将字节数据转换为等效的纯英文表示,方便传输与存储。

猜您喜欢: