Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

http2新增的哪些功能 #9

Closed
sevenCon opened this issue Aug 11, 2019 · 0 comments
Closed

http2新增的哪些功能 #9

sevenCon opened this issue Aug 11, 2019 · 0 comments
Labels

Comments

@sevenCon
Copy link
Owner

sevenCon commented Aug 11, 2019

前言

偶然之间看到一篇博客文章, 介绍了http2.0的文章, 介绍了http的多路复用, 发现自己的http2知识匮乏,早些时候还以为多路复用就是1.1的keep-alive, 只怪自己没有系统的了解过http2.0内容.

http 2.0

首先和https区分开, https = http + tls, http版本发展从1.0 -> 1.1 -> 2.0

而2.0新增的主要功能

  • 首部压缩
  • 二进制传输
  • 多路复用
  • 服务器推送

主要是这4个部分.

首部压缩

首部压缩在http2.0之前是没有的, 而头部规定transfer-encoding:gzip只会压缩body, http2.0的首部压缩有什么意义呢?

为了让首部传输更加安全, 同时缓存已传输过的数据, 多次传输的数据更少.
这是一个很重要的优化, 为什么这么说呢? 虽然http1.1来说 存在connection: keep-alive的头部可以优化频繁建立TCP的开销, 公用一个TCP连接, 但是对于每一次HTTP连接来说, 主要的传输数据来自头部header, 因为对于一般的网站的来说, 首先大部分是GET请求, POST和 PUT请求之中请求体的内容超过固定头部的又少之又少, 其余的是DELETE, OPTIONS, OPTIONS的请求可以通过access-control-access--max优化掉过多的OPTIONS请求, 而且DELETE和OPTION和GET一样根本没有请求体

另外一个请求头大的主要原因是Cookie占据很大的一部分数据.

综上所述, 首部压缩是一个有效的优化手段, 但是除了本身压缩头部之外呢, 还有一个方法, 引入了HPACK的方案, 在服务端和客户端同时维护一份已经缓存过的头部表, 是hash表的形式, 客户端每次请求的时候会和索引表里的内容对应, 增量传输内容, 其他重复的值需要需要发送索引值过来就去就可以了.

这样设计成增量传输的形式是为了防止攻击者用嗅探的形式解密压缩头部, 因为如果简单的加密, 首部是有很多重复内容的, 通过改变加密字符对比加密的长度, 可以一步一步的嗅探出最终的报文.

二进制传输

二进制的传输,在http请求的时候, 把数据的请求头和请求体分割成最小的传输单位,数据帧,每个数据帧都有对应的逻辑流,数据帧TCP上并行传输, 到达另一端之后再合并数据帧,还原文本数据.

请求头会封装到HEADER FRAME, 请求体会峰指导DATA FRAME里面.
另外还有以下
这样就可以有效减少在http1.1的情况下, keep-alive的对头阻塞.

帧的类型有几种
HEADERS帧, 打开一个流并携带http请求头部信息
DATA帧, 用于携带http请求体或响应体
PRIORITY帧, 给发送者建议的一个流的优先级
RST_STREAM帧, 用于立即终止一个流
SETTINGS帧, 配置帧的信息
PING 帧, 测量最小往返时间的机制
PUSH_PROMISE帧, 用于通知对端发送方想要启动一个流
GOAWAY帧, 初始化一个连接的关闭,或通知错误条件
WINDOW_UPDATE帧, 用作流量控制

下图来自rfc7540-translation-zh_cn

                         +--------+
                 send PP |        | recv PP
                ,--------|  idle  |--------.
               /         |        |         \
              v          +--------+          v
       +----------+          |           +----------+
       |          |          | send H /  |          |
,------| reserved |          | recv H    | reserved |------.
|      | (local)  |          |           | (remote) |      |
|      +----------+          v           +----------+      |
|          |             +--------+             |          |
|          |     recv ES |        | send ES     |          |
|   send H |     ,-------|  open  |-------.     | recv H   |
|          |    /        |        |        \    |          |
|          v   v         +--------+         v   v          |
|      +----------+          |           +----------+      |
|      |   half   |          |           |   half   |      |
|      |  closed  |          | send R /  |  closed  |      |
|      | (remote) |          | recv R    | (local)  |      |
|      +----------+          |           +----------+      |
|           |                |                 |           |
|           | send ES /      |       recv ES / |           |
|           | send R /       v        send R / |           |
|           | recv R     +--------+   recv R   |           |
| send R /  `----------->|        |<-----------'  send R / |
| recv R                 | closed |               recv R   |
`----------------------->|        |<----------------------'
                         +--------+

   send:   发送这个frame的终端
   recv:   接受这个frame的终端

   H:  HEADERS帧 (隐含CONTINUATION帧)
   PP: PUSH_PROMISE帧 (隐含CONTINUATION帧)
   ES: END_STREAM标记
   R:  RST_STREAM帧

多路复用

多路复用, 建立一个和目标地址的TCP连接, 后续的http的请求都在该TCP上传输, 每一个http请求都会封装成最小的传输单位数据帧,在流之间传输, 每一个请求会在逻辑上对应一个流, 到达对端再进行解压组装数据帧, 解析出http请求内容.

流的open, reserved, close, idle状态的切换都是通过帧, 不同类型的帧发送进行状态控制, data 帧可能按照大小进行分包传输..

每个流之间并行通信互不影响, 因为每一个帧都有流标识符.同一个流的DATA帧按照DATA的规定大小,可以通过SETTING帧的SETTINGS_MAX_FRAME_SIZE来设置, 所以同一个DATA帧有可能分开发送,发送时有一定顺序的, 接收端按照接收的顺序进行组装.

流的并发是一定限制的, 这个限制可以通过SETTINGS_MAX_CONCURRENT_STREAMS设置.
优点是可以突破服务每个域名下的并行请求的数量, 同时在高并发的情境下, 避免提高吞吐量, 避免一个请求启用并长时间占据线程池.

服务端推送

这个服务器推送和WS不同, 并不是说服务器想要推送就能推送, 这是在request-response请求的模型的基础上, 增加response的返回内容.

即是,在一次客户端请求.服务端的返回可以由多个请求的响应组成.而不必在第一次获得返回之后,解析返回的内容再重新请求.

我们请求一个html页面, 里面包括script和img, 还要link的stylesheet,等等外部资源, 与html相关的img, script, css必须在等待开始解析html内容的时候,才会去发请求, 那么这个等待的时间就是一个串行的等待时间, 首先相关的资源必须依赖html的下载并解析, 解析的过程中又会挨个的发请求,所以就造成了一定程度上的无效的等待.

服务端推送则是面对这样的一个场景, 在服务器接收到第一个请求的时候, 就推送一部分的数据给客户端, 由客户端自行的缓存,并决定是否接收, 不接受可以发送RST_STREAM帧, 停止该流的接收. 这样的在解析相关的html的时候, 相关的资源已经在缓存里面了, 而去掉了等待解析的事件.

比如nginx服务器这是

// 开启服务端推送
http2_push_preload on;

// 服务端应用写入头部推送信息
link: </index.js>; as=script; rel=preload

// 或者meta 配置preload 信息
<link rel="preload" href="style.css" as="style">

参考

https://github.com/abbshr/rfc7540-translation-zh_cn
https://developer.mozilla.org/zh-CN/docs/Web/HTML/Preloading_content
https://www.kancloud.cn/digest/web-performance-http2/74827

本文的github地址为http2新增的哪些功能, 如果有侵权或其他问题, 请求issue留言,感谢!

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
Projects
None yet
Development

No branches or pull requests

1 participant