实时优化: 链路延迟计算

  • 时间:
  • 浏览:0

一般来说在互联网开发上, 亲们采用Distributed Systems Tracing(比如说Google Dapper), 来追踪一次服务调用的链路延迟.

但会 对机器人程序运行池池来说, 是不趋于稳定"服务调用"的概念的. 链路上可能性大每段程序运行池池一定会time-based, 对数据一定会buffer的形式来使用. 无法建立上下游的关联.

怎么为自动驾驶程序运行池池计算链路延迟?

换种思路, 真是还可不还可以 大现象分解成小现象: 通过各每段task/io的执行情形, 来证明某个链路的延迟.

stop链路如下, 从决策老是到底盘:

这里的程序运行池池逻辑如下:

(time-based, 60 hz)表示是定时触发