SpringCloud Sleuth实现的功能是:它会自动为当前应用构建起各通信通道的跟踪机制
通信通道:
1.通过诸如RabbitMQ、Kafka (或者其他任何SpringCloud Stream绑定器实现的消息中间件)传递的请求
2.通过Zuul、Gateway 代理传递的请求
3.通过RestTemplate发起的请求
SpringCloud Sleuth跟踪实现原理1.为了 实现请求跟踪: 当请求发送到分布式系统的入口端点时,只需要服务跟踪框架为该请求创建一个唯- -的跟踪标识Trace ID
2.为了统计各处理单元的时间延迟,当请求到达各个服务组件时,或是处理逻辑到达某个状态时,也通过一个唯一 标识来标记它的开始、具体过程以及结束, Span ID
Zipkinzipkin其实就是对Sleuth的封装,不需要我们自己去收集数据等。
◆Zipkin 解决微服务架构中的延迟问题,包括数据的收集、存储、查找和展现
◆Zipkin 有四大核心组件构成:
1. Collector :收集器组件
2. Storage :存储组件,是存在内存中,如果不做持久化,重启丢失。
3. API : RESTFul API ,提供外部访问接口
4. UI : Web UI ,提供可视化查询页面
SpringCloud Sleuth的实现在gateway和nacos-client两个服务的pom文件中添加依赖
org.springframework.cloud
spring-cloud-starter-sleuth
在nacos-client中创建SleuthTraceInfoService
@Slf4j
@Service
public class SleuthTraceInfoService {
private final Tracer tracer;
public SleuthTraceInfoService(Tracer tracer) {
this.tracer = tracer;
}
public void logCurrentTraceInfo() {
log.info("Sleuth trace id: [{}]", tracer.currentSpan().context().traceId());
log.info("Sleuth span id: [{}]", tracer.currentSpan().context().spanId());
}
}
在nacos-client中创建SleuthTraceInfoController
@Slf4j
@RestController
@RequestMapping("/sleuth")
public class SleuthTraceInfoController {
private final SleuthTraceInfoService traceInfoService;
public SleuthTraceInfoController(SleuthTraceInfoService traceInfoService) {
this.traceInfoService = traceInfoService;
}
@GetMapping("/trace-info")
public void logCurrentTraceInfo() {
traceInfoService.logCurrentTraceInfo();
}
}
使用http脚本进行验证
### 查看 Sleuth 跟踪信息 GET http://127.0.0.1:9000/shuai/ecommerce-nacos-client/sleuth/trace-info Accept: application/json e-commerce-user: eyJhbGciOiJSUzI1NiJ9.eyJlLWNvbW1lcmNlLXVzZXIiOiJ7XCJpZFwiOjEyLFwidXNlcm5hbWVcIjpcInNodWFpemhhbGVcIn0iLCJqdGkiOiI3MTllOTE2Mi1hZGVhLTQ2MzItOWEzNS1hYzM4ZDE0NTcwNDIiLCJleHAiOjE2NDQ5NDA4MDB9.St8LrVs8Ym0etRzjgedCLfu-ZH_-u-fGi6-DQzYJu4yiEj0I5UaHAXE9tiXhSvM6Eu30Nlau7eg3qteLGhHKl8SzWaxhaZ0_Quo7gzU8_8zLZQCrkf_9lm_0mH5FHmTluJWRMxUsYTc0F6Yvf_G-jgY9A3wnM2Y8aFGciSfJZxFJ-DcWnrUrM3LCQhFxAunT3apCJ6Wa4wQKX6tNUsiTDvMJiVC3SIhqlUfB2N2d6cQvhlIUXLkMGU_SzyIzD1X6QZ4nu7LPwcNRRbcgtp_5SKYKvt_Pc7hXhg9-IyhVoGutNTpWVj9e5UbeuNze3iIRvyeclEJvjnEIMGqikJBzog token: shuai安装zipkin
zipkin官网:Quickstart · OpenZipkin
//下载 curl -sSL https://zipkin.io/quickstart.sh | bash -s //运行 java -jar zipkin.jar //后台持续运行 nohup java -jar zipkin.jar & //修改端口 java -jar zipkin.jar --server.port=8888
现在版本过新,可以去这个地址下载旧版本,新版本连不上数据库,过一段时间研究一下
https://repo1.maven.org/maven2/io/zipkin/zipkin-server/2.21.7/zipkin-server-2.21.7-exec.jar
配置Zipkin Server◆为什么需要对Zipkin Server做自定义配置?
1.默认情况下, Zipkin Server将跟踪信息存储在内存中( JVM) , 重启会丢失
2. Zipkin Server默认使用HTTP方式上报跟踪数据,性能较差
◆Zipkin Server配置MySQL跟踪数据持久化
1. MySQL中添加数据表: https://github.com/openzipkin/zipkin/blob/master/zipkin-storage/mysql-v1/src/main/resources/mysql.sql
2. Zipkin Server启动指定MySQL路径
java -jar zipkin-server-2.21.7-exec.jar --STORAGE_TYPE=mysql --MYSQL_HOST=139.224.**.** --MYSQL_TCP_PORT=3306 --MYSQL_DB=zipkin --MYSQL_USER=root --MYSQL_PASS=rootSpringCloud Sleuth整合Zipkin的步骤
1. pom文件中添加依赖,引入这个依赖后,就可以删除之前的Sleuth依赖了
org.springframework.cloud
spring-cloud-starter-zipkin
2. bootstrap中增加Zipkin的配置:使用kafka传输Sleuth信息到Zipkin,默认http的性能较差。
下载、安装Kafka◆下载Kafka : Apache Kafka
◆解压、启动ZK和Kafka Server即可(使用默认配置)。
//解压kafka tar -xzf kafka_2.13-2.7.0.tgz //进到kafka cd kafka_2.13-2.7.0/ //启动ZooKeeper服务,这是启动kafka的基础 bin/zookeeper-server-start.sh config/zookeeper.properties //启动kafka bin/kafka-server-start.sh config/server.properties
使用kafka的形式启动zipkin
nohup java -DKAFKA_BOOTSTRAP_SERVERS=127.0.0.1:9092 -jar zipkin-server-2.21.7-exec.jar --STORAGE_TYPE=mysql --MYSQL_HOST=139.224.**.** --MYSQL_TCP_PORT=3306 --MYSQL_DB=zipkin --MYSQL_USER=root --MYSQL_PASS=root &
启动之后的样子:
出现kafka连接不上的问题,要配置(配置文件在/kafka_2.13-2.7.0/config/server.properties) listeners=PLAINTEXT://:9092 advertised.listeners=PLAINTEXT://114.115.20.100:9092 //使用cmd测试接口可用性 telnet 39.108.61.252 9092
查看运行的jar包
ps -def | grep java
在gateway和nacos-client两个服务的pom文件中添加依赖
org.springframework.cloud
spring-cloud-starter-zipkin
org.springframework.kafka
spring-kafka
2.5.0.RELEASE
在配置文件bootstrap.yml中配置
spring:
kafka:
bootstrap-servers: 1.15.888.888:9092
producer:
retries: 3
consumer:
auto-offset-reset: latest
zipkin:
sender:
type: kafka # 默认是 web
base-url: http://1.15.888.888:9411/
SpringCloud Sleuth 设置采样率、抽样收集策略
在配置文件bootstrap.yml中配置
spring:
sleuth:
sampler:
# ProbabilitybasedSampler 抽样策略
probability: 1.0 # 采样比例, 1.0 表示 100%, 默认是 0.1
# RateLimitingSampler 抽样策略, 设置了限速采集, spring.sleuth.sampler.probability 属性值无效
rate: 100 # 每秒间隔接受的 trace 量
或者使用代码配置,两者只能用一个
@Configuration
public class SamplerConfig {
@Bean
public Sampler sampler() {
return RateLimitingSampler.create(100);
}
//
// @Bean
// public Sampler defaultSampler() {
// return ProbabilitybasedSampler.create(0.5f);
// }
}



