国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Spring Cloud Sleuth 之Greenwich版本全攻略

PascalXie / 3721人閱讀

摘要:服務提供者提供一個接口,服務消費者通過消費服務。服務提供者服務提供者,對外提供一個,并向服務注冊中心注冊,這部分內容,不再講述,見源碼。

微服務架構是一個分布式架構,微服務系統按業務劃分服務單元,一個微服務系統往往有很多個服務單元。由于服務單元數量眾多,業務的復雜性較高,如果出現了錯誤和異常,很難去定位。主要體現在一個請求可能需要調用很多個服務,而內部服務的調用復雜性決定了問題難以定位。所以在微服務架構中,必須實現分布式鏈路追蹤,去跟進一個請求到底有哪些服務參與,參與的順序又是怎樣的,從而達到每個請求的步驟清晰可見,出了問題能夠快速定位的目的。

在微服務系統中,一個來自用戶的請求先到達前端A(如前端界面),然后通過遠程調用,到達系統的中間件B、C(如負載均衡、網關等),最后到達后端服務D、E,后端經過一系列的業務邏輯計算,最后將數據返回給用戶。對于這樣一個請求,經歷了這么多個服務,怎么樣將它的請求過程用數據記錄下來呢?這就需要用到服務鏈路追蹤。

Spring Cloud Sleuth

Spring Cloud Sleuth 為服務之間調用提供鏈路追蹤。通過 Sleuth 可以很清楚的了解到一個服務請求經過了哪些服務,每個服務處理花費了多長。從而讓我們可以很方便的理清各微服務間的調用關系。此外 Sleuth 可以幫助我們:

耗時分析: 通過 Sleuth 可以很方便的了解到每個采樣請求的耗時,從而分析出哪些服務調用比較耗時;

可視化錯誤: 對于程序未捕捉的異常,可以通過集成 Zipkin 服務界面上看到;

鏈路優化: 對于調用比較頻繁的服務,可以針對這些服務實施一些優化措施。

Google開源了Dapper鏈路追蹤組件,并在2010年發表了論文《Dapper, a Large-Scale Distributed Systems Tracing Infrastructure》,這篇論文是業內實現鏈路追蹤的標桿和理論基礎,具有很高的參考價值。

Spring Cloud Sleuth采用了Google的開源項目Dapper的專業術語。

Span:基本工作單元,發送一個遠程調度任務就會產生一個Span,Span是用一個64位ID唯一標識的,Trace是用另一個64位ID唯一標識的。Span還包含了其他的信息,例如摘要、時間戳事件、Span的ID以及進程ID。

Trace:由一系列Span組成的,呈樹狀結構。請求一個微服務系統的API接口,這個API接口需要調用多個微服務單元,調用每個微服務單元都會產生一個新的Span,所有由這個請求產生的Span組成了這個Trace。

Annotation:用于記錄一個事件,一些核心注解用于定義一個請求的開始和結束,這些注解如下。

cs-Client Sent:客戶端發送一個請求,這個注解描述了Span的開始。

sr-Server Received:服務端獲得請求并準備開始處理它,如果將其sr減去cs時間戳,便可得到網絡傳輸的時間。

ss-Server Sent:服務端發送響應,該注解表明請求處理的完成(當請求返回客戶端),用ss的時間戳減去sr時間戳,便可以得到服務器請求的時間。

cr-Client Received:客戶端接收響應,此時Span結束,如果cr的時間戳減去cs時間戳,便可以得到整個請求所消耗的時間。

Spring Cloud Sleuth 也為我們提供了一套完整的鏈路解決方案,Spring Cloud Sleuth 可以結合 Zipkin,將信息發送到 Zipkin,利用 Zipkin 的存儲來存儲鏈路信息,利用 Zipkin UI 來展示數據。

Zipkin

Zipkin是一種分布式鏈路追蹤系統。 它有助于收集解決微服務架構中的延遲問題所需的時序數據。 它管理這些數據的收集和查找。 Zipkin的設計基于Google Dapper論文。

跟蹤器存在于應用程序中,記錄請求調用的時間和元數據。跟蹤器使用庫,它們的使用對用戶是無感知的。例如,Web服務器會在收到請求時和發送響應時會記錄相應的時間和一些元數據。一次完整鏈路請求所收集的數據被稱為Span。

我們可以使用它來收集各個服務器上請求鏈路的跟蹤數據,并通過它提供的 REST API 接口來輔助我們查詢跟蹤數據以實現對分布式系統的監控程序,從而及時地發現系統中出現的延遲升高問題并找出系統性能瓶頸的根源。除了面向開發的 API 接口之外,它也提供了方便的 UI 組件來幫助我們直觀的搜索跟蹤信息和分析請求鏈路明細,比如:可以查詢某段時間內各用戶請求的處理時間等。
Zipkin 提供了可插拔數據存儲方式:In-Memory、MySql、Cassandra 以及 Elasticsearch。接下來的測試為方便直接采用 In-Memory 方式進行存儲,生產推薦 Elasticsearch.

上圖展示了 Zipkin 的基礎架構,它主要由 4 個核心組件構成:

Collector:收集器組件,它主要用于處理從外部系統發送過來的跟蹤信息,將這些信息轉換為 Zipkin 內部處理的 Span 格式,以支持后續的存儲、分析、展示等功能。

Storage:存儲組件,它主要對處理收集器接收到的跟蹤信息,默認會將這些信息存儲在內存中,我們也可以修改此存儲策略,通過使用其他存儲組件將跟蹤信息存儲到數據庫中。

RESTful API:API 組件,它主要用來提供外部訪問接口。比如給客戶端展示跟蹤信息,或是外接系統訪問以實現監控等。

Web UI:UI 組件,基于 API 組件實現的上層應用。通過 UI 組件用戶可以方便而有直觀地查詢和分析跟蹤信息。

案例實戰

在本案例一共有三個應用,分別為注冊中心,eureka-server、eureka-client、eureka-client-feign,三個應用的基本信息如下:

應用名 端口 作用
eureka-server 8761 注冊中心
eureka-client 8763 服務提供者
eureka-client-feign 8765 服務消費者

其中eureka-server 應用為注冊中心,其他兩個應用向它注冊。eureka-client為服務提供者,提供了一個RESTAPI,eureka-client-feign為服務消費者,通過Feign Client向服務提供者消費服務。

在之前的文章已經講述了如何如何搭建服務注冊中心,在這里就省略這一部分內容。服務提供者提供一個REST接口,服務消費者通過FeignClient消費服務。

服務提供者

eureka-client服務提供者,對外提供一個RESTAPI,并向服務注冊中心注冊,這部分內容,不再講述,見源碼。需要在工程的pom文件加上sleuth的起步依賴和zipkin的起步依賴,代碼如下:


    org.springframework.cloud
    spring-cloud-starter-sleuth


    org.springframework.cloud
    spring-cloud-starter-zipkin

在工程的配置文件application.yml需要做以下的配置:

spring:
  sleuth:
    web:
      client:
        enabled: true
    sampler:
      probability: 1.0 # 將采樣比例設置為 1.0,也就是全部都需要。默認是 0.1
  zipkin:
    base-url: http://localhost:9411/ # 指定了 Zipkin 服務器的地址

其中spring.sleuth.web.client.enable為true設置的是web開啟sleuth功能;spring.sleuth.sampler.probability可以設置為小數,最大值為1.0,當設置為1.0時就是鏈路數據100%收集到zipkin-server,當設置為0.1時,即10%概率收集鏈路數據;spring.zipkin.base-url設置zipkin-server的地址。

對外提供一個Api,代碼如下:

@RestController
public class HiController {

    @Value("${server.port}")
    String port;
    @GetMapping("/hi")
    public String home(@RequestParam String name) {
        return "hi "+name+",i am from port:" +port;
    }

}
服務消費者

服務消費者通過FeignClient消費服務提供者提供的服務。同服務提供者一樣,需要在工程的pom文件加上sleuth的起步依賴和zipkin的起步依賴,另外也需要在配置文件application.yml做相關的配置,具體同服務提供者。

服務消費者通過feignClient進行服務消費,feignclient代碼如下:

@FeignClient(value = "eureka-client",configuration = FeignConfig.class)
public interface EurekaClientFeign {

    @GetMapping(value = "/hi")
    String sayHiFromClientEureka(@RequestParam(value = "name") String name);
}

servcie層代碼如下:

@Service
public class HiService {

    @Autowired
    EurekaClientFeign eurekaClientFeign;

 
    public String sayHi(String name){
        return  eurekaClientFeign.sayHiFromClientEureka(name);
    }
}

controller代碼如下:

@RestController
public class HiController {
    @Autowired
    HiService hiService;

    @GetMapping("/hi")
    public String sayHi(@RequestParam( defaultValue = "forezp",required = false)String name){
        return hiService.sayHi(name);
    }

上面的代碼對外暴露一個API,通過FeignClient的方式調用eureka-client的服務。

zipkin-server

在Spring Cloud D版本,zipkin-server通過引入依賴的方式構建工程,自從E版本之后,這一方式改變了,采用官方的jar形式啟動,所以需要通過下載官方的jar來啟動,也通過以下命令一鍵啟動:

curl -sSL https://zipkin.io/quickstart.sh | bash -s
java -jar zipkin.jar

上面的第一行命令會從zipkin官網下載官方的jar包。
如果是window系統,建議使用gitbash執行上面的命令。

如果用 Docker 的話,使用以下命令:

docker run -d -p 9411:9411 openzipkin/zipkin

通過java -jar zipkin.jar的方式啟動之后,在瀏覽器上訪問lcoalhost:9411,顯示的界面如下:

鏈路數據驗證

依次啟動eureka-server,eureka-client,eureka-client-feign的三個應用,等所有應用啟動完成后,在瀏覽器上訪問http://localhost:8765/hi(如果報錯,是服務與發現需要一定的時間,耐心等待幾十秒),訪問成功后,再次在瀏覽器上訪問zipkin-server的頁面,顯示如下:

從上圖可以看出每次請求所消耗的時間,以及一些span的信息。

從上圖可以看出具體的服務依賴關系,eureka-feign-client依賴了eureka-client。

使用rabbitmq進行鏈路數據收集

在上面的案例中使用的http請求的方式將鏈路數據發送給zipkin-server,其實還可以使用rabbitmq的方式進行服務的消費。使用rabbitmq需要安裝rabbitmq程序,下載地址http://www.rabbitmq.com/。

下載完成后,需要eureka-client和eureka-client-feign的起步依賴加上rabbitmq的依賴,依賴如下:


    org.springframework.cloud
    spring-cloud-stream-binder-rabbit

在配置文件上需要配置rabbitmq的配置,配置信息如下:

spring:
  rabbitmq:
    host: localhost
    username: guest
    password: guest
    port: 5672

另外需要把spring.zipkin.base-url去掉。

在上面2個工程中,rabbitmq通過發送鏈路數據,那么zipkin-server是怎么樣知道rabbitmq的地址呢,怎么監聽收到的鏈路數據呢?這需要在程序啟動的時候,通過環境變量的形式到環境中,然后zikin-server從環境變量中讀取。
可配置的屬性如下:

屬性 環境變量 描述
zipkin.collector.rabbitmq.addresses RABBIT_ADDRESSES 用逗號分隔的 RabbitMQ 地址列表,例如localhost:5672,localhost:5673
zipkin.collector.rabbitmq.password RABBIT_PASSWORD 連接到 RabbitMQ 時使用的密碼,默認為 guest
zipkin.collector.rabbitmq.username RABBIT_USER 連接到 RabbitMQ 時使用的用戶名,默認為guest
zipkin.collector.rabbitmq.virtual-host RABBIT_VIRTUAL_HOST 使用的 RabbitMQ virtual host,默認為 /
zipkin.collector.rabbitmq.use-ssl RABBIT_USE_SSL 設置為true則用 SSL 的方式與 RabbitMQ 建立鏈接
zipkin.collector.rabbitmq.concurrency RABBIT_CONCURRENCY 并發消費者數量,默認為1
zipkin.collector.rabbitmq.connection-timeout RABBIT_CONNECTION_TIMEOUT 建立連接時的超時時間,默認為 60000毫秒,即 1 分鐘
zipkin.collector.rabbitmq.queue RABBIT_QUEUE 從中獲取 span 信息的隊列,默認為 zipkin

比如,通過以下命令啟動:

RABBIT_ADDRESSES=localhost java -jar zipkin.jar

上面的命令等同于一下的命令:

java -jar zipkin.jar --zipkin.collector.rabbitmq.addressed=localhost

用上面的2條命令中的任何一種方式重新啟動zipkin-server程序,并重新啟動eureka-client、eureka-server、eureka-client-feign,動完成后在瀏覽器上訪問http://localhost:8765/hi,再訪問http://localhost:9411/zipkin/,就可以看到通過Http方式發送鏈路數據一樣的接口。

自定義Tag

在頁面上可以查看每個請求的traceId,每個trace又包含若干的span,每個span又包含了很多的tag,自定義tag可以通過Tracer這個類來自定義。

@Autowired
Tracer tracer;

 @GetMapping("/hi")
    public String home(@RequestParam String name) {
        tracer.currentSpan().tag("name","forezp");
        return "hi "+name+",i am from port:" +port;
    }
將鏈路數據存儲在Mysql數據庫中

上面的例子是將鏈路數據存在內存中,只要zipkin-server重啟之后,之前的鏈路數據全部查找不到了,zipkin是支持將鏈路數據存儲在mysql、cassandra、elasticsearch中的。
現在講解如何將鏈路數據存儲在Mysql數據庫中。
首先需要初始化zikin存儲在Mysql的數據的scheme,可以在這里查看https://github.com/openzipkin...,具體如下:

CREATE TABLE IF NOT EXISTS zipkin_spans (
  `trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT "If non zero, this means the trace uses 128 bit traceIds instead of 64 bit",
  `trace_id` BIGINT NOT NULL,
  `id` BIGINT NOT NULL,
  `name` VARCHAR(255) NOT NULL,
  `parent_id` BIGINT,
  `debug` BIT(1),
  `start_ts` BIGINT COMMENT "Span.timestamp(): epoch micros used for endTs query and to implement TTL",
  `duration` BIGINT COMMENT "Span.duration(): micros used for minDuration and maxDuration query"
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;

ALTER TABLE zipkin_spans ADD UNIQUE KEY(`trace_id_high`, `trace_id`, `id`) COMMENT "ignore insert on duplicate";
ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`, `id`) COMMENT "for joining with zipkin_annotations";
ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`) COMMENT "for getTracesByIds";
ALTER TABLE zipkin_spans ADD INDEX(`name`) COMMENT "for getTraces and getSpanNames";
ALTER TABLE zipkin_spans ADD INDEX(`start_ts`) COMMENT "for getTraces ordering and range";

CREATE TABLE IF NOT EXISTS zipkin_annotations (
  `trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT "If non zero, this means the trace uses 128 bit traceIds instead of 64 bit",
  `trace_id` BIGINT NOT NULL COMMENT "coincides with zipkin_spans.trace_id",
  `span_id` BIGINT NOT NULL COMMENT "coincides with zipkin_spans.id",
  `a_key` VARCHAR(255) NOT NULL COMMENT "BinaryAnnotation.key or Annotation.value if type == -1",
  `a_value` BLOB COMMENT "BinaryAnnotation.value(), which must be smaller than 64KB",
  `a_type` INT NOT NULL COMMENT "BinaryAnnotation.type() or -1 if Annotation",
  `a_timestamp` BIGINT COMMENT "Used to implement TTL; Annotation.timestamp or zipkin_spans.timestamp",
  `endpoint_ipv4` INT COMMENT "Null when Binary/Annotation.endpoint is null",
  `endpoint_ipv6` BINARY(16) COMMENT "Null when Binary/Annotation.endpoint is null, or no IPv6 address",
  `endpoint_port` SMALLINT COMMENT "Null when Binary/Annotation.endpoint is null",
  `endpoint_service_name` VARCHAR(255) COMMENT "Null when Binary/Annotation.endpoint is null"
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;

ALTER TABLE zipkin_annotations ADD UNIQUE KEY(`trace_id_high`, `trace_id`, `span_id`, `a_key`, `a_timestamp`) COMMENT "Ignore insert on duplicate";
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`, `span_id`) COMMENT "for joining with zipkin_spans";
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`) COMMENT "for getTraces/ByIds";
ALTER TABLE zipkin_annotations ADD INDEX(`endpoint_service_name`) COMMENT "for getTraces and getServiceNames";
ALTER TABLE zipkin_annotations ADD INDEX(`a_type`) COMMENT "for getTraces and autocomplete values";
ALTER TABLE zipkin_annotations ADD INDEX(`a_key`) COMMENT "for getTraces and autocomplete values";
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id`, `span_id`, `a_key`) COMMENT "for dependencies job";

CREATE TABLE IF NOT EXISTS zipkin_dependencies (
  `day` DATE NOT NULL,
  `parent` VARCHAR(255) NOT NULL,
  `child` VARCHAR(255) NOT NULL,
  `call_count` BIGINT,
  `error_count` BIGINT
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci;

ALTER TABLE zipkin_dependencies ADD UNIQUE KEY(`day`, `parent`, `child`);

在數據庫中初始化上面的腳本之后,需要做的就是zipkin-server如何連接數據庫。zipkin如何連數據庫同連接rabbitmq一樣。zipkin連接數據庫的屬性所對應的環境變量如下:

屬性 環境變量 描述
zipkin.torage.type STORAGE_TYPE 默認的為mem,即為內存,其他可支持的為cassandra、cassandra3、elasticsearch、mysql
zipkin.torage.mysql.host MYSQL_HOST 數據庫的host,默認localhost
zipkin.torage.mysql.port MYSQL_TCP_PORT 數據庫的端口,默認3306
zipkin.torage.mysql.username MYSQL_USER 連接數據庫的用戶名,默認為空
zipkin.torage.mysql.password MYSQL_PASS 連接數據庫的密碼,默認為空
zipkin.torage.mysql.db MYSQL_DB zipkin使用的數據庫名,默認是zipkin
zipkin.torage.mysql.max-active MYSQL_MAX_CONNECTIONS 最大連接數,默認是10
STORAGE_TYPE=mysql MYSQL_HOST=localhost MYSQL_TCP_PORT=3306 MYSQL_USER=root MYSQL_PASS=123456 MYSQL_DB=zipkin java -jar zipkin.jar

等同于以下的命令

java -jar zipkin.jar --zipkin.torage.type=mysql --zipkin.torage.mysql.host=localhost --zipkin.torage.mysql.port=3306 --zipkin.torage.mysql.username=root --zipkin.torage.mysql.password=123456

使用上面的命令啟動zipkin.jar工程,然后再瀏覽數上訪問http://localhost:8765/hi,再訪問http://localhost:9411/zipkin/,可以看到鏈路數據。這時去數據庫查看數據,也是可以看到存儲在數據庫的鏈路數據,如下:

這時重啟應用zipkin.jar,再次在瀏覽器上訪問http://localhost:9411/zipkin/,仍然可以得到之前的結果,證明鏈路數據存儲在數據庫中,而不是內存中。

將鏈路數據存在在Elasticsearch中

zipkin-server支持將鏈路數據存儲在ElasticSearch中。讀者需要自行安裝ElasticSearch和Kibana,下載地址為https://www. elastic.co/products/elasticsearch。安裝完成后啟動,其中ElasticSearch的默認端口號為9200,Kibana的默認端口號為5601。

同理,zipkin連接elasticsearch也是從環境變量中讀取的,elasticsearch相關的環境變量和對應的屬性如下:

屬性 環境變量 描述
zipkin.torage.elasticsearch.hosts ES_HOSTS ES_HOSTS,默認為空
zipkin.torage.elasticsearch.pipeline ES_PIPELINE ES_PIPELINE,默認為空
zipkin.torage.elasticsearch.max-requests ES_MAX_REQUESTS ES_MAX_REQUESTS,默認為64
zipkin.torage.elasticsearch.timeout ES_TIMEOUT ES_TIMEOUT,默認為10s
zipkin.torage.elasticsearch.index ES_INDEX ES_INDEX,默認是zipkin
zipkin.torage.elasticsearch.date-separator ES_DATE_SEPARATOR ES_DATE_SEPARATOR,默認為“-”
zipkin.torage.elasticsearch.index-shards ES_INDEX_SHARDS ES_INDEX_SHARDS,默認是5
zipkin.torage.elasticsearch.index-replicas ES_INDEX_REPLICAS ES_INDEX_REPLICAS,默認是1
zipkin.torage.elasticsearch.username ES_USERNAME ES的用戶名,默認為空
zipkin.torage.elasticsearch.password ES_PASSWORD ES的密碼,默認是為空

采用以下命令啟動zipkin-server:

STORAGE_TYPE=elasticsearch ES_HOSTS=http://localhost:9200 ES_INDEX=zipkin java -jar zipkin.jar
java -jar zipkin.jar --STORAGE_TYPE=elasticsearch --ES_HOSTS=http://localhost:9200 --ES_INDEX=zipkin 
java -jar zipkin.jar --STORAGE_TYPE=elasticsearch --ES_HOSTS=http://localhost:9200 --ES_INDEX=zipkin 
java -jar zipkin.jar --zipkin.torage.type=elasticsearch --zipkin.torage.elasticsearch.hosts=http://localhost:9200 --zipkin.torage.elasticsearch.index=zipkin 

啟動完成后,然后在瀏覽數上訪問http://localhost:8765/hi,再訪問http://localhost:9411/zipkin/,可以看到鏈路數據。這時鏈路數據存儲在ElasticSearch。

在zipkin上展示鏈路數據

鏈路數據存儲在ElasticSearch中,ElasticSearch可以和Kibana結合,將鏈路數據展示在Kibana上。安裝完成Kibana后啟動,Kibana默認會向本地端口為9200的ElasticSearch讀取數據。Kibana默認的端口為5601,訪問Kibana的主頁http://localhost:5601,其界面如下圖所示。

在上圖的界面中,單擊“Management”按鈕,然后單擊“Add New”,添加一個index。我們將在上節ElasticSearch中寫入鏈路數據的index配置為“zipkin”,那么在界面填寫為“zipkin-*”,單擊“Create”按鈕,界面如下圖所示:

創建完成index后,單擊“Discover”,就可以在界面上展示鏈路數據了,展示界面如下圖所示。

參考資料

https://zipkin.io/

https://github.com/spring-clo...

https://cloud.spring.io/sprin...

https://github.com/openzipkin...

https://github.com/openzipkin...

https://windmt.com/2018/04/24...

https://segmentfault.com/a/11...

elatstic 版本為2.6.x,下載地址:https://www.elastic.co/downlo...

http://www.cnblogs.com/JreeyQ...

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/77429.html

相關文章

  • springboot(2.1.0)+springcloud(Greenwich.M1)實現鏈路追蹤

    摘要:主要問題由于新版本新版本實現鏈路追蹤的一些新特性,使得我在實現的過程上踩了不少坑。同樣一些場景下需要保存鏈路追蹤的數據,以備后面觀察對比,所以同樣需要一個來存儲數據。方法一,通過修改基配置文件后啟動。 主要問題 ???? 由于springboot新版本(2.1.0)、springcloud新版本(Greenwich.M1)實現鏈路追蹤sleuth+zipkin的一些新特性,使得我在實...

    Joonas 評論0 收藏0
  • Spring Cloud Consul Greenwich版本攻略

    摘要:在我們的文檔中,我們使用來表明就選舉和事務的順序達成一致。提供成員關系,故障檢測和事件廣播。這是一個允許請求的請求響應機制。這包括服務發現,還包括豐富的運行狀況檢查,鎖定,鍵值,多數據中心聯合,事件系統和。 轉載請標明出處: http://blog.csdn.net/forezp/a...本文出自方志朋的博客 什么是Consul Consul是HashiCorp公司推出的開源軟件,使...

    qingshanli1988 評論0 收藏0
  • Dubbo Spring Cloud 重塑微服務治理

    摘要:在服務治理方面,相較于而言,并不成熟。遺憾的是,往往被部分開發者片面地視作服務治理的框架,而非微服務基礎設施。因此,建議開發人員將或者遷移為服務。因此,下一步需要將其配置服務遠程。當服務提供方啟動后,下一步實現一個服務消費方。 原文鏈接:Dubbo Spring Cloud 重塑微服務治理,來自于微信公眾號:次靈均閣 摘要 在 Java 微服務生態中,Spring Cloud1 成為...

    wh469012917 評論0 收藏0
  • Spring Cloud 參考文檔(Spring Cloud Sleuth介紹)

    摘要:那個配置文件將來自應用程序的信息以格式記錄到文件中。以下清單顯示了使用的集成測試設置代碼添加到項目本節介紹如何使用或將添加到項目中。以下示例顯示了如何為執行此操作建議你通過添加依賴關系管理,這樣你就無需自行管理版本。 Spring Cloud Sleuth介紹 Spring Cloud Sleuth為Spring Cloud實現了分布式追蹤解決方案。 術語 Spring Cloud S...

    impig33 評論0 收藏0
  • Spring Cloud Greenwich 正式發布,Hystrix 即將壽終正寢。。

    摘要:正式版在這天正式發布了,下面我們來看下有哪些更新內容。生命周期終止提醒版本將于正式退役,具體可以參考官方宣布版本作為的主要版本,的生命周期也會由版本的終止而終止。進入維護模式最近,宣布進入維護模式停止開發。。。 Spring Cloud Greenwich 正式版在 01/23/2019 這天正式發布了,下面我們來看下有哪些更新內容。 生命周期終止提醒 Spring Cloud Edg...

    Magicer 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<