丝袜人妻一区二区三区_少妇福利无码视频_亚洲理论片在线观看_一级毛片国产A级片

當前位置:首頁 > 話題廣場 > 攻略專題 > 游戲問答

解Bug之路-記一次線上請求偶爾變慢的排查

解Bug之路-記一次線上請求偶爾變慢的排查

前言

最近解決了個比較棘手的問題,由于排查過程挺有意思,于是就以此為素材寫出了本篇文章。

Bug現(xiàn)場

這是一個偶發(fā)的性能問題。在每天幾百萬比交易請求中,平均耗時大約為300ms,但總有那么100多筆會超過1s,讓我們業(yè)務耗時監(jiān)控的99.99線變得很尷尬。如下圖所示:

為了精益求精,更為了消除這個尷尬的指標,筆者開始探尋起這100多慢請求筆的原因。

先找一筆看看

由于筆者寫的框架預留了traceId,所以找到這筆請求的整個調(diào)用的鏈路還是非常簡單的。而且通過框架中的攔截器在性能日志中算出了每一筆請求的耗時。這樣,非常便于分析鏈路到底是在哪邊耗時了。性能日志中的某個例子如下圖所示:

2020-09-01 15:06:59.010 [abcdefg,A->B,Dubbo-thread-1,ipA->ipB] B.facade,cost 10 ms

拉出來一整條調(diào)用鏈路后,發(fā)現(xiàn)最前面的B系統(tǒng)調(diào)用C系統(tǒng)就比較慢。后面鏈路還有幾個調(diào)用慢的,那先不管三七二十一,先分析B調(diào)用C系統(tǒng)吧。

我們從監(jiān)控系統(tǒng)看出來正常的B系統(tǒng)調(diào)用C系統(tǒng)平均耗時只有20ms,這次的耗時增長了10倍!

正常思路,那當然是C系統(tǒng)有問題么,畢竟慢了10倍!去C系統(tǒng)的性能日志里面看看,

2020-09-01 15:06:59.210 [abcdefg,B->C,Dubbo-thread-1,ipB->ipC] C.facade,cost 20 ms

啪啪啪打臉,竟然只有20ms,和平均耗時差不多。難道問題在網(wǎng)絡上?B到C之間由于丟包重傳所以到了200ms?

甩給網(wǎng)絡?

由于筆者對TCP協(xié)議還是比較了解的,tcp第一次丟包重傳是200ms,那么加上C處理的時間20ms,即220ms必須得大于200ms。而由于Nagle和DelayAck造成的tcp延遲也僅僅是40ms,兩者相加60ms遠遠小于200ms,所以這個200ms是丟包或者DelayAck的概率不大。

本著萬一呢的態(tài)度,畢竟下絕對的判斷往往會被打臉,看了下我們的監(jiān)控系統(tǒng),發(fā)現(xiàn)當時流量距離網(wǎng)卡容量只有1/10左右,距離打滿網(wǎng)卡還有非常遠的距離。

注意,這個監(jiān)控的是由KVM虛擬機虛擬出來的網(wǎng)卡??戳诉@個流量,筆者感覺網(wǎng)絡上問題的概率不大。

GC了?

筆者第二個想到的是GC了,但是觀察了B和C的當時時刻的GC日志,非常正常,沒有FullGC,youngGC也在毫秒級,完全不會有200ms這么長。TCP重傳+雙方都youngGC?這個也太巧了點吧,也不是不可用。不過詳細的計算了時間點,并納入了雙方機器的時鐘誤差后,發(fā)現(xiàn)基本不可能。

再看看其它幾筆

盡然這個問題每天有100多筆(當然了,也不排除其中混雜了其它不同的問題),那么就試試看看其它幾筆,有沒有什么共性。這一看,發(fā)現(xiàn)個奇怪的現(xiàn)象,就是有時候是A調(diào)用B慢,有時候是B調(diào)用C慢,還有時候是E調(diào)用F慢。他們唯一的共性就是耗時變長了,但是這個耗時增加的比例有5倍的,有10倍的,完全沒有規(guī)律可循。

這不禁讓筆者陷入了沉思。

尋找突破點

既然通用規(guī)律只有變慢,暫時無法進一步挖掘。那么還是去B系統(tǒng)上去看看情況吧,去對應B系統(tǒng)上故意不用grep而是用less看了下,上下掃了兩眼。突然發(fā)現(xiàn),貌似緊鄰著的幾條請求都很慢,而且是無差別變慢!也就是說B系統(tǒng)調(diào)用任何系統(tǒng)在這個時間點都有好幾倍甚至十幾倍的耗時!

終于找到了一個突破點,B系統(tǒng)本身或者其所屬的環(huán)境應該有問題!于是筆者用awk統(tǒng)計了下 B系統(tǒng)這個小時內(nèi)每分鐘的平均調(diào)用時長,用了下面這條命令:

cat 性能日志 | grep '時間點 | awk -F ' ' '{print $2, $5}' |.......| awk -F ' ' '{sum[$1]+=$3;count[$1]+=1}END{for(i in sum) {print i,sum[i]/count[i]}}'

發(fā)現(xiàn)

15:00 20
15:01 21
15:02 15
15:03 30
.......
15:06 172.4
15:07 252.4
15:08 181.4
15:10 20
15:10 21
15:10 22

在15:06-15:08這三分鐘之內(nèi),調(diào)用時間會暴漲!但奇怪的是B系統(tǒng)明明有幾十臺機器,只有這一臺在這個時間段內(nèi)會暴漲。難道這個時間有定時任務?筆者搜索了下B系統(tǒng)昨天的日志,發(fā)現(xiàn)在同樣的時間段內(nèi),還是暴漲了!再接著搜索其它調(diào)用慢的,例如E->F,發(fā)現(xiàn)他們也在15:06-15:08報錯!于是筆者,一橫心,直接用awk算出了所有系統(tǒng)間調(diào)用慢機器白天內(nèi)的所有分鐘平均耗時(晚上的流量小不計入內(nèi)),發(fā)現(xiàn):

所有調(diào)用慢的機器,都非常巧的在每個小時06-08分鐘之內(nèi)調(diào)用慢。再觀察下慢的請求,發(fā)現(xiàn)他們也全部是分布在不同小時的06-08分時間段內(nèi)!

定時任務?

第一反應是有定時任務,查了下所有調(diào)用機器的crontab沒有問題。問了下對應的開發(fā)有沒有調(diào)度,沒有調(diào)度,而且那個時間段由于耗時的原因,每秒請求數(shù)反而變小了。翻了下機器監(jiān)控,也都挺正常。思維陷入了僵局,突然筆者靈光一閃,我們的應用全部是在KVM虛擬機上,會不會是宿主機出了問題。于是聯(lián)系了下SA,看看這些機器的宿主機是個什么情況。

每個變慢的機器的宿主機都有Redis!

這一看就發(fā)現(xiàn)規(guī)律了,原來變慢的機器上都和Redis共宿主機!

登陸上對應的Redis服務器,發(fā)現(xiàn)CPU果然在那個時間點有尖峰。而這點尖峰對整個宿主機的CPU毫無影響(畢竟宿主機有64個核)。crontab -l 一下,果然有定時任務,腳本名為Backup!它起始時間點就是從06分開始往GlusterFS盤進行備份,從06分開始CPU使用率開始上升=>07分達到頂峰=>08分降下來,和耗時曲線完全一致!

原來Redis往Gluster盤備份占據(jù)了大量的IO操作,所以導致宿主機上的其它應用做IO操作時會變得很慢,進而導致但凡是這個備份時間內(nèi)系統(tǒng)間調(diào)用的平均耗時都會暴漲接近10倍,最終導致了高耗時的請求。

為什么調(diào)用請求超時1s的概率這么低

由于我們線上每個應用都有幾十臺機器,而基本每次調(diào)用只有幾十毫秒。所以只有這個請求連續(xù)落到三個甚至多個和Redis共宿主機的系統(tǒng)里面才會導致請求超過1s,這樣才能被我們的統(tǒng)計腳本監(jiān)測到,而那些大量的正常請求完全拉平了平均值。

解決方案

我們將線上實時鏈路的系統(tǒng)從對應有Redis的宿主機中遷移出來,再也沒有那個尷尬的1s了。

借此推薦一本書。

這本書豆瓣評價8.6分,在詳細講解性能問題排查的同時補充了大量的基礎知識,是本很不錯的書。

總結

在遇到問題,并且思路陷入僵局時,可以通過一些腳本工具,例如grep以及awk或者其它一些工具對眾多日志進行分析,不停的去尋找規(guī)律,從無序中找到有序,往往能夠產(chǎn)生意想不到的效果!歡迎大家加我公眾號,里面有各種干貨,還有大禮包相送哦!

1.《解Bug之路-記一次線上請求偶爾變慢的排查》援引自互聯(lián)網(wǎng),旨在傳遞更多網(wǎng)絡信息知識,僅代表作者本人觀點,與本網(wǎng)站無關,侵刪請聯(lián)系頁腳下方聯(lián)系方式。

2.《解Bug之路-記一次線上請求偶爾變慢的排查》僅供讀者參考,本網(wǎng)站未對該內(nèi)容進行證實,對其原創(chuàng)性、真實性、完整性、及時性不作任何保證。

3.文章轉載時請保留本站內(nèi)容來源地址,http://f99ss.com/gl/2195699.html

上一篇

關于11如何舉報外掛,你需要知道這些在網(wǎng)絡游戲中使用外掛,法律管嗎?

下一篇

%20什么意思網(wǎng)絡用語看這里!10月電影票房75.76億,同比增長近20%

如何處理偶發(fā)的Bug?終于找到答案了20%的業(yè)務代碼的Spring聲明式事務,可能都沒處理正確

如何處理偶發(fā)的Bug?終于找到答案了20%的業(yè)務代碼的Spring聲明式事務,可能都沒處理正確

如何處理偶發(fā)的Bug相關介紹,今天,我來和你聊聊業(yè)務代碼中與數(shù)據(jù)庫事務相關的坑。 Spring針對Java Transaction API (JTA)、JDBC、Hibernate和Java Persistence API (JP...

如何處理偶發(fā)的Bug?我來告訴你答案20%的業(yè)務代碼的Spring聲明式事務,可能都沒處理正確

如何處理偶發(fā)的Bug?我來告訴你答案20%的業(yè)務代碼的Spring聲明式事務,可能都沒處理正確

如何處理偶發(fā)的Bug相關介紹,今天,我來說說商業(yè)代碼中與數(shù)據(jù)庫事務相關的坑。 Spring為事務API(如Java事務處理API(JTA)、JDBC、Hibernate和Java持久性API(JPA))實施了一致的編程模型,Spr...

關于如何處理偶發(fā)的Bug,你需要知道這些解Bug之路-記一次線上請求偶爾變慢的排查

關于如何處理偶發(fā)的Bug,你需要知道這些解Bug之路-記一次線上請求偶爾變慢的排查

如何處理偶發(fā)的Bug相關介紹,解決錯誤的方法-記住一次在線請求,解決偶爾減慢的問題 前言 最近解決了比較棘手的問題,調(diào)查過程很有趣,所以我以這篇文章報道為素材寫的。 Bug現(xiàn)場 這是一個偶發(fā)的性能問題。在每天幾百萬筆交易請求中,平...

如何處理偶發(fā)的Bug?我來告訴你答案解Bug之路-記一次線上請求偶爾變慢的排查

如何處理偶發(fā)的Bug?我來告訴你答案解Bug之路-記一次線上請求偶爾變慢的排查

如何處理偶發(fā)的Bug相關介紹,解決錯誤的方法-記住一次在線請求,解決偶爾減慢的問題 前言 最近解決了比較棘手的問題。調(diào)查過程很有趣,所以把這篇文章資料寫成了素材。 Bug現(xiàn)場 這是一個偶發(fā)的性能問題。在每天幾百萬比交易請求中,平均...

如何處理偶發(fā)的Bug?總結很全面速看!解Bug之路-記一次存儲故障的排查過程

如何處理偶發(fā)的Bug?總結很全面速看!解Bug之路-記一次存儲故障的排查過程

如何處理偶發(fā)的Bug相關介紹,高可用性真的不能忽略細節(jié)。平時運行良好的系統(tǒng),如果該硬件出現(xiàn)故障,可能會引發(fā)潛在的錯誤。 偏偏這些故障在應用層的表現(xiàn)稀奇古怪,很難讓人聯(lián)想到是硬件出了問題,特別是偶發(fā)性出現(xiàn)的問題更難排查。今天,筆者就...

如何處理偶發(fā)的Bug看這里!阿里研究員:線下環(huán)境為何不穩(wěn)定?怎么破

如何處理偶發(fā)的Bug看這里!阿里研究員:線下環(huán)境為何不穩(wěn)定?怎么破

如何處理偶發(fā)的Bug相關介紹,簡介:為什么離線環(huán)境的不穩(wěn)定性是必然的?我們該怎么辦?如何使它盡可能穩(wěn)定? 這篇文章想說兩件事。 為什么離線環(huán)境[1]的不穩(wěn)定性不可避免?我們該怎么辦?如何使它盡可能穩(wěn)定?此外,還討論了如何理解離線環(huán)...

如何處理偶發(fā)的Bug看這里!解Bug之路-記一次存儲故障的排查過程

如何處理偶發(fā)的Bug看這里!解Bug之路-記一次存儲故障的排查過程

如何處理偶發(fā)的Bug相關介紹,高可用性真的不能忽略細節(jié)。平時運行良好的系統(tǒng),如果該硬件出現(xiàn)故障,可能會引發(fā)潛在的錯誤。 偏偏這些故障在應用層的表現(xiàn)稀奇古怪,很難讓人聯(lián)想到是硬件出了問題,特別是偶發(fā)性出現(xiàn)的問題更難排查。今天,筆者就...

關于如何處理偶發(fā)的Bug,你需要知道這些Win10又出新bug了!更新補丁解決了舊毛病 迎來了新問題

關于如何處理偶發(fā)的Bug,你需要知道這些Win10又出新bug了!更新補丁解決了舊毛病 迎來了新問題

如何處理偶發(fā)的Bug相關介紹,一些Windows 10用戶反饋說,微軟在2月最后一周發(fā)布的選擇性更新有問題。 解決了舊Bug,添加了新Bug,工程師這個月又有的忙了。 偶發(fā)問題還是日常BUG呢?微軟每次公布新的更新出現(xiàn)新問題估計大...