国产在线观看精品免费,亚洲日本VA久久一区二区,香蕉久久99综合一区二区三区,久久精品99国产精品蜜桃小说

牛逼了!Python 接口優(yōu)化,性能提升25倍!

2021-11-03 15:51:33 shuai.chang

睿智創(chuàng  )新RAIZ,一體化IT服務(wù)提供商

背景

我們負責的一個(gè)業(yè)務(wù)平臺,有次在發(fā)現設置頁(yè)面的加載特別特別地慢,簡(jiǎn)直就是令人發(fā)指

睿智創(chuàng  )新RAIZ,一體化IT服務(wù)提供商

讓用戶(hù)等待 36s 肯定是不可能的,于是我們就要開(kāi)啟優(yōu)化之旅了。

投石問(wèn)路

既然是網(wǎng)站的響應問(wèn)題,可以通過(guò) Chrome 這個(gè)強大的工具幫助我們快速找到優(yōu)化方向。

通過(guò) Chrome 的 Network 除了可以看到接口請求耗時(shí)之外,還能看到一個(gè)時(shí)間的分配情況,選擇一個(gè)配置沒(méi)有那么多的項目,簡(jiǎn)單請求看看:

睿智創(chuàng  )新RAIZ,一體化IT服務(wù)提供商

雖然只是一個(gè)只有三條記錄的項目,加載項目設置都需要 17s,通過(guò) Timing, 可以看到總的請求共耗時(shí) 17.67s ,但有 17.57s 是在 Waiting(TTFB) 狀態(tài)。

TTFB 是 Time to First Byte 的縮寫(xiě),指的是瀏覽器開(kāi)始收到服務(wù)器響應數據的時(shí)間(后臺處理時(shí)間+重定向時(shí)間),是反映服務(wù)端響應速度的重要指標。


Profile 火焰圖 + 代碼調優(yōu)


那么大概可以知道優(yōu)化的大方向是在后端接口處理上面,后端代碼是 Python + Flask 實(shí)現的,先不盲猜,直接上 Profile:

睿智創(chuàng  )新RAIZ,一體化IT服務(wù)提供商第一波優(yōu)化:功能交互重新設計

說(shuō)實(shí)話(huà)看到這段代碼是絕望的:完全看不出什么?只是看到很多 gevent 和 Threading,因為太多協(xié)程或者線(xiàn)程?

這時(shí)候一定要結合代碼來(lái)分析(為了簡(jiǎn)短篇幅,參數部分用 “...” 代替):

?def get_max_cpus(project_code, gids):
    """
    """

    ...
    # 再定義一個(gè)獲取 cpu 的函數
    def get_max_cpu(project_setting, gid, token, headers):
        group_with_machines = utils.get_groups(...)
        hostnames = get_info_from_machines_info(...)
        res = fetchers.MonitorAPIFetcher.get(...)
        vals = [
            round(100 - val, 4)
            for ts, val in res['series'][0]['data']
            if not utils.is_nan(val)
        ]
        max_val = max(vals) if vals else float('nan')
        max_cpus[gid] = max_val
     
    #  啟動(dòng)線(xiàn)程批量請求
    for gid in gids:
        t = Thread(target=get_max_cpu, args=(...))
        threads.append(t)
        t.start()
       
    # 回收線(xiàn)程
    for t in threads:
        t.join()

    return max_cpus

通過(guò)代碼可以看到,為了更加快速獲取 gids 所有的 cpu_max 數據,為每個(gè) gid 分配一個(gè)線(xiàn)程去請求,最終再返回最大值。

這里會(huì )出現兩個(gè)問(wèn)題:

  1. 在一個(gè) web api 做線(xiàn)程的 創(chuàng )建 和 銷(xiāo)毀 是有很大成本的,因為接口會(huì )頻繁被觸發(fā),線(xiàn)程的操作也會(huì )頻繁發(fā)生,應該盡可能使用線(xiàn)程池之類(lèi)的,降低系統花銷(xiāo);
  2. 該請求是加載某個(gè) gid (群組) 下面的機器過(guò)去 7 天的 CPU 最大值,可以簡(jiǎn)單拍腦袋想下,這個(gè)值不是實(shí)時(shí)值也不是一個(gè)均值,而是一個(gè)最大值,很多時(shí)候可能并沒(méi)有想象中那么大價(jià)值;

既然知道問(wèn)題,那就有針對性的方案:

  1. 調整功能設計,不再默認加載 CPU 最大值,換成用戶(hù)點(diǎn)擊加載(一來(lái)降低并發(fā)的可能,二來(lái)不會(huì )影響整體);
  2. 因為 1 的調整,去掉多線(xiàn)程實(shí)現;

再看第一波優(yōu)化后的火焰圖:

睿智創(chuàng  )新RAIZ,一體化IT服務(wù)提供商

這次看的火焰圖雖然還有很大的優(yōu)化空間,但起碼看起來(lái)有點(diǎn)正常的樣子了。

第二波優(yōu)化:Mysql 操作優(yōu)化處理

我們再從頁(yè)面標記處(接口邏輯處)放大火焰圖觀(guān)察:

睿智創(chuàng  )新RAIZ,一體化IT服務(wù)提供商

看到好大一片操作都是由 utils.py:get_group_profile_settings 這個(gè)函數引起的數據庫操作熱點(diǎn)。

同理,也是需要通過(guò)代碼分析:

def get_group_profile_settings(project_code, gids):
   
    # 獲取 Mysql ORM 操作對象
    ProfileSetting = unpurview(sandman.endpoint_class('profile_settings'))
    session = get_postman_session()
   
    profile_settings = {}
    for gid in gids:
        compound_name = project_code + ':' + gid
        result = session.query(ProfileSetting).filter(
            ProfileSetting.name == compound_name
        ).first()
       
        if result:
            result = result.as_dict()
            tag_indexes = result.get('tag_indexes')
            profile_settings[gid] = {
                'tag_indexes': tag_indexes,
                'interval': result['interval'],
                'status': result['status'],
                'profile_machines': result['profile_machines'],
                'thread_settings': result['thread_settings']
            }
            ...(省略)
    return profile_settings

看到 Mysql ,第一個(gè)反應就是 索引問(wèn)題,所以?xún)?yōu)先去看看數據庫的索引情況,如果有索引的話(huà)應該不會(huì )是瓶頸:

睿智創(chuàng  )新RAIZ,一體化IT服務(wù)提供商

很奇怪這里明明已經(jīng)有了索引了,為什么速度還是這個(gè)鬼樣子呢!

正當毫無(wú)頭緒的時(shí)候,突然想起在 第一波優(yōu)化 的時(shí)候, 發(fā)現 gid(群組)越多的影響越明顯,然后看回上面的代碼,看到那句:

for gid in gids: 
    ...

我仿佛明白了什么。

這里是每個(gè) gid 都去查詢(xún)一次數據庫,而項目經(jīng)常有 20 ~ 50+ 個(gè)群組,那肯定直接爆炸了。

其實(shí) Mysql 是支持單字段多值的查詢(xún),而且每條記錄并沒(méi)有太多的數據,我可以嘗試下用 Mysql 的 OR 語(yǔ)法,除了避免多次網(wǎng)絡(luò )請求,還能避開(kāi)那該死的 for

正當我想事不宜遲直接搞起的時(shí)候,余光瞥見(jiàn)在剛才的代碼還有一個(gè)地方可以?xún)?yōu)化,那就是:

睿智創(chuàng  )新RAIZ,一體化IT服務(wù)提供商

看到這里,熟悉的朋友大概會(huì )明白是怎么回事。

GetAttr 這個(gè)方法是Python 獲取對象的 方法/屬性 時(shí)候會(huì )用到,雖然不可不用,但是如果在使用太過(guò)頻繁也會(huì )有一定的性能損耗。

結合代碼一起來(lái)看:

def get_group_profile_settings(project_code, gids):
   
    # 獲取 Mysql ORM 操作對象
    ProfileSetting = unpurview(sandman.endpoint_class('profile_settings'))
    session = get_postman_session()
   
    profile_settings = {}
    for gid in gids:
        compound_name = project_code + ':' + gid
        result = session.query(ProfileSetting).filter(
            ProfileSetting.name == compound_name
        ).first()
        ...

在這個(gè)遍歷很多次的 for 里面,session.query(ProfileSetting) 被反復無(wú)效執行了,然后 filter 這個(gè)屬性方法也被頻繁讀取和執行,所以這里也可以被優(yōu)化。

總結下的問(wèn)題就是:

1. 數據庫的查詢(xún)沒(méi)有批量查詢(xún);
2. ORM 的對象太多重復的生成,導致性能損耗;
3. 屬性讀取后沒(méi)有復用,導致在遍歷次數較大的循環(huán)體內頻繁 getAttr,成本被放大;

那么對癥下藥就是:

def get_group_profile_settings(project_code, gids):
   
    # 獲取 Mysql ORM 操作對象
    ProfileSetting = unpurview(sandman.endpoint_class('profile_settings'))
    session = get_postman_session()
   
   
    # 批量查詢(xún) 并將 filter 提到循環(huán)之外
    query_results = query_instance.filter(
        ProfileSetting.name.in_(project_code + ':' + gid for gid in gids)
    ).all()

    # 對全部的查詢(xún)結果再單條處理
    profile_settings = {}
    for result in query_results:
        if not result:
            continue
        result = result.as_dict()
        gid = result['name'].split(':')[1]
        tag_indexes = result.get('tag_indexes')
        profile_settings[gid] = {
            'tag_indexes': tag_indexes,
            'interval': result['interval'],
            'status': result['status'],
            'profile_machines': result['profile_machines'],
            'thread_settings': result['thread_settings']
        }

            ...(省略)
    return profile_settings

優(yōu)化后的火焰圖:

睿智創(chuàng  )新RAIZ,一體化IT服務(wù)提供商

對比下優(yōu)化前的相同位置的火焰圖:

睿智創(chuàng  )新RAIZ,一體化IT服務(wù)提供商

明顯的優(yōu)化點(diǎn):優(yōu)化前的,最底部的 utils.py:get_group_profile_settings 和 數據庫相關(guān)的熱點(diǎn)大大縮減。

優(yōu)化效果

同一個(gè)項目的接口的響應時(shí)長(cháng)從 37.6 s 優(yōu)化成 1.47s,具體的截圖:

睿智創(chuàng  )新RAIZ,一體化IT服務(wù)提供商優(yōu)化總結

如同一句名言:

如果一個(gè)數據結構足夠優(yōu)秀,那么它是不需要多好的算法。

在優(yōu)化功能的時(shí)候,最快的優(yōu)化就是:去掉那個(gè)功能!

其次快就是調整那個(gè)功能觸發(fā)的 頻率 或者 復雜度!

從上到下,從用戶(hù)使用場(chǎng)景去考慮這個(gè)功能優(yōu)化方式,往往會(huì )帶來(lái)更加簡(jiǎn)單高效的結果,嘿嘿!

當然很多時(shí)候我們是無(wú)法那么幸運的,如果我們實(shí)在無(wú)法去掉或者調整,那么就發(fā)揮做程序猿的價(jià)值咯:Profile

針對 Python 可以嘗試:cProflile + gprof2dot

而針對 Go 可以使用: pprof + go-torch

很多時(shí)候看到的代碼問(wèn)題都不一定是真正的性能瓶頸,需要結合工具來(lái)客觀(guān)分析,這樣才能有效直擊痛點(diǎn)!

其實(shí)這個(gè) 1.47s,其實(shí)還不是最好的結果,還可以有更多優(yōu)化的空間,比如:

  1. 前端渲染和呈現的方式,因為整個(gè)表格是有很多數據組裝后再呈現的,響應慢的單元格可以默認先顯示 菊花,數據返回再更新;
  2. 火焰圖看到還有挺多細節可以?xún)?yōu)化,可以替換請求數據的外部接口,比如再優(yōu)化徹底 GetAttr 相關(guān)的邏輯;
  3. 更極端就是直接 Python 轉 GO;

但是這些優(yōu)化已經(jīng)不是那么迫切了,因為這個(gè) 1.47s 是比較大型項目的優(yōu)化結果了,絕大部分的項目其實(shí)不到 1s 就能返回

再優(yōu)化可能付出更大成本,而結果可能也只是從 500ms400ms 而已,結果并不那么高性?xún)r(jià)比。

所以我們一定要時(shí)刻清晰自己優(yōu)化的目標,時(shí)刻考慮 投入產(chǎn)出比,在有限的時(shí)間做出比較高的價(jià)值(如果有空閑時(shí)間當然可以盡情干到底)


我要咨詢(xún)