訂閱
糾錯
加入自媒體

機器人能否“說人話”?

利用英特爾AVX-512技術和bfloat16指令,騰訊的科學家們確保了GRU模塊和Dense運算符中粗略部分/精細部分的所有SGEMV計算都使用512位矢量進行矢量化,并采用bfloat16點積指令;對于按元素逐個加/乘等運算以及其他非線性激活,都使用最新的英特爾AVX-512 指令運行。

在最終都性能測試中,通過優(yōu)化,相同質量水平(MOS4.5)的文本轉語音速度比FP32提升了高達1.54倍。

此外,騰訊還以 GAN 和 Parallel WaveNet (PWaveNet)為基礎,推出了一種改進后的模型,并基于第三代英特爾至強可擴展處理器對模型性能進行了優(yōu)化,最終使性能與采用FP32相比提升了高達1.89倍,同時質量水平仍保持不變 (MOS4.4)。

騰訊在TTS領域的進展顯示出了人工智能領域的一個趨勢,那就是科學家們越來越多開始利用英特爾深度學習加速技術在CPU平臺上開展工作。

就像騰訊在針對TTS的探索中獲得了性能提升那樣,第二代和第三代英特爾至強可擴展處理器在集成了加速技術后,已經顯著提升了人工智能工作負載的性能。

在更廣泛的領域內,我們已經能夠清楚地看到這種變化——在效率表現上,由于針對常見人工智能軟件框架,如TensorFlow和PyTorch、庫和工具所做的優(yōu)化,CPU平臺可以幫助保持較高的性能功耗比和性價比。

尤其是擴展性上,用戶在設計系統(tǒng)時可以利用如英特爾以太網700系列,和英特爾傲騰內存存儲技術,來優(yōu)化網絡和內存配置。這樣一來,他們就可以在充分利用現有硬件投資的情況下,輕松擴展人工智能訓練的工作負載,獲得更高的吞吐量,甚至處理巨大的數據集。

不止于處理器平臺本身,英特爾目前在面向人工智能優(yōu)化的軟件,以及市場就緒型人工智能解決方案兩個維度,都建立起了差異化的市場優(yōu)勢。

例如在軟件方面,英特爾2019年2月進行的 OpenVINO/ResNet50 INT8 性能測試顯示,使用 OpenVINO或TensorFlow和英特爾深度學習加速技術時,人工智能推理性能可提高多達 3.75 倍。

今天,英特爾已經攜手解決方案提供商,構建了一系列的精選解決方案。這些方案預先進行了配置,并對工作負載進行了優(yōu)化。這就包括了如基于人工智能推理的英特爾精選解決方案,以及面向在面向在Apache Spark上運行的BigDL的英特爾精選解決方案等。

這些變化和方案的出現對于那些希望能從整體業(yè)務視角,去觀察人工智能進展的機構或企業(yè)的管理層顯然也很有意義——如果只通過優(yōu)化,就能在一個通用平臺上完成所有人工智能的探索和落地,那么投資的價值就能夠實現最大化。

許多企業(yè)做出了這樣的選擇,GE醫(yī)療就是其中一家。作為GE集團旗下的醫(yī)療健康業(yè)務部門,它構建了一個人工智能醫(yī)學影像部署架構。

通過采用英特爾至強可擴展處理器,和英特爾固態(tài)盤,以及多項英特爾關鍵技術——例如英特爾深度學習開發(fā)工具包,和面向深度神經網絡的英特爾數學核心函數庫等;GE醫(yī)療收獲了未曾預料到的成果:

這一解決方案最終比基礎解決方案的推理速度提升了多達14倍,且超過了GE原定推理目標5.9倍。

<上一頁  1  2  
聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號