用戶名: 密碼: 驗證碼:

自主創(chuàng)新+開放解耦 中興通訊致力打造AI新生態(tài)

摘要:堅持自主創(chuàng)新+開放解耦,中興通訊將持續(xù)與業(yè)界主流GPU廠家進行廣泛深入的合作,全面適配業(yè)界主流的大模型應用,加速AI業(yè)務創(chuàng)新,打造開放共贏的AI生態(tài)圈。

  隨著AIGC如雨后春筍般快速發(fā)展,AI人工智能領域成為全球矚目的焦點,與之相對應的AI智算需求也在大幅增長,在AI技術和應用的快速發(fā)展中,也遇到了一些挑戰(zhàn),如缺乏行業(yè)統(tǒng)一標準、AI技術生態(tài)封閉、AI硬件供應壟斷以及AI軟件應用的兼容問題等,一定程度上限制了AI技術的進一步發(fā)展。

  只有開放繁榮的生態(tài),才能鑄就AI人工智能新時代的未來,在近日舉辦的2024世界人工智能大會上,中興通訊秉承自主創(chuàng)新+開放解耦的理念,全方位展示端到端的開放解耦智算方案,打通從技術到應用的全鏈條能力,廣泛攜手全產(chǎn)業(yè)上下游合作伙伴,實現(xiàn)AI創(chuàng)新成果的共享和共贏,從而打造開放繁榮的AI新生態(tài)。

  在硬件層面,中興通訊憑借多年以來在服務器存儲等算力基礎設施產(chǎn)品方面的研發(fā)投入,堅持自主創(chuàng)新,打造開放的智算服務器硬件基座,產(chǎn)品采用模塊化設計,能夠兼容目前國內(nèi)外主流廠商的多型號CPU和GPU,實現(xiàn)換芯換卡不換座,為客戶提供多元化的算力選擇,兼顧自主創(chuàng)新和性能領先,滿足客戶不同應用場景需求。

  在網(wǎng)絡方面,中興通訊與產(chǎn)業(yè)伙伴共同建立了開放的GPU互聯(lián)標準Olink(Openlink)高速總線互聯(lián)標準,兼容現(xiàn)有RDMA協(xié)議,實現(xiàn)服務器內(nèi)和服務器間統(tǒng)一互聯(lián)技術。

  應用層面,基于中興通訊AIS訓推平臺提供的模型遷移工具套件,可實現(xiàn)大模型跨GPU平臺高效無損業(yè)務遷移,實現(xiàn)5天可用,15天好用,快速進行模型和算子分析,并提供精度分析工具和性能分析工具,幫助開發(fā)者快速定位并解決問題,從而大幅縮短調(diào)試時間,確保模型在遷移后能夠保持良好的性能和穩(wěn)定性。目前AIS訓推平臺提供的模型遷移工具已支持國內(nèi)外多種主流大模型,大幅降低模型遷移的時間和人力成本。

  堅持自主創(chuàng)新+開放解耦,中興通訊將持續(xù)與業(yè)界主流GPU廠家進行廣泛深入的合作,全面適配業(yè)界主流的大模型應用,加速AI業(yè)務創(chuàng)新,打造開放共贏的AI生態(tài)圈。

內(nèi)容來自:C114通信網(wǎng)
本文地址:http://m.3xchallenge.com//Site/CN/News/2024/07/07/20240707152801634810.htm 轉載請保留文章出處
關鍵字:
文章標題:自主創(chuàng)新+開放解耦 中興通訊致力打造AI新生態(tài)
1、凡本網(wǎng)注明“來源:訊石光通訊網(wǎng)”及標有原創(chuàng)的所有作品,版權均屬于訊石光通訊網(wǎng)。未經(jīng)允許禁止轉載、摘編及鏡像,違者必究。對于經(jīng)過授權可以轉載我方內(nèi)容的單位,也必須保持轉載文章、圖像、音視頻的完整性,并完整標注作者信息和本站來源。
2、免責聲明,凡本網(wǎng)注明“來源:XXX(非訊石光通訊網(wǎng))”的作品,均為轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責。因可能存在第三方轉載無法確定原網(wǎng)地址,若作品內(nèi)容、版權爭議和其它問題,請聯(lián)系本網(wǎng),將第一時間刪除。
聯(lián)系方式:訊石光通訊網(wǎng)新聞中心 電話:0755-82960080-168   Right