美光內存與存儲是實現數字孿生的理想之選
據 IDC 預測,從 2021 年到 2027 年,作為數字孿生的新型物理資產和流程建模的數量將從 5% 增加到 60%。盡管將資產行為中的關鍵要素數字化并非一種全新概念,但數字孿生技術從精確傳感到實時計算,再到將海量數據轉為深度洞察,從多方面進一步推動了設備和運營系統(tǒng)優(yōu)化,從而實現擴大規(guī)模并縮短產品上市時間。此外,啟用人工智能/機器學習 (AI/ML) 模型將有助于提高流程效率、減少產品缺陷,實現出色的整體設備效率 (OEE)。
本文引用地址:http://2s4d.com/article/202402/455399.htm當我們了解了上述需求的復雜性和面臨的挑戰(zhàn),就能意識到內存與存儲對于實現數字孿生至關重要。
首要挑戰(zhàn) — 如何提取恰當的數據
創(chuàng)建數字孿生不僅是對物理特性的單向感知,還包括對內外子系統(tǒng)交互進行建模。例如,感知發(fā)電機振動的諧波輪廓有助于人們深入理解孿生圖像如何與電機、軸承、皮帶的物理特性相關聯,及其相互作用產生的影響。如果人們想為一臺機器創(chuàng)建“數字孿生”,僅通過在它周圍安裝傳感器,而忽視其子系統(tǒng)之間的相互依存,將無法得到真正意義上的“孿生”。
為現有系統(tǒng)創(chuàng)建數字孿生則更加復雜,因為在已運行的機器上添加新傳感器并非易事。實際上,概念驗證的第一步是添加一個擁有極少接口的 DIY 或嵌入式電路板,以支持從傳感器到云的數據轉換。添加連接部分相對簡單,而實際建模卻非常復雜,需要存儲動態(tài)數據并將其與訓練好的模型進行對比。不僅如此,由于有數十甚至數百種系統(tǒng)需要建模,該方法并不是最具可擴展性的解決方案。
計算將持續(xù)演進
內置于卷積神經網絡 (CNN) 加速器的新處理器架構是實現更快推理計算的良好開端。這些設備不僅可以接收模擬信號,還能在設備內部處理和過濾數據噪聲,僅保留與模型相關的值。這些特性為智能端點量身定制,其并行操作性能可達 GFLOPS(每秒十億浮點運算)量級,略低于 20 TOPS(每秒萬億次運算)。
低成本、低功耗的 GPU 也十分重要。它們提供了基于硬件的機器學習計算引擎,運行更敏捷,計算性能更強大,可實現更高的 OPS(每秒操作次數)。業(yè)界目前已有專為邊緣設備設計的 GPU,其操作次數低于 100 TOPS,以及更多基礎設施級別的 GPU,操作次數高于 200+ TOPS。
低功耗 DRAM 內存是 AI 加速解決方案的理想之選
顯而易見,由于架構不同,配備加速器的多核通用 CPU 可能需要 x16 或 x32 位內存寬度,而高端 GPU 則可能需要高達 x256 位內存寬度的 IO。
如果在計算時將 GB 級數據移入或導出至外部內存,就需要內存擁有更高的總線帶寬性能。下表顯示了對內存接口的性能要求(基于 INT 8 TOPS 要求)。
伴隨不斷推出的新標準,內存性能也在持續(xù)提升以滿足 AI 加速解決方案的要求。例如,LPDDR4/x(低功耗 DDR4 DRAM)和 LPDDR5/x(低功耗 DDR5 DRAM)解決方案的性能較前代技術相比有了顯著提升。
LPDDR4 的傳輸速率高達 4.2 Gbps 且支持 x64 的總線帶寬。LPDDR5x 的性能與 LPDDR4 相比提高了 50%,且傳輸速率翻倍,可達 8.5 Gbps。此外,LPDDR5 的能效相比 LPDDR4X 也提高了 20%。這些顯著進步有助于提升內存整體性能,以匹配前沿的處理器技術。
嵌入式存儲可支持復雜的機器學習
計算資源不僅受到處理單元原始 TOPs 和內存架構帶寬的限制。隨著機器學習模型越來越復雜,模型參數數量正以指數級速度增長2。
為了提高模型效率,機器學習模型和數據集不斷擴張,因此需要更高性能的嵌入式存儲。典型的托管型 NAND 解決方案(例如 3.2Gb/s 的 eMMC 5.1)不僅是代碼讀取的理想之選,也適用于遠程數據存儲。新興技術(如 UFS 接口)的出現使存儲性能提升了 7 倍 ,可實現 23.2 Gb/s 的傳輸速率,能夠支持更復雜的模型。
這些嵌入式存儲技術也是機器學習資源鏈的組成部分。
選擇合適內存,助力數字孿生
眾所周知,邊緣端點和設備將產生 TB 級數據,這不僅因為數據本身具有保真度,還因為接入數據能幫助改進數字模型——這正是實現數字孿生所需要的。
此外,應用代碼也需擴展以管理數據流和邊緣計算平臺基礎設施,同時增加 XaaS(即服務)業(yè)務模型。
數字孿生技術擁有廣闊的發(fā)展前景,但如果只針對“鼻子”或“眼睛”等局部構建“孿生”,就缺乏完整的“面部圖像”,也就很難確定這是否是真正意義上的“孿生”。因此,未來在談及數字孿生時需要考慮多重因素,包括監(jiān)測對象與所需的計算內存和數據存儲。美光作為工業(yè)內存解決方案領域的前沿廠商,提供了廣泛的嵌入式內存產品,包括基于 1-alpha 技術以用于快速 AI 計算的 LPDDR4/x 和 LPDDR5/x 、集成在 eMMC 中的 176 層 NAND 技術,以及支持 UFS 的存儲解決方案。這些重要的內存與存儲技術將助力美光滿足您的計算需求。
1 IDC FutureScape,2021 年
2 “機器學習中的參數個數”(Toward Data Science),2021 年
作者:Wil Florentino——Wil Florentino 擔任美光工業(yè)市場業(yè)務部門高級市場營銷經理,負責提供與市場相關的洞察與專業(yè)見解,例如工業(yè)物聯網(IIoT)和工業(yè)邊緣計算,以支持新產品路線圖中的內存解決方案。Florentino 先生在嵌入式半導體技術領域(SoC、FPGA、微控制器和內存)擁有超過 20 年的工作經驗,主攻工業(yè)應用。
評論