和手機的其他零件相比,NPU 登場的時間要晚得多。
2017 年 9 月華為在柏林 IFA 展發布的麒麟 970 是首顆集成 NPU 的 SoC,同一時期,蘋果發布了首次搭載神經計算引擎的 A11 仿生芯片,兩個陣營對 AI 計算領域的關注出奇同步。
AI 功能的出現看似突兀,但這其實是智能手機形態發展過程中自然演化的結果。
《連線》雜志與蘋果副總裁 Tim Millet 關于 A 系列芯片的訪談中提到,在 iPhone X 發布的數年前,蘋果的一些工程師就提出了利用機器學習算法讓 iPhone 的攝像頭變得更智能的想法。
正是這個想法,讓定義了 iPhone 未來十年形態的 iPhone X 有了落地的可能。轉向全面屏的 iPhone X 需要一個新的安全機制取代原本占據下巴的 Touch ID,并且在準確度、解鎖速度都不能落后前者,為了實現這些點,蘋果轉向了 3D 結構光面容識別。
每次點亮 iPhone 進行解鎖,位于劉海中的深感攝像頭都會通過成千上萬個點創建一個深度圖,與儲存的人臉數據比對完成解鎖,而這個收集、創建、校對的過程需要控制在瞬息之間,更重要的是,功耗必須控制在一個足夠低的水平。
根據蘋果公布的數據,iPhone 用戶每日平均解鎖次數為 80 次,如果每次解鎖都要調動 CPU 或 GPU 做高功耗的圖形運算,對手機續航而言會是個相當大的挑戰。
▲ 機器學習的過程
而多核架構的神經計算引擎可以同時執行大量運算,并且經過深度機器學習,它可以像人腦一樣識別和判斷人面信息,利用它實現人臉識別在功耗和性能上比傳統 CPU 都有著不小的優勢。
「如果沒有神經計算引擎,我們不可能做到這一點」,Tim Millet 在訪談中提到。
隨著核心數的增多,神經計算引擎算力也會隨之大幅提升,其應用也越來越廣。
例如 A13 仿生芯片的 8 核神經計算引擎為 iPhone11 系列帶來了 Deep Fusion 和夜景模式功能,通過多張融合提升照片的清晰度和細節;A14 仿生芯片的神經計算引擎提升到了 16 核,能夠在拍攝時同時調用多枚攝像頭,實現順滑的變焦體驗。
▲ A15 仿生芯片和 A14 仿生芯片的剖析圖,神經計算引擎集中在左下角
總的來說,神經計算引擎等 NPU 的出現,可以很好地分擔 CPU 或 GPU 的算力壓力,通過對大數據進行高效的并行分析和計算,提取出有意義的結果,用更自然的處理能力改善我們的體驗。
來源:愛范兒