AI晶片大戰開打:英偉達、AMD和英特爾爭奪霸權
人們越來越看好人工智慧的前景及其潛在的爆發力,而能否發展出具有超高運算能力且符合市場的晶片成為人工智慧平臺的關鍵一役。由此,2016年成為晶片企業和互聯網巨頭們在晶片領域全面展開部署的一年。而在這其中,英偉達保持著絕對的領先地位。但隨著包括穀歌、臉書、微軟、亞馬遜以及百度在內的巨頭相繼加入決戰,人工智慧領域未來的格局如何,仍然待解。
在2016年,所有人都看到了人工智慧的前景和其潛在的爆發力,但不管是AlphaGo還是自動駕駛汽車,要想使得任何精妙演算法得以實現,其基礎是硬體的運算能力:也就是說,能否發展出超高運算能力又符合市場需求的晶片成為了人工智慧平臺的關鍵一役。
因此,毫無疑問,2016年也成為了晶片企業和互聯網巨頭們在晶片領域全面展開部署的一年:先有CPU晶片巨頭因特爾年內三次大手筆收購人工智慧和GPU領域企業;後有谷歌宣佈開發自己的處理系統,而蘋果、微軟、臉書和亞馬遜也都紛紛加入。
而在這其中,領跑者英偉達(Nvidia)因其在人工智慧領域的優勢使其成為了資本市場的絕對寵兒:在過去的一年中,曾經以遊戲晶片見長的Nvidia股價從十幾年的穩居30美元迅速飆升至120美元。
就當資本市場都在猶豫是否人工智慧風口使得英偉達股價虛高時,2月10日,英偉達發佈2016年第四季度的財報顯示,其營收同比增長55%,淨利潤達到了6.55億美元,同比增長216%。
“正當Intel、微軟等巨頭投資人工智慧為基礎的晶片技術時,英偉達已經以Q4財報顯示,這家已經在人工智慧領域投資將近12年的晶片企業已經開始就此收穫可觀的盈利。”資深技術評論家Therese Poletti在其財報發佈後指出。
研究機構Tractica LLC估計,由於深度學習專案產生的硬體花費將從2015年的4360萬美元,上升到2024年的41億美元,而企業的相關軟體花費將同期從1.09億美元上升到100億美元。
正是這一龐大的市場吸引著穀歌、臉書、微軟、亞馬遜以及百度在內的巨頭相繼宣佈企業向人工智慧領域的技術轉向。“在人工智慧相關技術上,目前英偉達仍然保持著絕對的領先,但隨著包括穀歌在內的TPU等技術不斷推向市場,未來的AI硬體格局仍然待解。”一位不便具名的歐洲資深從業人員向21世紀經濟報導表示。
英偉達在GPU領域顯著領先
根據英偉達最新公佈的年報,其最主要的業務領域均出現了兩位數以上的增長。除了其一直佔有領先優勢的遊戲業務增長之外,其更多的漲幅事實上來自於資料中心業務和自動駕駛兩大全新業務板塊。
年報資料顯示,資料中心業務有138%的增長,而自動駕駛有52%的增長。
“事實上,這是整個英偉達財報裡最具有說明力的內容,因為資料業務和自動駕駛的增長根本上是人工智慧和深度學習的發展所激發的。”一位元美國電腦硬體分析師向21世紀經濟報導表示。
在目前的深度學習領域,把神經網路投入實際應用要經歷兩個階段:首先是訓練,其次是執行。從目前的環境來看,訓練階段非常需要處理大量資料的GPU(圖形處理器,下同),也就是以遊戲和高度圖形化的應用做圖像渲染起家的英偉達領先的領域;而在轉型階段則需要處理複雜程式的CPU,也就是微軟十幾年來領先的領域。
“英偉達目前的成功事實上代表了GPU的成功,它正是最早的GPU領先者之一。”上述行業分析師表示。
深度學習神經網路尤其是幾百上千層的神經網路,對高性能計算需求非常高,而GPU對處理複雜運算擁有天然的優勢:它有出色的並行矩陣計算能力,對於神經網路的訓練和分類都可以提供顯著的加速效果。
舉個例子,研究員不用一開始就人工定義一個人臉,而是可以將幾百萬個人臉的圖像展示出來,讓電腦自己定義人臉應該是什麼樣子的。學習這樣的例子時,GPU可以比傳統處理器更加快速,大大加快了訓練過程。
目前,穀歌、Facebook、微軟、Twitter和百度等互聯網巨頭,都在使用這種叫做GPU的晶片,讓伺服器學習海量的照片、視頻、聲音文檔,以及社交媒體上的資訊,來改善搜索和自動化照片標記等各種各樣的軟體功能。一些汽車製造商也在利用這項技術,開發可以感知周圍環境、避開危險區域的無人駕駛汽車。
除了在GPU和圖形計算領域長期領先,英偉達也是最早一批在人工智慧領域進行投資的科技公司。2008年,當時在斯坦福做研究的吳恩達發表了一篇用GPU上的CUDA進行神經網路訓練的論文。2012年“深度學習三巨頭”之一Geoff Hilton的學生Alex Krizhevsky用英偉達的GeForce顯卡在ImageNet中將圖像識別準確率大幅提升,這也是英偉達CEO黃仁勳時常提到的英偉達注重深度學習的開端。
有報告顯示,世界上目前約有3000多家AI初創公司,大部分都採用了Nvidia提供的硬體平臺。
“深度學習被證明是非常有效的。”黃仁勳在季報2月10日的發佈會中表示。在列舉目前GPU計算平臺正在人工智慧、雲計算、遊戲和自動駕駛領域快速展開應用的同時,黃仁勳表示,在未來數年間,深度學習將會成為電腦計算的一種基礎性的核心工具。
AMD和Intel巨頭的AI演變
投資者和晶片製造商關注著所有互聯網巨頭的一舉一動。僅僅以英偉達的資料中心業務為例,在很長一段時間以來,該公司一直為穀歌提供資料服務。
英偉達並非GPU的唯一領先者,巨頭Intel和AMD都在這一領域有著不同的優勢。
2016年11月,Intel公司發佈了一個叫做Nervana的AI處理器,他們宣稱會在明年年中測試這個原型。如果一切進展順利,Nervana晶片的最終形態會在2017年底面世。這個晶片名稱基於Intel早前購買的一個叫做Nervana的公司。按照Intel的人所說,這家公司是世界上第一家專門為AI打造晶片的公司。
Intel公司披露了一些關於這個晶片的一些細節,按照他們所說,這個專案代碼為“Lake Crest”,將會用到Nervana Engine和Neon DNN相關軟體。這款晶片可以加速各類神經網路,例如穀歌TensorFlow框架。
晶片由所謂的“處理集群”陣列構成,處理被稱作“活動點”的簡化數學運算。相對於浮點運算,這種方法所需的資料量更少,因此帶來了10倍的性能提升。
Lake Crest利用私有的資料連接創造了規模更大、速度更快的集群,其拓撲結構為圓環形或其他形式。這幫助用戶創造更大、更多元化的神經網路模型。這一資料連接中包含12個100Gbps的雙向連接,其實體層基於28G的串並轉換。
TPU與FPGA可能的逆襲
在上述晶片巨頭進行GPU領域的提升之外,有更多的企業在試圖引發一輪全面的顛覆。其代表為谷歌在2016年宣佈將獨立開發一種名為TPU的全新的處理系統。
TPU是專門為機器學習應用而設計的專用晶片。通過降低晶片的計算精度,減少實現每個計算操作所需的電晶體數量,從而能讓晶片的每秒運行的操作個數更高,這樣經過精細調優的機器學習模型就能在晶片上運行得更快,進而更快地讓用戶得到更智慧的結果。Google將TPU加速器晶片嵌入電路板中,利用已有的硬碟PCI-E介面接入資料中心伺服器中。
據Google資深副總裁Urs Holzle透露,當前Google TPU、GPU並用,這種情況仍會維持一段時間,但他表示,GPU可執行繪圖運算工作,用途多元;TPU屬於ASIC,也就是專為特定用途設計的特殊規格邏輯IC,由於只執行單一工作,速度更快,但缺點是成本較高。
除了上述提到的穀歌,微軟也在使用一種叫做現場可變程式設計閘陣列(FPGA)的新型處理器。
據介紹,這個FPGA目前已支持微軟Bing,未來它們將會驅動基於深度神經網路——以人類大腦結構為基礎建模的人工智慧——的新搜索演算法,在執行這個人工智慧的幾個命令時,速度比普通晶片快上幾個數量級。有了它,你的電腦螢幕只會空屏23毫秒而不是4秒。
在第三代原型中,晶片位於每個伺服器的邊緣,直接插入到網路,但仍舊創造任何機器都可接入的FPGA池。這開始看起來是Office 365可用的東西了。最終,Project Catapult準備好上線了。另外,Catapult硬體的成本只占了伺服器中所有其它的配件總成本的30%,需要的運轉能量也只有不到10%,但其處理速度卻是原來的2倍。
此外,有一些公司,例如Nervada和Movidius,類比GPU的平行模式,但是專注於更快速地移動資料,省略圖像所需要的功能。其他公司,包括使用了被稱為“True North”的晶片的IBM公司,開發了由神經元、突觸等其他大腦特徵所啟發的晶片設計。
由於深度學習和人工智慧未來的巨大前景,各大巨頭都在儘量爭取技術上的優勢。如果這其中的某家公司,如穀歌,用一種新型晶片替換掉現有晶片,這基本上就相當於顛覆了整個晶片行業。
“不管是英偉達、Intel還是穀歌或是百度,都在尋找一種未來人工智慧能夠廣泛應用的基礎。”Therese Poletti表示。
而也有很多人持有與谷歌副總裁Urs Holzle同樣的觀點,認為在人工智慧的遙遠未來,GPU沒有代替CPU,而TPU也不會取代GPU,晶片市場將出現更大的需求和繁榮。