16家頭部大模型公司上海神秘碰面,現場人擠人人人
- hktechblog
- 2024年6月12日
- 讀畢需時 8 分鐘
擠爆了,簡直要被大模型公司們擠爆了。
來感受一下這個feel:

毫不誇張地說,國內外叫得上來的大模型公司基本上都來了——
Anthropic、Meta、Mistral.AI、Stability.ai、月之暗面、智譜AI、百川、MiniMax…
到底是什麼樣的事情能讓它們紛紛聚集在一起了?
不賣關子,這正是“雲端運算一哥”Amazon Web Services(AWS)所舉辦的中國峰會,整場活動的關鍵字是大熱的生成式AI。

不過有一說一,自從打AIGC大戰開局以來,全球科技巨頭如Google、微軟、OpenAI等一直呈現出你追我趕的態勢。
而AWS的「出鏡率」似乎並沒有它們那麼高,但這場活動又為何會引來如此多的廠商和圍觀群眾?
其實在深入了解和體驗一番之後,我們不難發現,AWS在AIGC這件事上已然是“全端+全能」的狀態了。
已經可以上崗的AIGC應用
之所以說是全棧,是因為AWS的能力已經涵蓋了生成式AI最為關鍵的三大層面,也就是:
算力層:用於基礎模型訓練和推理的基礎設施
模型層:使用基礎模型加速生成式AI應用構建
應用層:開箱即用的生成式AI應用

至於能力如何,我們直接來看下最直觀的效果。
在生成式AI應用方面,AWS面向企業和開發人員所推出的是生成式AI助理——AWSQ。
它相當於為企業配備了一個量身定制的AI專家,可以根據企業既有的人員、角色和權限對每個用戶互動進行個性化的定制。
例如用上Amazon Q Developer(開發者版),程式設計這件事就只需簡單的「點點點」和「提出要求」。
以功能開發和程式碼轉換為例,開發者只需要向Amazon Q描述想要的新功能即可,然後它就能自行規劃、執行和迭代:

而Amazon Q也會根據任務的內容,動態地分配最適合的大模型,讓效能做到Pro Max。

再如Amazon Q Business(企業版),同樣也是只需要簡單的語言輸入,就能幫助員工簡化任務、加速決策。
例如員工可以根據公司已有但分散的數據訊息,讓Amazon Q來做整理和分析的工作,從而給員工答疑解惑、增加工作效率:

整合分析、撰寫報告和製作PPT文稿等工作也是不在話下:

除此之外,AWS為了讓提高效率這事更上一層樓,還推出了Amazon Q Apps,它是Amazon Q Business中的一項功能,可以讓員工能夠迅速且安全的基於企業資訊創建、分享應用程式。
而Amazon Q Apps是不需要任何程式設計經驗、可以基於歷史對話、自動化的那種。
例如一個HR如果要創建一個新人的入職30天計劃,就只需要向Amazon Q Apps“餵”員工姓名和工號即可。
而整個過程,也只需要短短幾秒鐘的時間!

在數據分析處理方面,AWS則是將Amazon Q整合到了快視中。
以往產生一個商業智慧儀錶板可能需要數個小時的時間,但現在,幾分鐘就可以搞定了。

而且所有員工都可以根據這樣視覺化的資料內容,向Amazon Q提出自己的問題,讓複雜的資料分析任務變得簡單且有效率。

總而言之,縱觀Amazon Q的效果和能力,AWS主打的就是用生成式AI的力量把繁瑣複雜的工作任務變得簡單,簡單,再簡單。
但Amazon Q之所以能在企業場景中做到如此各方面且絲滑,離不開背後大模型的能力。
不會有一個大模型一統天下
AWS的大模式能力對外輸出,主要靠處於模型層的AWS基岩。
它是AWS正式加入大模型浪潮競爭的標誌,也是AWS和微軟OpenAI正面硬剛的關鍵。
基於Bedrock打造的生成式AI應用,已經多達數十種,讓人看得眼花撩亂。

簡單理解,Bedrock是一個整合了多種先進AI大模型的平台,只需單一API,就可以提供包括Claude、Mistral、Llama、Stable Diffusion、自研Titan系列在內30個模型的能力。透過提供預訓練、微調、知識庫、RAG、模型評估等功能,能夠靈活客製化大模型或應用。

AWS全球副總裁、AWS大中華區總裁儲瑞松在峰會上表示,AWS一直認為「不會有一個模型一統天下”,企業有從多個大模型中做選擇的權力。
因此,在Bedrock上被放置了數十個業界領先的大模型供企業選擇。包括和GPT-4並駕齊驅的克勞德 3、主開啟來源的Llama系列和米斯特拉爾人工智慧、以及影像生成方面的Stable Diffusion。
同時也包括AWS自研的Titan系列,目前已陸續推出7個模型,能力範圍包括文字摘要檢索生成、圖像生成、RAG、思維鏈、問答、搜尋、個人化、推薦等。

具體能力上,Bedrock聚焦在4個面向:
豐富靈活的模型選擇
輕鬆客製化模型
簡化AI應用集成
保障隱私安全
最首要的,建構生成式AI應用關鍵的一步是找到合適的模型。

Bedrock提供了業界最廣泛的模型選擇,並推出Model Evaluation功能,支援企業快速分析和比較不同模型。
一般需要企業先給予評估標準,例如對準確性、穩健性的要求,並上傳自有資料集/提示詞庫,或從Bedrock內建的、公開可用的資源中選擇。一些主觀或需要細緻判斷的的評判內容,平台會引入人工審核,根據特定應用場景的指標進行評估。
完成設定後,Bedrock便可開始評估並產生報告,最短僅需幾個小時,企業就能找到適合自己的模型。

在選擇好模型後,企業可利用專有數據,透過RAG、提示詞工程或微調來客製化對應大模型功能,以建立私有模型。
例如針對Command R、Llama 3、Titan Text Lite等模型,只需簡單幾步即可微調。如果選擇了Titan Text模型,也能持續對未標記的資料進行預先訓of練,以更適應對應產業和領域。
Bedrock知識庫可自動執行完整的RAG工作流程,包括攝取、檢索、提示字增強和引用。
同時,Bedrock也推出了自訂模型導入(Custom Model Import)功能。企業現在能將自己客製化模型匯入Bedrock中,以完全託管的API形式進行存取。由此,自訂模型可以方便地被整合到現有應用程式和工作流程中,並同樣受到隱私安全保護。
目前Bedrock專有模型導入功能已推出預覽版並支援Flan-T5、Llama和Mistral三種開放式模型架構。

模型推理方面,Bedrock Batch支援有效執行大量資料的模型推理任務,可在大規模推理任務中避免限流問題,無需編寫程式碼即可處理故障並重啟,適用於基礎模型及使用者自訂模型。
AI應用層面,Bedrock Agents功能支援建構基於企業系統和資料來執行任務的Agent。使生成式AI應用能夠使用自然語言來執行多步驟的業務任務。
包括利用LLM使用自然語言進行互動和對應;任務拆分和編排;透過動態呼叫API完成任務執行;追蹤基礎大模型思維鏈流程並優化底層Agent的提示工程。

例如使用Bedrock建構一個AI造型師,效果大概會是醬嬸兒的。

最後在安全隱私保障方面。 Bedrock的Guardrails功能在基礎模型的原生能力之上提供了安全保護,可阻擋85%有害內容。
企業只要透過自然語言來定義不予顯示的內容,就能快速創造一個Guardrail。同時也可設定閾值以過濾帶有仇恨羞辱、暴力、攻擊性等內容,並移除任何個人資訊和敏感資訊。
此功能可用於Bedrock上的所有大型模型,並且能與微調、Agent功能結合使用。
總結來看,Bedrock以企業客製化大模型為出發點,提供模型選擇、客製化、應用開發、安全保障等一系列功能,讓各行各業能更簡單方便用上大模型。
在正式推出1年之後,Bedrock為AWS帶來的成長與影響已在具體數據直觀上體現:
AWS2024年第一季財報顯示,AWS營收連續兩季加速成長,營運利潤率創下歷史新高,達37.6%。
為啥能成長如此迅速?AWS最強的基本盤——算力基礎設施,為其提供了最關鍵的保障。
還有「雲端運算一哥」的看家本領
基礎設施一直都是AWS的強項。
2023年第四季數據顯示,AWS依舊是“雲端市場一哥”,擁有全球31%市場份額。
全球1000家獨角獸中,超過80%都使用AWS雲端。目前AWS的年化收入已經超過1000億美元,而且還在以17%的成長率成長。
在前大模型時代,AWS建構了服務全球245個國家和地區的基礎建設、超過200大類的雲端服務,過去十餘年中已服務全球數百萬客戶。
其底層算力構成主要由兩部分構成,可為企業提供高效能、高性價比、低功耗的算力選擇:
和英偉達密切合作
持續投入自研晶片
一方面,AWS和英偉達的合作已經長達13年,二者維持長期的戰略合作關係,曾共同推出了世界上第一個GPU Cloud執行個體。
在揭露的最新進展中,AWS將推出基於英偉達最新一代Blackwell架構GPU的Amazon EC2(Amazon Elastic Compute Cloud),以加速建構及運行數萬億參數大模型的效能。

同時將提供首款搭載英偉達Grace Hopper超級晶片的雲端AI超級計算機,以及首款採用英偉達GH200 NVL32的NVIDIA DGX Cloud。
另一方面,在算力瓶頸愈加明顯的環境下,AWS在很早期便開始自研晶片。
2019年AWS推出了高效能機器學習推理晶片推理,2020年底又推出了客製化機器學習訓練晶片培訓班。
目前最新一代用於AI訓練的Trainium 2可支援千億、兆級參數大模型訓練。與上一代相比,其訓練性能提高4倍,能源效率功耗比提高2倍,記憶體增加3倍。
一個Amazon EC2可部署多達16個Trainium 2,相較於部署同類晶片的EC2,部署Trainium 2的可節省50%訓練成本。

用於AI推理的Inferentia 2專門針對千億參數大模型進行優化,與上一代相比,計算性能提高3倍,內存擴大4倍,吞吐量提高了4倍,延遲降低至1/10,並可支持大模型分佈推理。
Inferentia 2是Amazon EC2中首個推理最佳化實例,可透過加速器之間的超高速連結支援橫向擴展分佈式推理。

搭配SageMaker Hyperpod和SageMaker 快速啟動, 可進一步加速基礎模型推理與訓練。
前者可簡化大模型基礎訓練的過程,後者則提供了一個機器學習中心,透過提供一系列基礎模型,讓用戶無需自己從頭開始建立和訓練模型,進行快速訓練和部署。
現在AWS也不斷拓展中國區域SageMaker Jumpstart中的基礎模式種類,引進領先的中文基礎模型。AWS在中國高峰會2024上宣布,由百川智能提供的基礎模型Baichuan2-7B即將登陸中國區域SageMaker JumpStart,由零一萬物提供的基礎模型Yi-1.5 6B/9B/34B正式登陸中國區域SageMaker JumpStart,在為中國企業提供豐富模型選擇的同時滿足了企業對安全合規、快速擴展、免運維的需求。
作為首批登陸中國區域SageMaker JumpStart的中文基礎模型,Baichuan2和Yi-1.5與AWS託管服務深度集成,協助中國企業應用一流的生成式AI技術實現本土創新與業務轉型。
如上多方面,共同構成了AWS的底層算力建設,更為其生成式AI全端架構提供紮實底座。
在生成式AI大潮下,AWS提出,未來真正能創造最大價值的將是生成式 AI 的產業應用。如金山辦公、沐瞳科技、塗鴉智慧、禮來科技等擁抱大模型的廠商都選擇與AWS合作。

其中,禮來製藥是全球跨國藥廠。去年開始,他們聚焦在佈局打造以生成式AI為核心的AI基礎能力。基於AWS提供的生成式AI雲服務,他們快速打造了員工聊天問答機器人、醫學文獻引用驗證、競品及市場推廣分析、基於醫學內容的FAQ生成。
實際上,這也是AWS一直以來強調的路線與概念。
他們提出,企業應用是產業應用未被泛化的一個個實例。
而AWS當下要做的,就是成為企業建構和應用生成式AI的首選,以推動各產業真正意義上擁抱生成式AI大潮。

從宏大遠景到具體行動,AWS的生成式AI策略已然全盤托出。
那麼當下,也到了重新檢視AWS的時刻。
AIGC時代,如何評價AWS?
首先,不論是大模型時代的當下還是先前的傳統AI時代,一切的一切都繞不開算力這個核心關鍵點。
而AWS早早發力於雲端運算領域,已然在全球範圍內處於公認的「雲端運算一哥」的位置。
加之與英偉達的密切合作,AWS無疑是在Scaling Law為主旋律的當下妥妥的算力大玩家。
其次,在模型層面上的策略,AWS走的是一條「集大成者」的路線——當下每個大模型都各自擅長的能力,將它們整合在一起,方便客戶選用。
也正如儲瑞鬆在這次Keynote中所述:
大模型已不再是企業生成式AI創新的唯一要素;企業在確定生成式AI場景之後,需要根據自身的要求選擇合適的大模型。
不同的模型在應用過程中所擅長的領域是不同的,要最大發揮生成式AI的能力,需要將它們結合起來產生複合效應,從而提高系統整體的智力水平。
正是基於這樣的一個思路,在更上層的應用方面,諸如Amazon Q這樣的應用才能做到「多、快、好、省」地上崗諸多領域。
而這也是符合當下「應用為王」的大趨勢。
總而言之,有算力、有模型、有應用、有市場,AWS絕對是AIGC時代不容小覷的巨頭之一。
Comments