亞馬遜公司宣布,meta 開發(fā)的 Llama 2 基礎(chǔ)模型可通過 Amazon SageMaker JumpStart 向客戶提供。Llama 2 系列大型語言模型 (LLM) 是預(yù)先訓(xùn)練和微調(diào)的生成文本模型的集合,其規(guī)模從 70 億到 700 億個參數(shù)不等。
ta,人工智能,大語言模型,AI (圖片來源:官方或第三方截圖)” alt=”Llama2,meta,人工智能,大語言模型,AI”/>
經(jīng)過微調(diào)的 LLM,稱為 Llama-2-chat,針對對話用例進行了優(yōu)化。用戶可以輕松嘗試這些模型并將其與 SageMaker JumpStart 結(jié)合使用。
Amazon SageMaker JumpStart 是一個機器學(xué)習 (ML) 中心,提供預(yù)訓(xùn)練模型、內(nèi)置算法和預(yù)構(gòu)建解決方案,幫助用戶快速開始使用 ML。只需在 SageMaker Studio 中單擊幾下即可部署和使用 Llama 2 基礎(chǔ)模型,或者通過 SageMaker Python SDK 以編程方式部署和使用 Llama 2 基礎(chǔ)模型。
Llama 2 是一個使用優(yōu)化的 Transformer 架構(gòu)的自回歸語言模型。Llama 2 旨在用于商業(yè)和研究用途的使用。它有多種參數(shù)大小可供選擇——70 億、130 億和 700 億,以及預(yù)訓(xùn)練和微調(diào)變體。
根據(jù) meta 的說法,微調(diào)版本使用有監(jiān)督的微調(diào)(SFT)和人類反饋的強化學(xué)習(RLHF)來對齊人類對有用性和安全性的偏好。Llama 2 的預(yù)訓(xùn)練數(shù)據(jù)來自公開可用的 2 兆 tokens 數(shù)據(jù)。微調(diào)模型旨在用于類似助手的聊天,而預(yù)訓(xùn)練模型可以適應(yīng)各種自然語言生成任務(wù)。
無論開發(fā)人員使用哪個版本的模型,meta 的負責任使用指南都可以幫助指導(dǎo)可能需要進行的額外微調(diào),以定制和優(yōu)化模型,并采取適當?shù)陌踩胧?/p>
此前微軟的 Azure 云計算服務(wù)也提供了 meta 新人工智能大語言模型 Llama 2 服務(wù)。