在线不卡日本ⅴ一区v二区_精品一区二区中文字幕_天堂v在线视频_亚洲五月天婷婷中文网站

  • <menu id="lky3g"></menu>
  • <style id="lky3g"></style>
    <pre id="lky3g"><tt id="lky3g"></tt></pre>

    94億,AIGC最大并購案誕生

    本文轉(zhuǎn)載自:融中財經(jīng)(ID:thecapital),作者:張淼,編輯:吾人。獵云網(wǎng)已獲授權(quán)。

    近日,大數(shù)據(jù)巨頭公司Databricks宣布億13億美元的價格(約合94億人民幣)收購生成式AI初創(chuàng)公司MosaicML。該筆發(fā)生在美國硅谷的收購案,為年內(nèi)生成式AI領(lǐng)域內(nèi)公布的最大一筆。引來業(yè)界高度關(guān)注。

    MosaicML于2021年成立于美國舊金山,其剛成立不久便成功完成了第一輪融資,知名風(fēng)投DCVC、Lux Capital、Future Ventures等投資機(jī)構(gòu)參與,MosaicML共獲得3700萬美元的融資。

    第一輪融資時,MosaicML公司估值為2.2億美元,但在此次收購中,MosaicML的估值直接提高近6倍,令業(yè)界感到驚嘆。

    成立不到兩年,估值便如此之高,這家生成式AI初創(chuàng)公司到底有何“看家本領(lǐng)”?

    01、AI模型服務(wù)企業(yè)端,產(chǎn)品質(zhì)優(yōu)價廉

    根據(jù)公開資料顯示,MosaicML的產(chǎn)品組合包括開源的、商業(yè)授權(quán)的MPT Foundation系列模型和MosaicML 推理和訓(xùn)練服務(wù)。

    其推出的MosaicML Composer開源的深度學(xué)習(xí)庫,提供20種用于計算機(jī)視覺和自然語言處理的方法,包括模型、數(shù)據(jù)集和基準(zhǔn)。推出的MosaicML Explorer可以幫助開發(fā)人員探索和理解不同的云服務(wù)和硬件選項之間的時間、性能和成本,以簡化和評估實施選項。推出的MosaicML AI開發(fā)平臺,提供了成本效益高的模型部署和定制訓(xùn)練,同時保證數(shù)據(jù)安全,使用戶能夠擁有模型的所有權(quán)等。

    值得一體的是,MPT基礎(chǔ)模型系列是MosaicML 提供的一系列開源、商業(yè)可用的大型語言模型,它們可以作為用戶構(gòu)建自己的生成式AI應(yīng)用的基礎(chǔ)。

    MosaicML 的MPT基礎(chǔ)模型系列包括MPT-7B 和MPT-30B 兩個模型,分別有70億和300億個參數(shù)。

    MPT-7B是MosaicML在今年5月5日發(fā)布的類ChatGPT開源大語言模型。MPT-7B 在MosaicML平臺上進(jìn)行了9.5天的訓(xùn)練,零人工干預(yù),成本僅用了20萬美元。該模型具備可商業(yè)化、高性能、資源消耗低、1T訓(xùn)練數(shù)據(jù)、可生成代碼等技術(shù)優(yōu)勢。

    AI2、Generally Intelligence、Hippocratic AI、Replit 和 Scatter Labs等知名廠商皆使用MPT-7B開發(fā)各種生成式AI產(chǎn)品。

    截至目前,MPT-7B開源項目的下載量超過300萬次。收購方Databricks表示,這也是其收購MosaicML的重要原因之一。

    另一款模型MPT-30B推出之后,同樣引來業(yè)界關(guān)注,十分受歡迎。其訓(xùn)練成本遠(yuǎn)低于其他競爭對手,有望推動AI模型在更廣泛領(lǐng)域的應(yīng)用并逐步降低訓(xùn)練成本。

    MosaicML首席執(zhí)行官兼聯(lián)合創(chuàng)始人Naveen Rao表示,MPT-30B的訓(xùn)練成本僅為70萬美元,遠(yuǎn)遠(yuǎn)低于類似產(chǎn)品如GPT-3所需的數(shù)千萬美元訓(xùn)練成本。該模型由于成本低、體積小,可以更快速地進(jìn)行訓(xùn)練,并且更適合在本地硬件上部署。

    MosaicML還介紹稱,公司用 2 個月的時間訓(xùn)練了 MPT-30B,通過數(shù)據(jù)混合進(jìn)行預(yù)訓(xùn)練,從 10 個不同的開源文本語料庫中收集了 1T 個預(yù)訓(xùn)練數(shù)據(jù) token,并使用 EleutherAI GPT-NeoX-20B 分詞器對文本進(jìn)行分詞,并根據(jù)上述比率進(jìn)行采樣。

    需要注意的是,開發(fā)者可以從Hugging Face下載并使用開源的MPT-30B基礎(chǔ)模型,還可以使用自己的數(shù)據(jù)在本地硬件上進(jìn)行微調(diào)。

    MosaicML同時表示,將模型參數(shù)擴(kuò)展到300億只是第一步,隨后他們將以降低更低成本推出更大體積、更高質(zhì)量的模型。

    MosaicML另一個比較有亮點的產(chǎn)品是今年推出的面向企業(yè)的MosaicML推理。

    MosaicML首席執(zhí)行官兼聯(lián)合創(chuàng)始人Naveen Rao表示:“一些初創(chuàng)公司已經(jīng)在使用MosaicML的模型和工具來構(gòu)建自然語言前端和搜索系統(tǒng)。MosaicML允許企業(yè)使用公司的模型架構(gòu)根據(jù)自己的數(shù)據(jù)訓(xùn)練模型,然后通過其推理API部署模型。如果客戶訓(xùn)練了一個模型,他們可以放心,他們擁有該模型的所有迭代,該模型就是他們的。我們對此不擁有所有權(quán)。使用 MosaicML 的新推理產(chǎn)品,企業(yè)客戶可以部署用于文本完成和文本嵌入的 AI 模型,其成本比使用OpenAI的LLM低4倍,而圖像生成的成本比使用OpenAI的DALL-E 2便宜 15倍。”

    “我們希望讓盡可能多的人了解和使用這項技術(shù),這就是我們的目標(biāo)。這并不是排他性的。這不是精英主義?!盢aveen Rao同時表示。

    02、由英特爾前高管創(chuàng)立,MosaicML起點不低

    作為初創(chuàng)公司的MosaicML,為何會連續(xù)推出爆款產(chǎn)品,這當(dāng)然很其創(chuàng)始人有很大關(guān)系。

    MosaicML是由曾在英特爾擔(dān)任AI產(chǎn)品負(fù)責(zé)人、Nervana Systems 的聯(lián)合創(chuàng)始人 Naveen Rao ,以及英特爾AI實驗室的高級主管Hanlin Tang創(chuàng)立。

    MosaicML的創(chuàng)始人Naveen Rao ,1997年畢業(yè)于杜克大學(xué)的計算機(jī)科學(xué)專業(yè),后取得布朗大學(xué)神經(jīng)科學(xué)的博士學(xué)位。Naveen Rao長期致力于人工智能神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)和開發(fā),曾在高通擔(dān)任過神經(jīng)形態(tài)機(jī)器的研究員,并在2014年創(chuàng)立了人工智能公司Nervana Systems。后來這家公司在2016年以4.08億美元被英特爾收購。

    Hanlin Tang畢業(yè)于哈佛大學(xué),研究人類視覺中的遞歸神經(jīng)網(wǎng)絡(luò)。他在普林斯頓大學(xué)取得物理學(xué)學(xué)士學(xué)位,隨后在哈佛大學(xué)取得生物物理學(xué)的博士學(xué)位,研究人類視覺中的遞歸神經(jīng)網(wǎng)絡(luò),Hanlin Tang少年時代在臺北度過。后來加入英特爾后,在英特爾AI實驗室擔(dān)任高級主管,在此期間Hanlin Tang負(fù)責(zé)算法工程和深度學(xué)習(xí)研究,并參與了MLPerf基準(zhǔn)測試的開發(fā)。

    Hanlin Tang在國際頂級期刊和會議上發(fā)表了多篇論文,涉及計算神經(jīng)科學(xué)、計算機(jī)視覺、自然語言處理和強(qiáng)化學(xué)習(xí)等領(lǐng)域。

    還有一位值得一提的團(tuán)隊成員是MosaicML的首席科學(xué)家Jonathan Frankle,他是MIT計算機(jī)科學(xué)與人工智能實驗室的博士后研究員,也是哈佛Kempner研究所的附屬教員。Jonathan Frankle的研究方向是神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)動力學(xué)和訓(xùn)練算法,旨在提高大型語言模型(LLM)的效率同時降低訓(xùn)練成本。這一研究方向也正是MosaicML的核心競爭力所在,可以說Jonathan Frankle是MosaicML能賣到94億的關(guān)鍵人物。

    Naveen Rao和Hanlin Tang之所以能在英特爾任職,是因為Nervana Systems開發(fā)了Neon 這一高性能的深度學(xué)習(xí)框架,以及后來推出的Nervana Cloud深度學(xué)習(xí)云平臺、Nervana Engine專用硬件加速器,英特爾認(rèn)為這些產(chǎn)品非常有價值,就把Nervana Systems收購了。Naveen Rao和Hanlin Tang也一起加入英特爾,一位成為了AI產(chǎn)品集團(tuán)的負(fù)責(zé)人,一位成為了AI實驗室高級主管。

    不過,2020年英特爾宣布放棄原計劃的Nervana服務(wù)器端AI加速芯片,去耗資20億美元收購以色列公司Habana的產(chǎn)品。

    在英特爾決定“拋棄” Nervana后,Naveen Rao和Nervana的前核心員工Hanlin Tang也一起離開了英特爾,兩人另立門戶創(chuàng)立了今天的MosaicML。根據(jù)LinkedIn的信息,目前Hanlin Tang擔(dān)任MosaicML的CTO。

    03、Databricks收購MosaicML,強(qiáng)強(qiáng)聯(lián)合?

    Databricks收購MosaicML不僅僅是因為商業(yè)價值,更是為了兩個公司可以強(qiáng)強(qiáng)聯(lián)合,實現(xiàn)技術(shù)上的突破,加碼AI大模型。

    先來看看收購方Databricks,這是一家數(shù)據(jù)存儲和分析領(lǐng)域的巨頭公司,由美國加州大學(xué)伯克利 AMP 實驗室的 Spark 大數(shù)據(jù)處理系統(tǒng)多位創(chuàng)始人聯(lián)合創(chuàng)立。Databricks 的客戶遍及大中小企業(yè),以及各個行業(yè)。截至 2023 年 03 月,其全球已有超過 9000 家企業(yè)用戶。包括 AT&T、殼牌、巴寶莉、豐田、Walgreens、Adobe、康泰納仕和再生元制藥等。

    2021 年,Databricks拿下了摩根士丹利旗下Counterpoint Global領(lǐng)投的16億美元H輪融資。2023年4月18日,Databricks以298億美元億的估值入選《2023·胡潤全球獨角獸榜》,名列第七。

    業(yè)內(nèi)專家表示,收購?fù)瓿芍?,MosaicML 將成為 Databricks Lakehouse 平臺的一部分,MosaicML 的整個團(tuán)隊和技術(shù)都將納入 Databricks 旗下,為公司提供統(tǒng)一的平臺來管理數(shù)據(jù)資產(chǎn),助力 Databricks更好的開發(fā)生成式AI技術(shù)。同時能夠使用自己的專有數(shù)據(jù)來構(gòu)建、擁有和保護(hù)自己的生成式 AI 模型。

    DataBricks 的 CEO Ali Ghodsi 也表示,收購 MosaicML 將進(jìn)一步增強(qiáng) DataBricks 的數(shù)據(jù)分析平臺。

    DataBricks收購MosaicML是為加碼AI大模型是主流觀點,原因是MosaicML因其尖端的MPT大語言模型而受到認(rèn)可,MPT-7B和MPT-30B都是今年開發(fā)的爆款產(chǎn)品,下載量均突破百萬。

    值得一提的是,MosaicML的模型訓(xùn)練自動優(yōu)化使得訓(xùn)練速度比標(biāo)準(zhǔn)方法快2-7倍,而資源的近線性擴(kuò)展允許在幾小時內(nèi)訓(xùn)練多十億參數(shù)的模型。

    借助于雙方的聯(lián)合產(chǎn)品,Databricks和MosaicML的目標(biāo)是將訓(xùn)練和使用LLMs的成本從數(shù)百萬美元降低到數(shù)千美元。

    由此可見,Databricks正試圖加碼AI大模型,去挑戰(zhàn)OpenAI、微軟、谷歌等大公司的市場地位,為行業(yè)帶來新的選擇。

    但也有反對觀點認(rèn)為Databricks 整合 LLM 的價值主張是不太明確,因為Databricks主營Lakehouse,主要是用Spark來處理大規(guī)模集群數(shù)據(jù),因此其整合大語言的價值并不明確。還有業(yè)內(nèi)人士認(rèn)為,Databricks 是在借當(dāng)前大模型熱度進(jìn)行炒作,收購對技術(shù)方面不會有明顯的突破,MosaicML 遲早會被Databricks放棄。

    這起收購案能否能獲得良好的效果,在實現(xiàn)商業(yè)價值的同時,也能有技術(shù)突破,可能仍需要等待時間去驗證。

    財經(jīng)方面專家認(rèn)為,收購MosaicML的交易可能是這家AI獨角獸公司為IPO之路打下基礎(chǔ)。

    04、AI大模型并購潮拉開大幕

    去年末ChatGPT的橫空出世,拉開了AI競賽的大幕,半年之后,又出現(xiàn)了AI并購潮。

    原因無外乎是生成式AI經(jīng)過一段時間的野蠻生長,然后大型企業(yè)取得一定的進(jìn)展,同時也發(fā)現(xiàn)了現(xiàn)有技術(shù)和人才的不足,而那些AI初創(chuàng)公司,相對來說要專業(yè)一些,既有人才也有技術(shù),但存在資金不足、資源稀缺等問題。所以AI并購潮現(xiàn)在出現(xiàn)是必然的,對于整個行業(yè)來講也是正向的、有利的。

    除了本文介紹的Databricks收購MosaicML之外,今年5月,云計算巨頭Snowflake宣布收購了由兩位前Google員工創(chuàng)立的生成式AI搜索初創(chuàng)公司Neeva。業(yè)內(nèi)專家認(rèn)為,此次收購將使Snowflake能夠利用尖端的搜索技術(shù),并將其注入到數(shù)據(jù)云中,充分客戶、合作伙伴和開發(fā)者的需求。

    值得一提的是,Neeva的領(lǐng)導(dǎo)團(tuán)隊成員在創(chuàng)建YouTube貨幣化和Google的搜索廣告等產(chǎn)品時,起到了非常重要的作用。不出意外的話,此次收購將把Snowflake中的搜索和對話提升到一個新水平。不過此次收購的金額并沒有對外公布。

    6月26日,全球最大的專業(yè)信息服務(wù)提供商湯森路透宣布,以6.5億美元現(xiàn)金收購AI初創(chuàng)公司Casetext,該公司主營業(yè)務(wù)是為法律人士提供AI助理服務(wù)。

    公開資料顯示,Casetext員工數(shù)為104名,客戶包括1萬多家律師事務(wù)所和企業(yè)法務(wù)部門。其主要產(chǎn)品CoCounsel是一款于今年推出的人工智能法律助理,由GPT-4提供支持。該筆收購將有效補充湯森路透現(xiàn)有的AI路線圖。

    6月29日,AI初創(chuàng)公司Inflection宣布完成13億美元融資,該輪融資由微軟、英偉達(dá)等牽頭投資,其融資總額達(dá)到15.25億美元。

    再看中國的AI市場,6月29日,美團(tuán)發(fā)布公告,宣布已完成光年之外境內(nèi)外主體100% 的股權(quán)收購,耗資20.65億人民幣。

    對于此次并購,美團(tuán)在公告表示,光年之外是中國領(lǐng)先的AGI創(chuàng)新者,其目前的管理與技術(shù)團(tuán)隊具有開發(fā)深度學(xué)習(xí)框架的高水平經(jīng)驗。公司通過收購事項可以獲得領(lǐng)先的AGI技術(shù)及人才,有機(jī)會加強(qiáng)其于快速增長的人工智能行業(yè)中的競爭力。

    美團(tuán)方面表示,并購?fù)瓿珊螅瑢⒅С止饽陥F(tuán)隊繼續(xù)在AI大模型領(lǐng)域進(jìn)行研究和探索。

    無獨有偶,今年6月16日,昆侖萬維發(fā)布公告稱,旗下控股子公司Star Group擬發(fā)股收購Singularity AI全部股權(quán)。

    Singularity AI致力于實現(xiàn)通用人工智能,目前聚焦于自然語言大型預(yù)訓(xùn)練模型及開發(fā)者API的研發(fā)工作,主要產(chǎn)品及服務(wù)包括通用開發(fā)者API、聊天機(jī)器人和知識抽取。

    國外出現(xiàn)AI并購潮,釋放出了一個強(qiáng)烈的行業(yè)信號,意味著國外AIGC的發(fā)展已經(jīng)開始升級,無論是技術(shù)、業(yè)務(wù)、場景還是商業(yè)化,都隨時可能出現(xiàn)顛覆性的創(chuàng)新。

    對于國內(nèi)AI市場,投資人持謹(jǐn)慎樂觀態(tài)度。總的來說是B端應(yīng)用面臨企業(yè)端數(shù)字化緩慢,軟件付費意愿不強(qiáng),商業(yè)化緩慢等問題,對比國外AI市場依然差距不小。

    不過我們也要看到,中國是美國市場之外唯一一個擁有完整的AIGC產(chǎn)業(yè)鏈的國家,在這場第四次工業(yè)革命之中,大家都沒有退路。

    參考資料:

    硅谷老錢和中國巨頭,AI并購潮的同行不同命

    AIGC領(lǐng)域最大收購:Databricks 13億美元買下MosaicML,成立僅2年員工60人

    鄭重聲明:本文內(nèi)容及圖片均整理自互聯(lián)網(wǎng),不代表本站立場,版權(quán)歸原作者所有,如有侵權(quán)請聯(lián)系管理員(admin#wlmqw.com)刪除。
    (0)
    用戶投稿
    上一篇 2023年7月24日 09:02
    下一篇 2023年7月24日 12:01

    相關(guān)推薦

    聯(lián)系我們

    聯(lián)系郵箱:admin#wlmqw.com
    工作時間:周一至周五,10:30-18:30,節(jié)假日休息