阿聯(lián)酋阿布扎比2026年1月29日 /美通社/ -- G42、Cerebras Systems與穆罕默德?本?扎耶德人工智能大學(xué)(Mohamed bin Zayed University of Artificial Intelligence,簡(jiǎn)稱 MBZUAI)基礎(chǔ)模型研究所(Institute of Foundation Models,簡(jiǎn)稱IFM)今日宣布推出K2 Think V2。 這款擁有最新700億參數(shù)的高級(jí)推理系統(tǒng)現(xiàn)已基于K2-V2基礎(chǔ)模型構(gòu)建,后者是IFM最強(qiáng)大的完全前沿級(jí)開(kāi)源基礎(chǔ)模型,專為K2 Think量身打造。
此次發(fā)布標(biāo)志著阿聯(lián)酋在技術(shù)主權(quán)方面的一個(gè)重要里程碑。 盡管K2 Think有多個(gè)開(kāi)放通用的早期版本,但K2 Think V2(70B)版首次實(shí)現(xiàn)了真正意義上的端到端開(kāi)源;涵蓋從預(yù)訓(xùn)練數(shù)據(jù)和篩選,到后期訓(xùn)練、推理對(duì)齊和效果評(píng)估等全流程。 最終形成一個(gè)更透明、更強(qiáng)大的推理系統(tǒng)。
通過(guò)將基礎(chǔ)模型升級(jí)至K2-V2,K2 Think V2將性能、開(kāi)放性和獨(dú)立性提升至全新的水平,鞏固了阿聯(lián)酋在構(gòu)建全球可訪問(wèn)且完全自主的前沿級(jí)人工智能系統(tǒng)方面的領(lǐng)導(dǎo)地位。
K2 Think V2的獨(dú)特之處
K2 Think V2標(biāo)志著開(kāi)放式推理系統(tǒng)實(shí)現(xiàn)階躍式變革,從疊加在基礎(chǔ)模型之上的推理模型,轉(zhuǎn)變?yōu)橹苯忧度牖A(chǔ)模型內(nèi)部的推理模型。 其繼承了K2-V2的長(zhǎng)上下文功能和全流程訓(xùn)練透明度,現(xiàn)已作為一個(gè)完全自主的端到端系統(tǒng)運(yùn)行。
K2 Think V2(70B)的每個(gè)階段均保持開(kāi)放、可供檢驗(yàn)且可獨(dú)立復(fù)制,從而確保科研可信度和國(guó)家層面的人工智能主權(quán)。 作為專門構(gòu)建的推理系統(tǒng),其使用數(shù)學(xué)、科學(xué)、編程、邏輯和模擬等領(lǐng)域的長(zhǎng)鏈思維,進(jìn)行復(fù)雜問(wèn)題的逐步推理求解。
這種以推理為先、完全開(kāi)放式的基礎(chǔ)可直接轉(zhuǎn)化為更高水平的性能表現(xiàn)。 與其他開(kāi)源推理系統(tǒng)相比,K2 Think V2在AIME2025、GPQA-Diamond、HMMT和IFBench等復(fù)雜推理基準(zhǔn)測(cè)試中取得了領(lǐng)先的成果。
核心功能,簡(jiǎn)潔呈現(xiàn)
基于K2-V2構(gòu)建
K2 Think V2(70B)由MBZUAI IFM的最新基礎(chǔ)模型提供支持,其設(shè)計(jì)旨在支持推理、長(zhǎng)上下文和對(duì)齊,從而提高推理系統(tǒng)的性能上限。
更長(zhǎng)久的記憶,更深入的思考
上下文長(zhǎng)度經(jīng)過(guò)擴(kuò)展,可對(duì)更龐大的信息主體進(jìn)行持續(xù)的多步推理。
真正獨(dú)立的數(shù)據(jù)管道
所有訓(xùn)練均基于IFM精選的數(shù)據(jù)集(包括Guru數(shù)據(jù)集),這些數(shù)據(jù)集已完全剔除下游基準(zhǔn)測(cè)試的污染信息,以確保公平可靠的評(píng)估。
360度開(kāi)放式透明度
從預(yù)訓(xùn)練數(shù)據(jù)與中間檢查點(diǎn),到后期訓(xùn)練方案與評(píng)估,每個(gè)組件均可供檢驗(yàn)、重復(fù)使用和擴(kuò)展。
如需了解有關(guān)K2 Think V2(70B)的更多信息,或了解用于構(gòu)建K2 Think V2的數(shù)據(jù),請(qǐng)?jiān)L問(wèn)基礎(chǔ)模型研究所的官方平臺(tái)。 您還可以通過(guò)以下資源訪問(wèn)該系統(tǒng)并了解更多信息:
如需了解更多信息,請(qǐng)?jiān)L問(wèn)https://mbzuai.ac.ae/
關(guān)于Cerebras
Cerebras Systems構(gòu)建了全球最快的人工智能基礎(chǔ)設(shè)施。 我們是一支具有開(kāi)創(chuàng)精神的計(jì)算機(jī)架構(gòu)師、計(jì)算機(jī)科學(xué)家、人工智能研究人員和工程師團(tuán)隊(duì)。 我們通過(guò)創(chuàng)新和發(fā)明助力人工智能實(shí)現(xiàn)極致迅捷,因?yàn)槲覀兿嘈牛?dāng)人工智能足夠快時(shí),它將能改變世界。 我們的旗艦技術(shù)——Wafer Scale Engine(WSE),是世界上最大、最快的人工智能處理器。 WSE的體積是最大GPU的56倍,其每單位算力能耗卻極低,可提供比競(jìng)爭(zhēng)對(duì)手快20倍以上的推理和訓(xùn)練。 五大洲的多家領(lǐng)先企業(yè)、研究機(jī)構(gòu)和政府均選擇Cerebras來(lái)運(yùn)行其AI工作量。 Cerebras解決方案支持本地部署與云端服務(wù)兩種模式。 如需了解更多信息,請(qǐng)?jiān)L問(wèn)cerebras.ai或在LinkedIn、X和/或Threads上關(guān)注我們。
關(guān)于穆罕默德?本?扎耶德人工智能大學(xué)
穆罕默德?本?扎耶德人工智能大學(xué)(簡(jiǎn)稱MBZUAI)是全球首所完全致力于通過(guò)人工智能推動(dòng)科學(xué)發(fā)展的大學(xué)。 該大學(xué)致力于培養(yǎng)新一代人工智能領(lǐng)袖,通過(guò)世界一流的教育和跨學(xué)科研究,推動(dòng)人工智能的創(chuàng)新及其具有深遠(yuǎn)影響的應(yīng)用。 2025年,MBZUAI首開(kāi)人工智能理學(xué)學(xué)士本科課程,設(shè)有兩個(gè)不同方向:商科和工程學(xué)。
關(guān)于MBZUAI基礎(chǔ)模型研究所
MBZUAI基礎(chǔ)模型研究所(IFM)以現(xiàn)實(shí)社會(huì)需求為驅(qū)動(dòng),致力于在全球人工智能創(chuàng)新前沿開(kāi)展開(kāi)創(chuàng)性學(xué)術(shù)研究。
IFM在阿布扎比、巴黎和硅谷擁有深厚的科研根基與全球頂尖人才,打造了全球最強(qiáng)大的基礎(chǔ)模型體系——開(kāi)放高效,并專注于解決現(xiàn)實(shí)世界難題。
其中包括PAN World Model、K2(360度開(kāi)放的大型語(yǔ)言模型)以及K2-Think(領(lǐng)先的高級(jí)人工智能推理開(kāi)源系統(tǒng))。 IFM的工程師們?cè)鵀榘⒗Z(yǔ)(Jais)、印地語(yǔ)(Nanda)和哈薩克語(yǔ)(Sherkala)等低資源語(yǔ)言的大型語(yǔ)言模型開(kāi)發(fā)做出貢獻(xiàn)。