關(guān)于公開征集2025年人工智能顛覆性技術(shù)方向儲備課題的通知
為落實《北京市加快建設(shè)具有全球影響力的人工智能創(chuàng)新策源地實施方案(2023—2025年)》和《北京市促進通用人工智能創(chuàng)新發(fā)展的若干措施》,加快推動本市人工智能領(lǐng)域顛覆性技術(shù)創(chuàng)新,提升人工智能技術(shù)的核心競爭力,現(xiàn)征集顛覆性技術(shù)方向儲備課題。
一、征集方向
任務1:面向新型神經(jīng)網(wǎng)絡(luò)架構(gòu)的顛覆性技術(shù)創(chuàng)新研究
研究內(nèi)容:面向下一代通用人工智能技術(shù),探索非Transformer的新型神經(jīng)網(wǎng)絡(luò)架構(gòu),實現(xiàn)顛覆性的神經(jīng)網(wǎng)絡(luò)架構(gòu)創(chuàng)新。給出不同模型架構(gòu)泛化學習能力的理論證明,研究模型訓練的穩(wěn)定性,分析模型在大規(guī)模預訓練場景下的計算復雜度并進行技術(shù)驗證。
研究目標:自主開發(fā)新型神經(jīng)網(wǎng)絡(luò)架構(gòu),實現(xiàn)模型算法,并在不小于100億參數(shù)規(guī)模驗證模型有效性,在同等數(shù)據(jù)規(guī)模、同等參數(shù)規(guī)模的情況下超過當時的SOTA(在通用測試集如 GPQA、LCB、AIME 25等,代碼測試集如SWE-Bench等,智能體測試集如BrowseComp等,超過當時最好的同尺寸Transformer架構(gòu)模型);開源模型架構(gòu)和權(quán)重,在國際上引起關(guān)注(如:HuggingFace的Trending榜單進入前5);面向大規(guī)模預訓練場景,分析證明模型的泛化能力,分析計算復雜度,撰寫有影響力的技術(shù)報告等。
任務2:面向 Transformer架構(gòu)大模型的計算優(yōu)化方法研究
研究內(nèi)容:針對現(xiàn)有模型計算復雜度高、推理效率低等問題, 改進Transformer架構(gòu),提升計算效率。探索高效注意力機制,突破自注意力在長序列建模中的計算瓶頸;設(shè)計更高效的稀疏混合專家架構(gòu),實現(xiàn)更高的稀疏率;研究以擴散語言模型為代表的非自回歸建模方法,提升模型的雙向建模能力并支持高效并行推理;提出高效準確的量化方法,進一步降低權(quán)重、激活、梯度、注意力等張量所需的位寬。
研究目標:研發(fā)Transformer架構(gòu)的改進優(yōu)化方式。選擇研究內(nèi)容中的一種、多種或新的技術(shù)路線,至少提出一種優(yōu)化方案,在保持計算精度及通用問題求解能力的同時,大幅度提升模型的計算速度、降低計算資源消耗。相比現(xiàn)有充分優(yōu)化過的模型架構(gòu)及系統(tǒng),實現(xiàn)推理吞吐量提升100%以上、訓練速度提升50%以上。開源相關(guān)算法并撰寫技術(shù)報告,在國際上引起廣泛關(guān)注。(申請單位可自行設(shè)計指標,要求評估指標是在主流硬件平臺和典型計算場景下,對不小于100億參數(shù)規(guī)模模型的訓練效率提升,計算精度評測要求選用行業(yè)通用評測基準。)
任務3:面向多模態(tài)模型的模態(tài)融合與統(tǒng)一架構(gòu)研究
研究內(nèi)容:針對多模態(tài)模型中不同模態(tài)間的信息交互及跨模態(tài)語義理解的挑戰(zhàn), 深入探究多模態(tài)數(shù)據(jù)的特征表示、關(guān)聯(lián)映射及語義整合機制, 探索在統(tǒng)一單個模型(例如自回歸、擴散及其融合等統(tǒng)一架構(gòu))中端到端實現(xiàn)對文本、圖像、音頻、視頻等多種模態(tài)數(shù)據(jù)的深度融合與對齊方法,揭示其對應的多模態(tài)尺度縮放定律,進一步提升大模型的智能水平。
研究目標:在不小于100億參數(shù)規(guī)模下,實現(xiàn)比相同參數(shù)量、計算量的單一模態(tài)模型相似或更優(yōu)的模型能力和尺度縮放潛力。開源模型架構(gòu)和權(quán)重,在國際上引起關(guān)注(如:HuggingFace的Trending榜單進入前5)。(申請單位可自行設(shè)計具體指標,要求評估指標是在主流硬件平臺和典型計算場景下,計算精度評測要求選用行業(yè)通用評測基準。)
任務4: 大語言模型的記憶機理與方法研究
研究內(nèi)容: 探索精準高效的大模型記憶(Memory)機理。研究包括但不限于大模型中精準、高效的上下文(Context)管理技術(shù),突破傳統(tǒng)提示詞工程設(shè)計范疇,圍繞用戶指示(Prompt)、歷史知識檢索(RAG)、個性化記憶(Memory)及即時工具調(diào)用(Tool Use)等四大要素,建立更加高效、精準的上下文管理框架。探索上下文選擇與信息壓縮策略,解決長對話場景下上下文處理低效問題;研究長期記憶與檢索增強生成的協(xié)同機制,提升模型跨會話的知識更新和推理能力; 探索上下文管理與工具調(diào)用的聯(lián)動機制,強化模型的自主調(diào)用工具并整合工具輸出能力。
研究目標:實現(xiàn)模型對長時、個性化交互內(nèi)容和外部知識的高效檢索、篩選和整合,避免信息冗余和計算浪費。在 LoCoMo、LongMemEval、HotpotQA、Musique 等長時記憶、跨會話評測、多跳查詢等基準上,實現(xiàn)回答質(zhì)量較當時最優(yōu)技術(shù)的顯著提升,同時不增加推理成本。在效果與當時最優(yōu)技術(shù)保持持平的前提下,顯著降低上下文管理的計算開銷(例如上下文處理的計算資源消耗降低50%以上)。開源相關(guān)算法并撰寫技術(shù)報告,在國際上引起廣泛關(guān)注。
任務5: 大模型強化學習的尺度縮放范式研究
研究內(nèi)容:建立適用于大模型的通用強化學習訓練范式,設(shè)計支持大規(guī)模交互和高效獎勵傳遞的算法框架,系統(tǒng)研究計算量、交互輪次和獎勵密度等關(guān)鍵維度上的尺度縮放特性,探討數(shù)據(jù)生成策略(如合成軌跡、自我演化環(huán)境)與模型能力提升的耦合機制,探索開放任務和不確定場景下強化學習縮放特性與獎勵策略設(shè)計。
研究目標:在不小于100億參數(shù)規(guī)模下,模型在數(shù)理等復雜任務中的準確率等指標比同規(guī)模有監(jiān)督微調(diào)模型提升 30% 以上,歸納強化學習場景的大模型尺度縮放規(guī)律,明確參數(shù)規(guī)模、訓練輪次、交互步長和獎勵密度與性能提升之間的定量關(guān)系。開源相關(guān)算法并撰寫技術(shù)報告,在國際上引起廣泛關(guān)注。
任務6:大模型的開放域自主學習方法研究
研究內(nèi)容:探索與當前大模型“預訓練-后訓練”模仿學習范式不同的新型學習方法。針對當前大模型架構(gòu)復雜度高,無法對開放域新需求、新任務與新知識進行快速適應學習的局限性,探索實時學習機制,構(gòu)建測試時參數(shù)動態(tài)更新機制,實現(xiàn)對復雜指令與多樣化需求的有效記憶與適應;提高模型泛化能力,研究面向多樣化環(huán)境反饋的強化學習框架,實現(xiàn)模型在無人工監(jiān)督的復雜開放環(huán)境中的自主探索與持續(xù)優(yōu)化;探索面向大模型的元學習范式,使模型能夠從知識、樣例、規(guī)則等多形式數(shù)據(jù)中進行高效學習,具備快速泛化到新任務的能力。
研究目標:自主研發(fā)面向大模型的高效自主學習算法。至少提出一種創(chuàng)新訓練方法,使得大模型能夠在測試階段、無需大量人工標注數(shù)據(jù)的前提下,針對新任務實現(xiàn)快速學習與適應,相比基線模型在目標任務上實現(xiàn)30%以上的性能提升,顯著降低對標注數(shù)據(jù)的依賴程度。開源相關(guān)算法并撰寫技術(shù)報告,在國際上引起廣泛關(guān)注。
任務7:芯算一體協(xié)同設(shè)計的顛覆性芯片研制
研究內(nèi)容:針對當前模型權(quán)重和芯片帶寬制約、影響深度思考及代碼生成等長生成場景效果等問題,探索融合芯片(核心硬件)與算法(軟件)的下一代人工智能計算模式。融合芯片和軟件協(xié)同設(shè)計全新的大模型訓練推理算法,優(yōu)化內(nèi)存使用,通過異步算法調(diào)度減少芯片間通信需求,提升模型的訓練與推理效率;設(shè)計專門為大模型計算需求的芯片,支持高效執(zhí)行矩陣乘法和其他大模型緊密相關(guān)的計算任務;通過異步集成減少芯片通信,同時支持模型算法的快速迭代。
研究目標:自主研發(fā)低比特混合量化算法;研制一款大帶寬、面向2/4/8 比特矩陣運算優(yōu)化的計算芯片,通過國產(chǎn)工藝實現(xiàn)量產(chǎn),對比當前業(yè)界通用的大模型推理方案,生成速度提升 5 倍以上;相關(guān)的量化技術(shù)和芯片作為軟硬一體方案推廣,廣泛提升國內(nèi)大模型各使用場景的效率。
二、申報要求
(一)申報課題
1.申報課題具有明確的技術(shù)路線,較強的技術(shù)影響力和產(chǎn)業(yè)帶動力,具有清晰、可量化的目標及考核指標。
2.申報課題具有明顯的技術(shù)突破,課題成果應服務于國家戰(zhàn)略和實體經(jīng)濟,有利于推動人工智能相關(guān)技術(shù)產(chǎn)品自主創(chuàng)新發(fā)展。
3.任務1-6周期原則上不超過2年,任務7周期原則上不超過3年,鼓勵在各項指標達成的情況下提前結(jié)項,對于成果優(yōu)異的課題可延續(xù)支持。
(二)申報單位
1.申報主體應為在北京市注冊,具有獨立法人資格的企業(yè)或高校院所,擬來京發(fā)展的京外主體需在立項支持前完成在北京市注冊。申報單位需具備完善的財務、檔案和保密管理制度。
2.每個企業(yè)本年度限申報1項課題(含聯(lián)合申報課題);申報單位需符合《北京市科技計劃項目(課題)管理辦法》和《北京市科技計劃管理相關(guān)責任主體信用管理辦法》要求;申報單位和團隊應遵守科研倫理準則,符合科研誠信管理要求,承諾所提交材料真實性。
3.申報單位為企業(yè)的,應明確說明課題投資總額和資金來源,提供相應配套經(jīng)費,配套經(jīng)費與財政科技經(jīng)費比例不低于2:1。
(三)申報負責人
1.申報負責人應為申報單位的正式在職人員,具有良好的職業(yè)道德,無不良行為記錄。在課題申報時,負責人在課題實施期內(nèi)在職,具有領(lǐng)導和組織開展創(chuàng)新性研究的能力,身體健康并能切實履行職責,有充足時間保證課題順利實施。
2.申報負責人需符合《北京市科技計劃項目(課題)管理辦法》和《北京市科技計劃管理相關(guān)責任主體信用管理辦法》要求。申報負責人作為負責人同期承擔北京市科委、中關(guān)村管委會課題原則上不超過1項,作為主要參加人員同期參與課題數(shù)(含擔任負責人的課題)原則上不超過2項。
三、申報方式
1.采取在線申報方式,申報單位通過法人一證通登錄“北京市科技計劃綜合管理平臺-在線服務系統(tǒng)”(https://mis.kw.beijing.gov.cn/)更新本單位信息后(以自然人賬號申報的,需綁定單位后再填報),點擊“項目申報”,選擇“關(guān)于公開征集2025年人工智能顛覆性技術(shù)方向儲備課題的通知”,點擊申報方向,完成課題申報材料填寫,主要包括:課題實施方案、項目課題簡表、負責人及申報單位承諾書(需簽字蓋章),并上傳申報課題所需的其他證明性材料?;虻卿洷本┦腥嗣裾T戶網(wǎng)站“政策兌現(xiàn)”欄目(https://zhengce.beijing.gov.cn)選擇相對應的項目進行申報。
2.申報系統(tǒng)將于2025年7月23日(星期三)9:00至8月5日(星期二)17:30期間開放,截止時間后系統(tǒng)自動關(guān)閉。申報單位需在系統(tǒng)開放期間完成本單位申報課題審核并統(tǒng)一提交,系統(tǒng)關(guān)閉后將不再受理。
四、咨詢服務
咨詢電話:章老師010-88827002、010-68619223
咨詢服務時間:9:00—11:30,13:30—18:00(工作日)
技術(shù)支持聯(lián)系電話:010-58858681、010-58858685、010-58858689、010-58858680
北京市科學技術(shù)委員會、中關(guān)村科技園區(qū)管理委員會
2025年7月23日
分享到: