摘要:
當前大語言模型(LLM)雖能力突飛猛進,卻難逃“知識靜態滯后”與“專業內容幻覺”兩大痛點。在法律、醫療等強合規場景中,這幾乎是“致命缺陷。而 RAG(檢索增強生成)框架雖能通過融合外部知識庫破解此困,卻在落地時遭遇新瓶頸:有限硬件資源下,如何實現高效、低延遲推理? 在此背景下,以LightLLM 為 閱讀全文
posted @ 2025-10-30 14:36
Lab4AI大模型實驗室
閱(yue)讀(9)
評論(0)
推薦(0)
當前基于指令的圖像編輯雖借助擴散模型取得進展,但仍面臨挑戰,本研究突破SFT范式的泛化性與可控性限制,解決擴散模型結合 RL 時的策略優化偏差問題。 閱讀全文
【01 論文概述】 論文標題:ScalingInstruction-BasedVideoEditingwithaHigh-QualitySyntheticDataset 作者團隊:香港科大、螞蟻集團、浙江大學、東北大學 發布時間:2025 年 10 月 17 日 論文鏈接://arxiv 閱讀全文
10月13日,AI領域大神AndrejKarpathy發布了自己的最新開源項目。截至當前,GitHub項目上已經達到29.1KStar。 閱讀全文
DeepSeek團隊于10月20日開源的DeepSeek-OCR,以“上下文光學壓縮”為核心突破,重新定義了OCR(光學字符識別)的效率邊界。 閱讀全文
通過給大模型喂我們的聊天記錄,就可打造出我們的數字分身,當前爆火的Weclone項目采取的就是這種做法。 閱讀全文
開發魯棒且通用的操作策略是機器人領域的關鍵目標。為實現有效的泛化能力,構建包含大量演示軌跡和在復雜真實環境中完成多樣化任務的綜合數據集至關重要。 閱讀全文
1.論文概述 論文標題:SAM3: Segment Anything with Concepts 作者團隊:Anonymous authors 發布時間:ICLR2026 論文鏈接://openreview.net/pdf?id=r35clVtGzw 👉Lab4AI 大模型實驗室鏈接: 閱讀全文
01 論文概述 論文名稱: Direct Preference Optimization: Your Language Model is Secretly a Reward Model —— DPO:你的語言模型,其實就是個獎勵模型 論文鏈接://arxiv.org/pdf/2305.1 閱讀全文
TRM僅使用一個超小的2層網絡(7M參數),通過更直接、完整的遞歸和深度監督機制,在多個基準測試上顯著超越了HRM和許多主流LLMs。其最引人注目的成果是在ARC-AGI-1上達到45%的測試準確率,超過了參數量是其數百萬倍的LLMs。 閱讀全文