當(dāng)前位置:

OFweek 人工智能網(wǎng)

評測

再見VAE!英偉達PixelDiT硬剛SD/FLUX:破局像素生成,端到端效果比肩隱空間模型

作者:Yongsheng Yu等 解讀:AI生成未來 亮點直擊 PixelDiT,一種單階段、完全基于Transformer的像素空間擴散模型,無需單獨的自編碼器即可進行端到端訓(xùn)練。 證明了高效的像素

2025-11-27 15:29 評論

Nano Banana Pro再次封神!我總結(jié)了9種邪修用法

這哪是"出圖更好",簡直是把AI圖像生成推進了下一個紀(jì)元。 一致性王者圖片模型Nano Banana Pro(基于Gemini 3 Pro Image)發(fā)布才20小時,人類創(chuàng)作者的進度可能還停在“剛摸

2025-11-26 17:29 評論

端到端像素擴散天降外掛!北大&華為等開源DeCo:生圖質(zhì)量超越SD3、OmniGen2等

作者:Zehong Ma等 解讀:AI生成未來 亮點直擊 DeCo解耦框架:DiT專注低頻語義建模(采用下采樣輸入);輕量級像素解碼器重建高頻信號。 創(chuàng)新頻率感知損失函數(shù):通過DCT轉(zhuǎn)換至頻域;基于J

2025-11-26 16:37 評論

重磅!阿里達摩院發(fā)布首個VLA與世界模型統(tǒng)一架構(gòu)RynnVLA-002:97.4%成功率刷新認知

作者:Jun Cen等 解讀:AI生成未來 亮點直擊 統(tǒng)一架構(gòu):RynnVLA-002,這是一個將視覺-語言-動作(VLA)模型與世界模型統(tǒng)一在單一框架中的“動作世界模型”。 雙向增強:實現(xiàn)了 VLA

2025-11-25 16:04 評論

豆包輸入法1.0實測:干凈是最大優(yōu)勢,功能是最大短板

優(yōu)缺點分明。 豆包已成為小雷日常生活中使用頻率最高的AI應(yīng)用,無論是各類疑難問題解答、群訪文檔總結(jié),還是文字內(nèi)容調(diào)整,都能放心交給它處理。 就在最近,小雷發(fā)現(xiàn)自己的手機應(yīng)用商店上架了一款名為豆包輸入法

2025-11-25 10:10 評論

硬剛GPT-Image-1?蘋果最新UniGen-1.5強勢發(fā)布:一個模型搞定理解+生成+編輯!

作者:Rui Tian等 解讀:AI生成未來 亮點直擊 推出UniGen-1.5統(tǒng)一多模態(tài)大模型,通過創(chuàng)新的架構(gòu)設(shè)計與訓(xùn)練流程,實現(xiàn)了先進的圖像理解、生成與編輯能力融合。 開創(chuàng)統(tǒng)一強化學(xué)習(xí)訓(xùn)練框架,借

2025-11-24 17:22 評論

告別文字想象!快手可靈團隊開源VANS:實現(xiàn)從“語言描述”到“動態(tài)演示”跨越,多項SOTA

作者:Junhao Cheng等 解讀:AI生成未來 亮點直擊 開創(chuàng)VNEP新范式:將下一代事件推理從文本描述推進到動態(tài)視頻演示的新階段。 提出VANS框架及核心Joint-GRPO策略:通過強化學(xué)習(xí)

2025-11-24 15:54 評論

NeurIPS`25 | 感嘆歲月神偷!南開&三星開源Cradle2Cane:完美破解“年齡-身份”兩難困境!

作者:Tao Liu, Dafeng Zhang等 解讀:AI生成未來 亮點直擊 直擊痛點,提出“Age-ID Trade-off”: 深入分析了人臉老化任務(wù)中“年齡準(zhǔn)確性”與“身份保持”之間的內(nèi)在矛

2025-11-21 15:51 評論

Gemini 3 自述:我不是要替代人類,我是為了終結(jié)平庸

來源:@首席數(shù)智官 在硅谷的計算機歷史博物館里,靜靜躺著早期的真空管和穿孔卡片。它們沉默不語,卻定義了那個時代計算的極限。 而在Google DeepMind的數(shù)據(jù)中心里,無數(shù)個TPU正在以微秒級的

2025-11-21 10:20 評論

第二彈!MIT何愷明團隊再發(fā)重磅成果VARC:ARC原來是個視覺問題!性能匹敵人類水平

作者:Keya Hu、Kaiming He等 解讀:AI生成未來 圖 1:ARC 基準(zhǔn)(上圖)由許多不同的任務(wù)組成,其中每個任務(wù)都有少量(如 2-4 個)測試樣本。本文提出了視覺 ARC (VARC)

2025-11-20 15:15 評論

新加坡國立等發(fā)布WEAVE:首個上下文交錯式跨模態(tài)理解與生成全套解決方案

作者:Wei Chow、Jiachun Pan等 解讀:AI生成未來 亮點直擊 數(shù)據(jù)集創(chuàng)新:WEAVE-100k——首個面向多輪上下文感知圖像理解與生成的大規(guī)模數(shù)據(jù)集。包含10萬個樣本、37萬輪對話和

2025-11-18 15:24 評論

文生圖也會“精神分裂”?北大、字節(jié)聯(lián)手揭秘:越思考越畫錯!并行框架終結(jié)AI“左右互搏”

作者:Ye Tian、Ling Yang等 解讀:AI生成未來 亮點直擊 深入的基準(zhǔn)測試與分析:ParaBench,一個新的基準(zhǔn)測試,旨在系統(tǒng)性地評估“思考感知”型圖像生成與編輯任務(wù)。它不僅關(guān)注最終生

2025-11-17 16:46 評論

一步直接封神!單步擴散媲美250步教師模型!中科大&字節(jié)發(fā)布圖像生成“分層蒸餾術(shù)”

作者:Hanbo Cheng等 解讀:AI生成未來 亮點直擊 系統(tǒng)性分析與統(tǒng)一視角:對軌跡蒸餾(TD)進行了系統(tǒng)性分析,揭示了其本質(zhì)是一種有損壓縮過程。這一視角解釋了為何TD方法雖然能有效保留全局結(jié)構(gòu)

2025-11-14 16:24 評論

視頻模型在真推理還是“演”推理?港中文等提出新基準(zhǔn)拷問:Chain-of-Frame到底是真是假?

作者:Ziyu Guo等 解讀:AI生成未來 引言 近年來,以 Veo、Sora 等為代表的視頻生成模型展現(xiàn)出驚人的生成能力,能夠合成高度逼真、時間連續(xù)的動態(tài)畫面。這些進展暗示,模型在視覺內(nèi)容生成之外

2025-11-13 16:00 評論

直播革命來了!StreamDiffusionV2:140億參數(shù)實時視頻飆上58FPS!伯克利&韓松團隊等

作者:Tianrui Feng等 解讀:AI生成未來 亮點直擊 StreamDiffusionV2,這是一個免訓(xùn)練的流式系統(tǒng),專為視頻擴散模型設(shè)計,用于實現(xiàn)動態(tài)交互式的視頻生成。 巧妙整合了SLO-a

2025-11-12 14:18 評論

一文講透自動駕駛中的“點云”

在談及自動駕駛感知系統(tǒng)時,經(jīng)常會看到一個專業(yè)詞匯,那便是“點云”。作為連接物理現(xiàn)實與數(shù)字世界的橋梁,它賦予機器一種超越人類視覺的深度感知能力,讓車輛得以精確地“理解”自身在環(huán)境中的位置與周遭物體的真實

2025-11-11 14:18 評論

主題一致超越所有開源與商業(yè)模型!中科大&字節(jié)開源統(tǒng)一創(chuàng)新框架BindWeave

作者:Zhaoyang Li等 解讀:AI生成未來 亮點直擊 BindWeave:針對現(xiàn)有視頻生成技術(shù)在主題一致性方面的瓶頸,提出了一個專為主題一致性視頻生成設(shè)計的新型框架。 引入多模態(tài)大語言模型作為

2025-11-11 13:50 評論

頂刊TPAMI 2025!一個模型搞定所有!多模態(tài)跟蹤“全能王”UM-ODTrack橫空出世

作者:Yaozong Zheng等 解讀:AI生成未來 亮點直擊 1.為視覺跟蹤領(lǐng)域提供了首個通用的視頻級模態(tài)感知跟蹤模型。UM-ODTrack?僅需訓(xùn)練一次,即可使用相同的架構(gòu)和參數(shù)實現(xiàn)多任務(wù)推理,

2025-11-10 16:40 評論

好聽、好用、好安全,海康威視打造全套網(wǎng)絡(luò)音頻系統(tǒng)

你能想象嗎?在數(shù)字化技術(shù)、網(wǎng)絡(luò)技術(shù)席卷全球的今天,會議音頻與擴聲系統(tǒng)竟然還大量采用模擬信號技術(shù)。然而這種誕生于上世紀(jì)的音頻技術(shù),正面臨“三重困境”: 首先,信號裸奔。模擬系統(tǒng)通過模擬信號傳輸,像天線一

2025-11-07 16:11 評論

首個基于LLM的開源音頻大模型!階躍星辰重磅開源Step-Audio-EditX:P聲音如此簡單!

作者:Chao Yan等 解讀:AI生成未來 亮點直擊 首個開源的 LLM 音頻編輯模型:Step-Audio-EditX,首個基于大語言模型(LLM)的開源音頻模型,不僅擅長表現(xiàn)力豐富和可迭代的音頻

2025-11-07 14:54 評論
上一頁   1  2 3 4 5 6 7  下一頁

資訊訂閱

粵公網(wǎng)安備 44030502002758號