【中南大學等機構突破難題:讓AI真正理解長文本并生成完美圖像】
這項由中南大學、華北大學、微軟等多家機構聯合開展的研究發表于2025年2月11日的arXiv預印本平臺 , 論文編號為arXiv:2502.07870v1 。 有興趣深入了解的讀者可以訪問https://textatlas5m.github.io/獲取完整論文和數據集 。 這項研究解決了人工智能領域一個長期存在的技術難題:如何讓AI模型準確地根據復雜的長文本描述生成包含大量文字內容的圖像 。
想象你要求一位畫家根據你的詳細描述創作一幅包含大量文字信息的海報 , 比如一張包含完整產品說明、價格信息和使用指南的廣告海報 。 對人類來說 , 這已經是個不小的挑戰 , 而對目前的AI模型來說 , 這更是一個幾乎無法完成的任務 。 現有的AI圖像生成模型雖然能夠創建精美的圖片 , 但一旦涉及到在圖像中準確渲染長段文字內容 , 它們就會頻繁出錯——要么文字模糊不清 , 要么內容張冠李戴 , 要么干脆忽略掉大部分文字信息 。
這個問題在日常生活中的影響遠比我們想象的要廣泛 。 從商業廣告到教育材料 , 從新聞報道到社交媒體內容 , 現代視覺傳達中有超過50%的圖像都包含文字信息 。 然而 , 當我們希望AI能夠幫助我們自動化地創建這些包含豐富文字信息的圖像時 , 現有技術就顯得力不從心了 。 即使是目前最先進的模型 , 如DALL-E 3和Stable Diffusion 3.5 , 在處理包含長文本的圖像生成任務時也會出現各種問題 。
研究團隊敏銳地意識到 , 這個問題的根源在于訓練數據的不足 。 就像教一個孩子學習繪畫 , 如果你只給他看簡單的涂鴉作品 , 他自然無法學會創作復雜的藝術作品 。 現有的AI模型訓練數據大多包含簡短的文字描述 , 很少有機會接觸到需要處理長文本和復雜圖像關系的案例 。 因此 , 即使模型在其他方面表現出色 , 在面對長文本圖像生成任務時也會束手無策 。
為了解決這個根本問題 , 研究團隊著手構建了一個前所未有的大規模數據集——TextAtlas5M 。 這個數據集就像是一個專門為AI模型設計的\"長文本圖像生成訓練營\" , 包含了500萬個精心設計的圖像-文本對 , 每個樣本的平均文本長度達到148.82個詞匯單位 , 遠遠超過了現有數據集的規模 。 更重要的是 , 這些數據不是簡單的堆砌 , 而是經過精心設計 , 涵蓋了從簡單的純文本圖像到復雜的多媒體交互式文檔的各種場景 。
研究團隊還特別設計了一個名為TextAtlasEval的評估基準 , 包含3000個人工精選和改進的測試樣例 。 這個評估基準就像是AI模型的\"期末考試\" , 專門測試模型在處理長文本圖像生成任務時的真實能力 。 令人驚訝的是 , 即使是目前最強的商業模型GPT-4o配合DALL-E 3 , 在這個測試中也表現得相當吃力 , 而開源模型的表現更是遠遠落后 。
一、數據集的精心設計:從簡單到復雜的學習階梯
TextAtlas5M數據集的設計理念就像建造一座學習的階梯 , 讓AI模型能夠逐步掌握從簡單到復雜的長文本圖像生成能力 。 整個數據集被巧妙地分為合成數據和真實數據兩大類 , 就像是為學生準備的練習題和真實考試題目 。
在合成數據部分 , 研究團隊創造了三個不同復雜度的訓練階段 。 第一階段是CleanTextSynth , 包含近200萬個樣本 , 就像是讓學生練習在白紙上工整地書寫文字 。 這些圖像背景簡潔 , 字體清晰 , 讓AI模型能夠專注于學習如何準確渲染文字內容 , 而不必同時處理復雜的視覺元素 。 研究團隊使用OpenCV工具 , 在白色畫布上放置各種字體、大小和顏色的文字 , 創造出多樣化的純文本圖像 。
第二階段是TextVisionBlend , 這就像是讓學生學會在文章中插入圖片和圖表 。 這個階段包含約55萬個樣本 , 模擬了博客、百科全書和新聞網站中常見的圖文混排格式 。 研究團隊從高質量的多媒體數據源中提取圖像和文本 , 然后使用專門的布局算法將它們重新組合 , 創造出結構化的交互式文檔 。 每個樣本都包含詳細的位置信息、字體樣式和布局描述 , 讓AI模型能夠學會理解復雜的空間關系 。
第三階段是StyledTextSynth , 這是合成數據中最具挑戰性的部分 , 包含約43萬個樣本 。 在這個階段 , 研究團隊使用GPT-4o作為\"世界模擬器\" , 生成50個不同的現實場景描述 , 然后篩選出18個最有代表性的高頻話題 , 比如城市標牌、產品包裝、廣告牌等 。 每個場景都要求AI模型不僅要準確渲染文字 , 還要讓文字與環境背景完美融合 , 就像真實世界中的文字應用一樣 。
在真實數據部分 , 研究團隊從多個不同來源收集了豐富多樣的實際應用場景 。 PPT2Details和PPT2Structured兩個子集分別包含約30萬和10萬個樣本 , 來源于SlideShare平臺上的PowerPoint演示文稿 。 這些數據就像是從真實的商業和學術環境中提取的教材 , 包含了大量的圖表、表格和復雜的文本布局 。 研究團隊使用Qwen2-VL等先進的視覺語言模型對這些幻燈片進行詳細標注 , 確保每個元素都得到準確的描述 。
Paper2Text子集包含約36萬個學術論文頁面的樣本 , 這些數據就像是讓AI模型學習科學文獻的排版規則 。 每個頁面都經過PyMuPDF工具的精確解析 , 提取出字體信息、顏色和版式細節 。 CoverBook子集則包含了約21萬個書籍封面 , 每個樣本都包含書名、作者、類別和年份信息 , 就像是一個完整的圖書目錄 。
最具挑戰性的是LongWordsSubset , 這個子集從現有的AnyWords3M和Marion10M數據集中篩選出包含至少七個單詞的長文本樣本 , 總計約150萬個樣本 。 研究團隊對這些數據進行了嚴格的質量控制 , 去除了重復詞匯、連續重復和無效文本 , 只保留英語樣本 , 確保數據的高質量 。
TextScenesHQ是整個數據集中最精品的部分 , 雖然只有約4萬個樣本 , 但每一個都是經過人工篩選和標注的高質量數據 。 這些圖像來自CommonCrawl網絡爬蟲收集的真實世界場景 , 涵蓋了26個不同的文本豐富話題 。 研究團隊使用OCR技術進行初步篩選 , 然后結合人工標注來糾正和完善文本內容 , 確保每個樣本都能為AI模型的學習提供有價值的信息 。
二、創新的評估體系:TextAtlasEval基準測試
為了準確評估AI模型在長文本圖像生成方面的真實能力 , 研究團隊專門設計了TextAtlasEval評估基準 。 這個評估體系就像是為AI模型量身定制的綜合考試 , 包含3000個精心挑選的測試樣例 , 分別來自三個不同復雜度的數據域 。
這個評估基準的設計采用了分層抽樣的策略 , 就像是確保考試題目能夠全面覆蓋所有知識點 。 33%的樣本來自高級合成數據StyledTextSynth , 測試AI模型在處理復雜場景文字渲染方面的能力 。 另外33%來自真實世界專業域TextScenesHQ , 檢驗模型在實際應用場景中的表現 。 最后33%來自網絡交互式數據TextVisionBlend , 評估模型處理多媒體內容的綜合能力 。
研究團隊使用了多種評估指標來全面衡量模型性能 。 FID(Fréchet Inception Distance)分數用來測量生成圖像與真實圖像之間的視覺相似度 , 就像是評判一幅畫作是否看起來逼真 。 CLIP分數則評估生成圖像與文本描述之間的匹配程度 , 類似于檢查畫作是否符合委托要求 。
在文字準確性方面 , 研究團隊采用了三種不同的OCR相關指標 。 OCR準確率和F1分數使用詞匯級別的評估 , 允許80%的詞匯匹配誤差 , 就像是在評判手寫文字時允許一定程度的筆跡差異 。 字符錯誤率(CER)則更加嚴格 , 對比完整的OCR檢測結果與真實文本 , 計算字符級別的錯誤比例 , 類似于打字測試中的準確率計算 。
三、令人矚目的實驗結果:揭示現有技術的局限性
當研究團隊使用TextAtlasEval基準對現有的主流AI模型進行測試時 , 結果令人深思 。 他們總共評估了6個代表性的文本到圖像生成模型 , 包括AnyText、PixArt-Σ、TextDiffuser2、Infinity-2B、GPT-4o配合DALL-E 3 , 以及Stable Diffusion 3.5 Large 。
測試結果顯示 , 即使是目前最強的商業模型GPT-4o配合DALL-E 3 , 在面對復雜的長文本圖像生成任務時也會遇到顯著挑戰 。 在處理交互式文檔格式的TextVisionBlend數據時 , 由于AnyText和TextDiffuser2不支持這種輸入格式 , 它們根本無法參與測試 , 這就像是考生連試卷都看不懂 。
在StyledTextSynth和TextScenesHQ測試中 , Stable Diffusion 3.5 Large在OCR相關指標上表現最佳 , 但在FID和CLIP分數上卻落后于其他模型 。 這個有趣的現象反映了一個重要問題:模型在文字渲染準確性和圖像整體質量之間存在權衡 。 SD-3.5能夠生成相對準確的文字內容 , 但在理解復雜指令和保持圖像布局方面還有不足 。
研究團隊通過具體案例分析發現了問題的根源 。 當要求生成交互式文檔時 , SD-3.5往往無法準確理解布局要求 , 雖然能生成清晰的文字 , 但整體布局混亂 。 相比之下 , PixArt-Σ和Infinity-2B雖然在文字準確性上較差 , 但能更好地遵循交互式結構和白背景要求 。
這種差異可能與模型支持的輸入文本長度有關 , 就像是學生的閱讀理解能力限制了他們對復雜題目的理解 。 PixArt-Σ支持最多300個文本標記 , Infinity作為自回歸生成模型支持更長的文本輸入 , 而這種更強的文本處理能力可能在理解復雜指令方面提供了優勢 。
開源模型的整體表現明顯落后于商業模型 , 這反映了長文本圖像生成技術目前還處于發展階段 。 大多數開源模型只能處理簡短的文字內容 , 在面對包含數十甚至數百詞匯的長文本時就會出現各種問題 , 比如文字重復、遺漏關鍵信息或者完全忽略部分文本內容 。
四、數據集的質量分析:確保訓練的有效性
研究團隊對TextAtlas5M數據集進行了全面的質量分析 , 就像是對教材進行內容審查 , 確保每一份學習材料都能為AI模型的成長提供有價值的營養 。
他們使用了多種分析方法來評估數據質量 。 首先是困惑度分析 , 使用預訓練的Llama-2-7B模型計算文本的困惑度分數 。 困惑度就像是衡量文章\"通順度\"的指標 , 分數越低說明文本越接近高質量的維基百科文章 。 結果顯示 , 合成數據CleanTextSynth的平均困惑度顯著低于真實圖像數據 , 這表明合成數據的文本質量更加統一和規范 。
研究團隊還進行了主題分布分析 , 使用潛在狄利克雷分配(LDA)模型識別數據集中的主要話題 。 從20萬個隨機樣本的分析結果看 , 位置信息是最突出的類別 , 占15.12% , 這反映了數據集包含大量的空間位置數據 , 這對理解和處理交互式內容至關重要 。 內容、標識和顏色等話題也占據了顯著比例 , 表明數據集很好地覆蓋了日常視覺傳達中的核心要素 。
在視覺-語言相似性評估中 , 研究團隊使用CLIP模型計算圖像和文本之間的匹配分數 。 有趣的是 , LongWordsSubset-A、LongWordsSubset-M和CoverBook數據集的CLIP分數較高 , 這是因為它們包含了圖像標題 , 而交互式數據的匹配分數較低 , 這表明交互式格式對現有的圖像-文本對齊模型提出了新的挑戰 。
研究團隊還對關鍵子集進行了定性評估 。 對于StyledTextSynth的154個樣本分析顯示 , 沒有發現水印或不當內容 , OCR識別準確性因話題而異 。 學術報告等對比度高、字體較大的話題識別率很高 , 而字體重疊或環境光線干擾的場景識別效果較差 。
TextScenesHQ的200個樣本分析揭示了更多細節 。 4%的樣本包含水印 , 但沒有不當內容 。 當文字較小或與背景對比度不足時 , OCR識別準確性會下降 。 定量分析顯示 , 當文字-背景對比度低于30% RGB時 , OCR準確率從89.4%下降到67.1% , 降幅達22.3% , 這為模型魯棒性評估提供了重要的閾值參考 。
五、技術細節:構建數據集的工程智慧
TextAtlas5M數據集的構建過程體現了研究團隊在工程實踐方面的深厚功底 。 整個過程就像是精心策劃的制造流水線 , 每個環節都經過精密設計和質量控制 。
在合成數據生成方面 , 研究團隊開發了一套完整的文本渲染系統 。 對于CleanTextSynth , 他們使用OpenCV庫在白色畫布上渲染文本 , 支持多種字體(如Helvetica、Times New Roman)、字號(12-48pt)、顏色和旋轉角度(±45°)的變化 , 確保生成的文本圖像具有足夠的多樣性 。
StyledTextSynth的生成過程更加復雜 , 需要多個AI模型的協同工作 。 首先使用GPT-4o識別50個現實世界的文本集成場景 , 然后精選出18個高頻話題 。 接著使用Stable Diffusion 3.5生成無文本的場景圖像 , 再通過YOLO v11和RT-DETR等目標檢測模型識別適合放置文字的區域 。 最后 , 系統會生成與場景匹配的上下文相關文本 , 使用透視變換等技術將文字自然地嵌入到不規則的四邊形區域中 。
對于真實數據的處理 , 研究團隊采用了多種先進的多模態模型 。 PowerPoint數據使用PyMuPDF庫進行解析 , 提取每個元素的邊界框、字體樣式和內容信息 。 對于包含圖像的幻燈片 , 團隊使用Qwen2-VL模型生成描述性標題 , 確保視覺內容也得到準確的文字描述 。
學術論文數據的處理更加注重細節保持 。 研究團隊保留了原始的字體顏色、大小和類型屬性 , 這樣AI模型就能學習到真實文檔中的排版規則和視覺層次 。
數據整合是另一個技術挑戰 , 因為不同子數據集的標注格式各不相同 。 研究團隊開發了智能模板生成系統 , 使用大語言模型創建了600個不同的模板 , 用于將場景描述和OCR文本自然地融合成連貫的長段落描述 。 這個過程就像是讓不同的敘述者用統一的風格重新講述同一個故事 。
質量控制方面 , 研究團隊實施了多層次的過濾策略 。 英語相似性檢查確保至少70%的詞匯包含字母字符 , 最小長度檢查排除少于七個詞的樣本 , 唯一詞比率檢查確保詞匯多樣性超過0.3 , 連續重復檢查避免冗余內容 。 這些檢查就像是多道質檢關卡 , 確保每個通過的樣本都符合高質量標準 。
六、深度分析:TextAtlas5M的獨特價值
TextAtlas5M數據集的真正價值不僅在于其規模 , 更在于它系統性地解決了長文本圖像生成領域的核心挑戰 。 與現有數據集相比 , TextAtlas5M在多個維度上實現了突破性進展 。
首先是文本長度的顯著提升 。 傳統數據集如TextCaps的平均詞匯長度只有26.36個單詞 , AnyWords3M僅有9.92個單詞 , 而TextAtlas5M達到了148.82個單詞 , 這種長度的提升不僅僅是數量上的變化 , 更代表了質的飛躍 。 長文本處理需要AI模型具備更強的上下文理解能力、更精確的空間布局規劃能力 , 以及更穩定的文字渲染技術 。
數據類型的多樣性是TextAtlas5M的另一個重要特征 。 數據集涵蓋了從純文本圖像到復雜交互式文檔的完整譜系 , 就像是為AI模型提供了一個完整的\"課程體系\" 。 學生可以從簡單的字母練習開始 , 逐步學會處理復雜的版式設計和多媒體內容整合 。
研究團隊特別重視真實世界應用場景的覆蓋 。 無論是商業廣告、學術論文、教育材料 , 還是社交媒體內容 , TextAtlas5M都提供了相應的訓練樣例 。 這種全面性確保了在此數據集上訓練的AI模型能夠適應各種實際應用需求 , 而不是局限于特定的場景類型 。
標注質量是數據集價值的另一個關鍵因素 。 研究團隊不僅提供了基本的圖像-文本對 , 還為許多樣本提供了詳細的結構化信息 , 包括邊界框坐標、字體屬性、布局層次等 。 這些精細的標注信息就像是為AI模型提供了詳細的\"操作手冊\" , 讓模型能夠學習到更深層次的視覺-文本關系 。
評估基準TextAtlasEval的設計也體現了研究團隊的深刻洞察 。 傳統的評估方法往往關注單一指標 , 而TextAtlasEval采用了多維度評估體系 , 既考慮了視覺質量 , 也重視了文字準確性 , 還評估了語義一致性 。 這種全面的評估方式能夠更準確地反映模型在實際應用中的表現 。
研究團隊還特別關注了數據集的可擴展性 。 整個數據構建流程都采用了可重復、可擴展的方法 , 新的數據源可以很容易地整合到現有框架中 。 同時 , 多語言擴展、新場景添加、質量標準升級等改進方向都為未來發展預留了空間 。
七、實際應用的前景展望
TextAtlas5M數據集的發布為多個實際應用領域打開了新的可能性 。 在商業廣告制作領域 , 設計師可以利用在此數據集上訓練的AI模型快速生成包含詳細產品信息的營銷材料 。 想象一下 , 只需要輸入產品特性、價格信息和營銷口號 , AI就能自動生成專業水準的廣告海報 , 大大提高了創意產業的效率 。
教育內容創作是另一個重要的應用方向 。 教師和教育內容制作者可以使用這種技術快速生成包含大量文字說明的教學圖表、信息圖和學習材料 。 復雜的科學概念、歷史事件和數學公式都可以通過圖文并茂的形式更直觀地呈現給學生 , 提升學習效果 。
在新聞媒體和信息傳播領域 , 記者和編輯可以利用這項技術快速制作信息豐富的新聞圖表和數據可視化內容 。 特別是在需要快速響應突發新聞的情況下 , AI能夠根據文字報道自動生成配套的視覺內容 , 提高新聞生產的時效性 。
社交媒體內容創作也將受益于這項技術的發展 。 內容創作者可以更容易地制作包含詳細信息的社交媒體圖片 , 無論是產品評測、旅行攻略還是知識分享 , 都可以通過文字描述自動生成相應的視覺內容 。
企業內部文檔和演示材料的制作也是一個重要應用場景 。 商業報告、產品說明書、培訓材料等企業文檔通常包含大量的文字信息和專業術語 , 傳統的設計制作成本高昂且耗時較長 。 基于TextAtlas5M訓練的模型可以大大簡化這一過程 , 讓企業員工能夠快速制作專業外觀的文檔材料 。
無障礙內容創作是一個特別有意義的應用方向 。 為視覺障礙用戶提供的無障礙內容往往需要在圖像中嵌入詳細的文字描述 , 這種技術可以自動化地生成這類專門的無障礙圖像內容 , 提高信息的可訪問性 。
八、技術挑戰與未來發展方向
盡管TextAtlas5M數據集代表了長文本圖像生成領域的重要進步 , 但研究團隊也坦率地指出了當前技術仍面臨的挑戰和未來的發展方向 。
模型容量和計算效率的平衡是一個核心挑戰 。 處理長文本信息需要更大的模型容量和更多的計算資源 , 這增加了訓練成本和推理時間 。 未來的研究需要探索更高效的模型架構 , 在保持性能的同時降低計算復雜度 。
文字渲染的準確性仍有提升空間 。 雖然現有模型在簡單場景下能夠生成相對準確的文字 , 但在復雜背景、特殊字體或藝術化文字處理方面還存在不足 。 特別是對于手寫字體、裝飾性文字和非標準排版的處理能力還需要進一步改善 。
多語言支持是另一個重要的發展方向 。 目前的數據集主要關注英語內容 , 但在全球化的背景下 , 支持多種語言的長文本圖像生成需求日益增長 。 中文、日文、阿拉伯文等不同書寫系統的語言都有其獨特的排版規則和視覺特征 , 這為技術發展提出了新的挑戰 。
交互式和動態內容生成代表了技術發展的前沿方向 。 靜態圖像生成只是第一步 , 未來的應用可能需要生成可交互的界面元素、動畫文字效果或者響應式布局設計 。 這要求AI模型不僅要理解文字內容 , 還要掌握用戶界面設計和交互設計的原理 。
個性化和風格控制也是用戶關心的重要功能 。 不同的應用場景需要不同的視覺風格 , 比如商務正式、創意藝術、教育親和等 。 如何讓AI模型能夠根據用戶需求靈活調整生成內容的風格和情感色彩 , 是一個值得深入研究的方向 。
研究團隊還提到了數據質量持續改進的重要性 。 他們計劃通過多輪數據集自舉改進數據質量 , 為每個圖像生成多個合成標題來擴展數據集規模 , 并探索更先進的數據清理和標注技術 。
說到底 , TextAtlas5M數據集的發布標志著人工智能在理解和生成復雜視覺內容方面邁出了重要一步 。 這個包含500萬樣本的數據集不僅為研究人員提供了寶貴的訓練資源 , 更重要的是為整個人工智能社區指明了長文本圖像生成技術的發展方向 。
當前的實驗結果清楚地顯示 , 即使是最先進的商業模型在處理長文本圖像生成任務時也面臨顯著挑戰 , 這說明這個研究領域還有巨大的發展潛力 。 隨著更多研究團隊基于TextAtlas5M開展工作 , 我們有理由期待在不久的將來看到更強大、更實用的長文本圖像生成技術 。
這項技術的成熟將深刻改變我們創作和消費視覺內容的方式 。 從商業營銷到教育傳播 , 從新聞報道到社交媒體 , 包含豐富文字信息的圖像內容將變得更容易制作和個性化定制 。 這不僅會提高內容創作的效率 , 更可能催生全新的創意表達形式和商業模式 。
對于普通用戶而言 , 這意味著在不久的將來 , 我們可能只需要簡單描述自己的想法 , AI就能幫助我們生成專業水準的圖文內容 。 無論是制作個人簡歷、準備演講幻燈片 , 還是設計宣傳海報 , 復雜的視覺設計工作都可能變得像寫一段文字描述一樣簡單 。
當然 , 技術的發展也帶來了新的思考 。 當AI能夠如此輕松地生成包含大量信息的視覺內容時 , 我們需要更加謹慎地考慮信息的真實性和可靠性問題 。 同時 , 這也提醒我們需要培養更好的數字素養 , 學會在信息豐富的視覺世界中進行有效的判斷和篩選 。
研究團隊通過開放數據集和評估基準的方式 , 為整個學術界和產業界的協同發展搭建了重要的基礎設施 。 他們的工作不僅推動了技術的進步 , 更體現了開放科學和共享發展的理念 。 正如他們在論文中強調的 , 只有通過整個社區的共同努力 , 我們才能真正實現人工智能技術造福人類的目標 。
有興趣深入了解這項研究的讀者可以訪問項目網站https://textatlas5m.github.io/獲取完整的數據集和技術細節 , 也可以通過論文原文arXiv:2502.07870v1了解更多的技術實現方法 。 這項研究的開放性確保了任何有興趣的研究者都可以基于這個基礎繼續推進相關技術的發展 。
Q&A
Q1:TextAtlas5M數據集包含什么內容?它有什么特殊之處?
A:TextAtlas5M是一個包含500萬圖像-文本對的大規模數據集 , 專門用于訓練AI生成包含長文本的圖像 。 它的特殊之處在于平均文本長度達到148.82個單詞 , 遠超現有數據集 , 并且涵蓋了從簡單文字圖像到復雜交互式文檔的各種場景 , 包括廣告海報、學術論文、PowerPoint演示文稿等真實應用場景 。
Q2:為什么現有的AI圖像生成模型難以處理長文本?
A:現有AI模型的訓練數據大多包含簡短文字描述 , 缺乏處理長文本的經驗 。 就像只看過簡單涂鴉的人無法創作復雜藝術品一樣 , 這些模型在面對包含大量文字信息的圖像生成任務時會出現文字模糊、內容錯誤或忽略部分文本等問題 。 即使是最先進的GPT-4o配合DALL-E 3也在TextAtlasEval測試中表現吃力 。
Q3:TextAtlas5M數據集對普通用戶有什么實際意義?
A:這個數據集的發布將推動AI技術在日常應用中的突破 。 未來普通用戶可能只需簡單描述想法 , AI就能生成專業的廣告海報、教學材料、演講幻燈片等包含豐富文字信息的圖像 。 這將大大降低視覺內容創作的門檻 , 讓不具備設計技能的人也能制作高質量的圖文內容 。
推薦閱讀
- 希伯來大學讓AI\考官\幫你從千萬個模型里找到最合適的那一個
- Pixel 10 領跑 AI 手機競賽:同聲通話翻譯等重磅升級亮相
- 反“開盒”技術聯盟成立,百度、抖音、阿里、騰訊等公司成首批成員
- 榮耀旗艦手機跌價千元,驍龍8至尊+IP69,等等黨勝利了
- 通義APP上線官方知識庫,首批覆蓋教育、法律、金融等五大領域
- 等了小兩年!魅族22距離上市越來越近,或同步推出小屏版
- iPhone 17發布日期、iPhone 17 Air 等值得關注的要點
- 企業微信5.0重磅更新 上線智能表格、企業名片等多項AI新功能
- 16歲天才少年炒掉馬斯克,空降華爾街巨頭,9歲上大學,14歲進SpaceX
- 糾結紅米K80至尊版還是等K90 Pro?看完這篇不迷茫
