零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

文章圖片

零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

文章圖片

零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

文章圖片

零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

文章圖片

零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

文章圖片

零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

文章圖片

零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

文章圖片

零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

文章圖片

零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

文章圖片

零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

文章圖片

零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評

前兩期給大家帶來了零刻GTi15 Ultra的外觀工藝和跑分性能、散熱、噪音實測 , 那今天給大家帶來的是擁有99 TOPS的AI算力實測 , 以及零刻GTi15 Ultra機身降噪芯片B1的交互體驗測評 , 值得稱贊的是這次零刻GTi15 Ultra相比上一代GTi14 Ultra , 首次激活系統后你會發現零刻已經幫你內置了Ollma/DeepSeek-r1:32b的AiBox軟件 , 對于從來沒接觸過AI本地部署的朋友來說呢 , 友好度非常高 。
1??為什么需要本地AI大模型
也許有人不解 , 現在網絡上的AI大模型有的是 , 隨便給大家舉一些國內常見的AI平臺 , 例如字節跳動的豆包AI、扣子(Coze)、深度求索DeepSeek、百度文心一言、阿里巴巴通義千問、騰訊混元助手、即夢AI、可靈AI、萬興超媒Agent、稿定AI、可畫Canva等等等等 , 可以說大模型層出不窮 。
那以我所在的鐵路行業來講 , 當然其它專業類的國企央企也都是一樣的 , 那就是大家有可能聽說過一個詞 , 叫做:“內控資料”或者叫“內控文本” , 簡單來說 , 就是很多文件是禁止網絡傳輸的 , 盡管理論上你直接用網絡平臺上傳附件然后讓AI幫你做匯總或者分析、潤色 , 平臺可能會說沒問題很安全 , 黑客也不可能盯上你這種小角色 , 但不怕一萬就怕萬一 , 作為普通職員我們還是盡可能地一方面避免自己擔責 , 另一方面也避免企業內部文件外泄本身也是對企業利益負責 , 因此 , 對于領導對AI比較看中的國企央企其實都是會讓IT部門去做本地化AI大模型的 , 為的就是底層附件分析的安全 。
2??大模型AI算力表現搭載全新一代Intel Core Ultra 9 285H處理器的零刻GTi15 Ultra , AI算力由上一代185H的34.5 TOPS , 升級到了99 TOPS NPU+CPU+iGPU , AI算力提升了187% , 支持實時語言翻譯、自動化推理等AI應用運行 , 支持高達200億參數大語言模型 , 不聯網也能運行 。 那今天我們以LM Studio來進行實測對比 。


會進行本地大模型部署的朋友 , 可以嘗試用Ollma或者LM Studio來進行測試驗證 , 其實兩個我都試了 , Ollma測試DeepSeek R1 0528 Qwen3 8B的結果eval rate基本在11.64-12.48 tokens/s之間 , 那使用LM Studio測試 , 8b的結果基本也都是11 tokens/s , 14b和32b版本 , 因為參數規模更大 , 所以處理起來會更慢 , 實測14b基本在7 tokens/s左右 , 32b則在3 tokens/s左右 。


在面向DeepSeek-r1不同大小版本的測試下 , 自然是占用空間越小的tokens/s速度要更快 , 32b版本的處理速度僅為3tokens/s , 但實際運行也是沒問題的 。 通過對幾種不同大小的大模型測試數據如上圖所示 , 我們以零刻GTi15 Ultra 9 285H和零刻SER9 Pro HX370同時測試DeepSeek-R1-Distill-Qwen-7b模型中 , AMD銳龍AI 9 HX 370生成token的平均達到12tokens/s , 相比Intel Core Ultra 9 285H平均11tokens/s還是略有優勢 , 但二者幾乎可以打個平手了 , 這也是目前英特爾平臺在AI算力上最能打的旗艦處理器了 。
3??零刻AiBox和網絡大模型對比接下來 , 我們將對比零刻自帶本地部署AiBox軟件和網絡DeepSeek使用的回答問題時間對比 。


我們還是以“寫一個貪吃蛇的代碼”為例 , 總共用時623秒 , 也就是10分23秒 , 而DeepSeek在線版耗時總共7分30秒 , 大約節省了3分鐘的時間 , 從效率上來說 , 必然是在線版大模型是要更快的 , 對于一段簡單的代碼編程 , 效率提升大約38% , 當然英特爾平臺本地大模型部署的優勢就在于安全的同時 , 也可以做到完全離線運行 , 而網絡版必然是有網絡才行 , 那這點也很適合某些特定企業機房只能在局域網內部網或者本地無網環境下的運行 。
4??Stable Diffusion文生圖測試鑒于網絡上已經有很成熟的Stable Diffusion搭建平臺 , 所以本次測評采用繪世2.8.13版本 , Stable Diffusion模型如圖所示:


默認狀態下 , 迭代步數都是20 , 畫面分辨率512*512 , 實測生成時間基本為58秒左右 , 但生成的質量比較一般 , 想要提升畫質和細節就要增加迭代步數 , 按照我的實測經驗來說 , 迭代步數設置到30或者最高50 , 生成的圖質量就比較高了 , 如果迭代步數再高那處理時間就成倍增長所以本次將對比常見分辨率和50以下不同迭代步數的生成時間 。



可以看出分辨率和迭代步數對于Stable Diffusion文生圖的影響是非常大的 , 常規512*512分辨率迭代步數20的情況下 , 基本上按照提示詞和反向次能夠在1分鐘內完成計算和生成 , 一旦提高迭代步數增加到30 , 時長就會增加50%的時間 , 而分辨率提升到1280*800以上 , 并且想畫質的完成度和細節更高的話 , 時長將長達10分鐘以上 , 但對于生成結果如上圖最后一張所示 , 提示詞僅為1girl、garden 女孩兒+花園的情況下 , 生成的質量個人還是非常滿意的 , 很好看 , 細節和畫質也都完全可以應用于網絡圖文或者視頻剪輯當中 。
當然 , 想進一步提升以上設置生成的速度的話 , 完全可以利用顯卡塢+獨立顯卡的方案 , 那如果你用的是RTX40或者RTX50系列的顯卡的話 , 時長自然會更加縮短 。
5??零刻AI降噪芯片B1+豆包語音測試零刻GTi系列我認為還有一個很大的優勢 , 就在于除了內置電源+內置音箱之外 , 它還配備了四陣列降噪麥克風 , GTi15 Ultra當然也不例外 , 零刻的這款降噪芯片B1搭載了波洛斯麥克風陣列技術、DNN神經網絡降噪算法、深度神經網絡回聲消除算法、AGC自動增益調節算法、嘯叫抑制、混響消除等多重技術 。

其中DNN神經網絡降噪算法是通過深度學習模型訓練 , 能夠有效識別環境噪音 , 讓電腦自己分清哪些是真實的噪音 , 哪些是實際的人聲 , 實現盲源分離 。




此次實測 , 我在關閉室內門窗 , 環境噪音36分貝(室內有空調聲)的環境下、打開門窗40分貝的環境下 , 以及用手機播放模擬馬路上公共汽車駛過79分貝 , 公共汽車嘈雜聲68分貝 , 不同環境噪音下進行電腦版豆包AI人聲語音的識別 。


說實話 , 當你看到我后面描述的交互體驗心理第一感受的時候 , 你或許覺得我在夸大其詞 , 但這的的確確是我當時的第一反應 , 因為在日常嘈雜環境下 , 79分貝是什么概念 , 我把手機音量調的很大了都開始感覺刺耳聒噪了 , 這個時候我是正常站姿位置(升降桌) , 與零刻GTi15 Ultra的距離大約70公分 , 因為我一個手與此同時還在拿著相機邊說話邊拍照 , 那這種情況下說出的話 , 零刻GTi15 Ultra都完美精準的識別 , 除了有些字眼是同聲字之外 , 但是零刻都很好地結合語境進行了下一步回答 , 效果太贊了 。

之所以能達到這種效果 , 離不開零刻降噪芯片B1的功勞 , 有混響消除、嘯叫抑制、DNN神經網絡降噪算法和回聲消除等多種技術的加持 , 零刻GTi15 Ultra的拾音距離可以達到在5米遠距離拾音準確率依然可以達到95% , 而70公分正常坐姿距離迷你主機的情況下 , 準確率穩穩地100% 。
有興趣的小伙伴一定要試下它的降噪效果 , 比如和豆包AI開啟語音聊天的時候 , AI大模型相當于變成了你一個好朋友或者得力助手 , 不管你現在是在辦公 , 還是梳妝打扮 , 還是做好吃的 , 只要距離別太遠 , 5米范圍內隨便喚醒豆包AI問它問題 , 比如英語練習對話 , 比如讓它告訴你一道菜應該怎么做才好吃 , 有了零刻GTi15 Ultra的這個四陣列麥克風 , 隨意走動過程中能讓AI隨時聽清聽懂你 。
?測評總結:
通過以上對零刻GTi15 Ultra 9 285H在AI大模型算力上的測試、本地大模型與網絡大模型速度以及安全性的對比、Stable Diffusion文生圖實測、降噪芯片B1拾音實測 , 零刻GTi15 Ultra對于我日常AI輔助辦公、工作有很大的幫助 , 尤其是對于企業內控文本 , 領導交代給的資料匯總、會議紀要、文本修改、工作總結等等 , 都可以用本地大模型來完成整理 , 安全方面有把控 , 隱私不泄露 。 而在工作之余 , 我也可以利用它的AI能力來對我視頻剪輯的腳本、文稿進行潤色 , 讓語言組織更加有邏輯 , 而且有了四陣列麥克風的加入 , 想象一下 , 我正在電腦前辦公遇到不太明白的問題 , 直接語音喚醒豆包AI并且實時得到相關幫助 , 是不是連打開軟件、或者去網頁端尋求幫助的步驟都省去了 , 是不是很六 。
【零刻GTi15 Ultra本地AI大模型算力實測以及AI語音交互測評】我想這就是GTi15 Ultra 9 285H對我個人最大的幫助吧 , 讓迷你主機成為我們的生產力工具 , 這就是迷你主機最有意義的用途!

    推薦閱讀