周鴻祎:分不清AI和人工內容,說明AGI已經在穩步實現

周鴻祎:分不清AI和人工內容,說明AGI已經在穩步實現

新京報貝殼財經訊(記者羅亦丹)2月26日 , 摘掉眼鏡 , “瘦身”完畢的周鴻祎在360大廈接受了新京報貝殼財經記者的采訪 , 分享了對當前AI技術進步的觀點 。
周鴻祎接受記者采訪 。 新京報貝殼財經記者 羅亦丹/攝
2025年和2024年同期 , 身為360集團創始人的周鴻祎也在這里舉行過采訪活動 , 此前他均身著頗具代表性的紅色POLO衫 , 戴眼鏡 。 但這次采訪中 , 他不再戴眼鏡 , 服裝也改為了淡藍色的襯衣 , 身形消瘦不少 , 面對記者的問詢 , 他坦言“眼睛做了一個手術 。 ”
今年以來 , AI產品再次出現爆發 , OpenClaw的出現 , 讓智能體的表現越來越向真人看齊 , 智能體甚至可以在論壇中“無人交互” , 引發關注;而Seedance2.0的爆火 , 則讓人們發現AI可以生成影視作品級別的內容 , AI和真實內容的界限越來越模糊 , 讓不少人感到難以區分 。
面對這一問題 , 周鴻祎表示自己持樂觀態度 , “這說明AGI(通用人工智能)在已經在穩步實現了 。 ”
在周鴻祎看來 , 當前許多人仍將大模型作為搜索增強或通用問答工具 , 導致其表現僅停留在信息整合層面 , 缺乏深度洞察 。 他舉例稱 , 自己設置了一個“用第一性原理回答任何問題”的智能體 , 發現有時和智能體共事時 , AI“已經比我聰明了” 。
他認為 , 以OpenClaw為代表的智能體系統雖營造出“本地運行”假象 , 實則仍依賴云端大模型指令執行 。 其真正價值在于展示了智能體集群的社會化交互可能性 。 研究發現 , 單個智能體易出現幻覺等問題 , 但通過兩種方法可有效增強其穩定性與準確性:一是角色扮演(Cosplay) , 即設定垂直專業角色以提升領域專注度;二是建立多智能體互審機制 , 例如讓不同模型相互驗證結論 , 模擬人類學術評議過程 , 甚至允許智能體反向質疑用戶輸入 , 實現雙向校驗 。
“在算力的支撐下 , 我們可以產生上百億智能體 , 雖然單個智能體容易出錯 , 但多智能體之間的協作就有可能引發涌現效應 , 如同互聯網連接人類涌現智慧 。 ”周鴻祎告訴貝殼財經記者 。
而對于以Seedance2.0為代表的能夠“以假亂真”的AI生成技術 , 周鴻祎表示 , 未來每個人都能用Seedance生成自己想要的影視結局 , 個性化敘事將成為現實 。
而針對AI生成內容泛濫的擔憂 , 周鴻祎認為技術本身是中立的 , 且已有應對方案 , “現有技術已能通過嵌入隱式數字指紋進行識別 , 主流平臺已具備自動標記AI生成內容的能力 。 ”
“我們看不出AIGC(人工智能生成內容)內容和人工內容的差別 , 說明AI能力提升了 , 是好事 。 ”周鴻祎對貝殼財經記者說 。
【周鴻祎:分不清AI和人工內容,說明AGI已經在穩步實現】編輯 陳莉 校對 穆祥桐

    推薦閱讀