一個藝術小白、科技編輯怎么就闖進了 Art Central?
這周,亞洲重量級當代藝術博覽會 Art Central 2026 在香港舉辦,作為第 11 屆,也是歷來規模最大一屆,吸引了超過 50 個國家及地區 117 間畫廊和 500 多位藝術家。
3 月 28 日,雷科技受邀參觀了這次 Art Central 2026,看到了亞太各地藝術家百花齊放的作品,有香港本土藝術家的《白境——心之所向》,也有馬德里藝術家的《林徽因(2025)》等。
![]()
《林徽因(2025)》,圖片來源:雷科技
在亞洲重量級當代藝術博覽會 Art Central 上,大多數時候你能依靠的只有眼睛和一點點背景說明。更確切的是,說明信息不僅是英文,通常也不長,更多東西還是要自己從作品「看到」。
老實講,我看不懂。除了基本的審美判斷和自我心理分析,作為一個藝術小白確實再看不出其他門道,但這并不妨礙我的好奇心,好奇它們為什么吸引我?為什么這么創作?我喜歡的到底又是什么風格?
這可能也在一定程度上解釋了 Chance AI 作為全球首個視覺智能體(Visual Agent),為什么能在 iOS、Android 上受到全球,尤其是北美年輕人的喜愛,排在下載榜前列。
打開 Chance AI,鏡頭對準現場的作品拍下,不需要輸入任何問題,AI 就會告訴你作品名、藝術家、創作背景、材質、視覺和美學分析等等。
就拿我在 Art Central 現場看到的《林徽因(2025)》來說,被它吸引的時候甚至還不知道作品名更不用說了解作品背后的故事和表達。而 Chance AI 在這個場景下很好地扮演了隨身 AI 講解員的角色,我也很容易抓住作品背后的表達、作者、美學繼續的追問。
![]()
圖片來源:雷科技
當然,Chance AI 也并不完美,有些作品就不能篤定創作者的名字,只能基于風格給出一些比較可能的藝術家。另外,新增的 Live 模式或許還沒打磨好,不管怎么換角度也不能識別出來一些作品,但換成拍照又可以準確識別和解讀。
但整個過程有一種很奇怪的感覺。它不像在用一個工具,更像是在嘗試一種新的觀看方式,更重要的是,我的好奇心好像也變得非常重。
為什么?
視覺即 AI,好奇心是如何被解放?
只看產品形態,Chance AI 其實不難理解。
打開應用,沒有輸入框,沒有按住說話,更沒有復雜功能入口,主界面的視覺中心就是「相機」。好奇什么,就對著拍什么,AI 識別畫面后會直接告訴你關鍵信息,有了一些線索后,你可以繼續一個方向追問了解。
整個過程不需要先想好一個問題,糾結怎么組織語言,思考從哪問起,更不用糾結該不該拍。最重要的是一顆好奇的心,再順手舉起手機「拍照識別」,AI 就會解答眼前的疑惑與好奇。
這種使用方式,比傳統對話 AI 更接近一種「本能反應」。
![]()
圖片來源:雷科技
很視覺 AI,也和 Gemini、豆包的使用方式差別很大。
用 Gemini 或豆包的時候,你通常需要自己先想一個問題,就算是給 AI 一個圖片也要想好想問什么,比如這是誰的作品,是什么風格,或者想讓它解釋某個細節。圖像更多還是作為上下文,讓它更好理解你的問題。
![]()
圖片來源:雷科技
一言以蔽之,以 Gemini 和 豆包 為代表的產品,本質還是對話優先。無論是文本輸入,還是上傳圖像,甚至是 live 視頻通話,本質還是圍繞「我問,你答」的交互形式,即便加入視覺信息,也只是為了讓 AI 更了解上下文。
但 Chance AI 反過來則是視覺優先。它的起點不是問題,而是畫面(視覺)。這種差異在實際體驗里非常直觀。你不需要先組織語言,不需要先思考怎么提問,甚至不需要明確目的,所以大幅降低了對 AI 的使用門檻和摩擦。
當然不只是在 Art Central 作為一名講解員。Chance AI 還有一系列的視覺智能體,包括但不限于:拍照購、食識拍、穿搭檢查師、肌膚分析、菜單翻譯師等。
單看功能并不稀奇,尤其是是在 AI 應用大爆發的今天。不過從實際演示和展示的案例來看,Chance AI 相比 Gemini、ChatGPT 等通用 AI,更能通過視覺準確了解客觀物體以及背后更深層的信息。
就以一張德國常見的啤酒桶局部照為例,不僅在場媒體都認不出,我們也嘗試了國內外主流的幾款通用 AI,但都不能準確識別,只有 Chance AI 成功了。
甚至在 MMMU-Pro Benchmark 的視覺推理性能上,Chance AI Visual Agent 1.5 還超越了 Gemini 3 Pro Preview、GPT-5.4(xhigh),以及人類。
![]()
圖片來源:雷科技
為什么一家初創公司能在視覺推理性能這項上超越一眾 AI 巨頭?想要理解這一點,一方面我們可以從 Chance AI 的工作路徑來看。
相比主流 AI 單純的圖像客觀描述和基于文字的 RAG(檢索增強生成),Chance AI 還是從視覺出發,先搜索瀏覽互聯網上大量的視覺信息,包括 Instagram、TikTok、Youtube 等來源,然后再更進一步思考推理,再結合地點、物品等更多信息,最終不需要任何提示詞,就能給出一段不錯的「解說」。
![]()
左側通過相冊上傳,右側通過現場拍攝,圖片來源:雷科技
就像 OpenClaw(中文俗稱「龍蝦」)通過 Harness(環境)和 Skill(技能)機制大幅提高了智能體的能力下限和上限,現場交流中,Chance AI 也透露在視覺推理性能上的領先,一個關鍵就是在于 Harness Engineering 的工程架構第一次帶到視覺領域。
另一方面則在于數據的積累。
今天的行業共識是,數據仍然是 AI 的核心,打開 Chance AI,下滑就能看到一個基于視覺的興趣社區,用戶會分享日常與 Chance AI 的交互。視覺 AI 的應用方向、增長的用戶以及使用頻次,都在幫助 Chance AI 繼續改進 AI 的體驗,還有視覺背后的「大腦」。
交互和智能,視覺即世界?
但從「先想清楚問題」,變成「先看見世界」,值得在意的一點,還有以「視覺」為核心的交互和智能路線。
先說視覺交互。Instagram、TikTok(抖音)甚至乃至小紅書的流行已經不言自明,這些應用也證明了全球用戶對于視覺交互的偏好。去年 Google 的第二季度財報也透露,Google Lens 視覺搜索已經是增長最快的搜索入口之一,同比增幅甚至達到了 70%。
Google Lens 的核心用戶是短視頻、手游、手機的原生一代年輕人。對他們來說,拍一下/圈一下再問 Google 比「想好關鍵詞再打字」更自然,也更快接受視覺搜索的交互形式。
從這個角度,也能看到 Chance AI 的潛力和機會。而且相比 Google Lens 和 Gemini 還沒有真正打通,Chance AI 已經把整個 AI 視覺的交互體驗整合得比較順暢、自然,也開始基于幾十萬真實用戶逐步建構自身的數據優勢。
![]()
圖片來源:App Store
但 Chance AI 的野心顯然不只是一個 AI 應用。
「視覺一直是人類智能的基石之一,但它的力量源自更為基礎的某種東西。在動物學會筑巢、照料幼崽、用語言溝通或建立文明之前很久,『感知』這一看似孤立的能力——感受到一縷微光,觸到某種紋理——就悄然點燃了一條通往智能的演化之路。」
去年 11 月,AI 教母、斯坦福大學教授、World Labs 創始人李飛飛發表了一篇長文,核心論述了以視覺為核心構建的空間智能是「世界模型」的必經之路。
Chance AI 創始人曾熙也和雷科技等媒體分享了類似的看法。大腦一開始的進化并不是為了思考,而為了處理更多的視覺信號,幫助生物生存、探索,「人類大腦接近 70% 的算力是拿來處理視覺信號,杯子為什么一下子就能拿起來,我們覺得很本能、很直覺,但事實上經過了極為復雜的處理。」
他是硬件出身,從 OPPO 到一加,后又加入字節跳動擔任 Flow 產品總監,參與過豆包 0-1 的探索。但相比豆包以及一眾 AI 應用圍繞「語音/文字」輸入框作為交互核心,Chance AI 則圍繞更直觀的「視覺」打造 AI 交互體驗。
而視覺可以說是最直觀的操作系統,我們與物理世界的交互、通過各種數碼產品的 GUI 與數字世界的交互,核心還是依賴視覺信息的輸入和反饋。
但既然如此,為什么 Chance AI 沒有選擇做「始終在線」的可穿戴 AI 硬件(比如 AI 眼鏡),而是做了一款基于手機的 APP?
曾熙在交流中就向雷科技等媒體表示,Chance AI 團隊成員很多都是硬件出身,之所以不更進一步直接做基于視覺的可穿戴 AI 硬件,一方面是認為當下 AI 硬件的供應鏈(芯片、電池技術等)并不成熟,同時也看不到類似移動互聯網帶來的渠道革命,作為創業公司并不適合現在入場。
所以,Chance AI 選擇了在現階段聚焦硬件背后的「視覺大腦」,也是今天的行業空白。不過有意思的是,雖然 Chance AI 還不打算自己做硬件,但已經在和部分垂直場景的硬件廠商進行合作洽談,將不同視覺智能體接入不同的硬件產品中。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.