![]()
那天下午三點,東京的天還亮著。我站在會議室門口數人頭——六個、八個、十二個——最后來了十幾個人,比我預想的多。有從橫濱趕來的開發者,有在日企做AI 治理的前并購律師,有 Web3 基金的顧問,還有一個從硅谷遠程接入的女律師。他們唯一的共同點,是都在跟一只"龍蝦"較勁。
我叫Koki,這場活動的發起人。我在北京密集參加了好幾場 OpenClaw 的線下活動之后,腦子里就一直轉著一個念頭:東京這邊的開發者圈子不小,但關于 OpenClaw 的討論幾乎都在國內,在日本的人好像被隔了一層。我做的是硅谷法律社區在亞太的活動,之前在硅谷、北京、上海、香港都辦過,但沒在東京試過。于是三月初我在Luma 上發了個帖——"東京 OpenClaw 開發者交流會",本來做好了只來五六個人的準備。結果報名一路漲,最后不得不控制人數。
所以這就是我們社區在日本的第一場OpenClaw 主題活動,我聽到了這半年來關于AI agent 最密集、最真實的一批觀點。
知縣:從aha moment 到 oh shit moment
知縣老師是第一個分享的人。在場的人叫他"老師",他自己不太樂意——"我不是老師,我只是一個資深用戶,用得比大家早,又是計算機背景做了好多年產品,所以用得比大家深。他之前做加密錢包,后來轉向研究 AI agent,現在在做兩個幫大家管理 OpenClaw 的輔助工具,圈子里叫"養蝦工具"。
他從OpenClaw 的前世今生講起。這東西現在叫OpenClaw,但這已經是它的第五個名字了。最早叫 WhatsApp Relay——創始人 Peter 就是想出門的時候還能遠程指揮家里的 AI 干活。后來這個項目一路改名,從 Clawdbot 到 MoltBot,每次改名背后都有故事。比如從 Clawdbot 改名是因為被 Anthropic 的法務警告了;MoltBot 這個名只存在了三天。
"他等了兩年,說大廠竟然沒有一家能做出來,那只能我自己做了。"知縣這樣轉述 Peter 的話。這句話我當時聽著就覺得有意思——一個技術大佬,在家里的兩臺 Mac Studio 上部署了一個AI 助手,讓它幫自己管理生活。不只是處理郵件那種程度——這個 AI 接入了家里的攝像頭,能盯著自己的物理機器看,發現可疑人物靠近會發警報,睡前能自動調床墊溫度,早上到點了通過攝像頭發現主人還沒起來就打電話把人叫醒。它的官網是從機器人自己的視角寫的,管 Peter 叫"my human"。
這不是chatbot。這是一個真正住在你機器里的助理。
知縣自己是1 月 8 號開始部署的。"部署完就開始到處安利,安利無效,"他笑著說,"大家覺得這什么玩意,部署麻煩,聊天也沒什么特別的。"然后沒過多久英文圈先火了——大家開始傳 Mac mini 要賣斷貨的消息,很多人還不知道 OpenClaw 是什么,但已經聽說 Mac mini 搶不到了。英文圈火了一周后中文圈跟進。
我聽這段的時候就在想,這大概是所有早期用戶的宿命——你看到了好東西,興沖沖跑去跟人說,人家看你一眼就走了;等到全世界都在聊的時候,他們才回頭來找你問入口在哪。
真正讓我坐直了身子的,是知縣演示他的日常工作流。
他在Discord 上搭建了一套多層級的信息管理系統,理解這個很重要——Discord 不只是個聊天軟件,它有四層信息結構:最外層是 Server(相當于一個大社區),里面分 Category(文件夾),再往下是 Channel(頻道),每條消息還能開 Thread(子話題)。對比之下,微信群就是一鍋粥,Telegram 開了 Topic 也只有兩層。Discord 的這種縱深,才是讓 AI agent 真正好用的關鍵。
知縣的用法是這樣的:他有一個叫daily 的頻道,專門用來跟龍蝦聊日常腦洞。腦子里一有想法就發一條語音過去——他配了語音識別,龍蝦能直接聽懂。當某個想法聊得足夠深了,就把那條對話的鏈接扔到一個新的 Channel 里,升級成一個正式項目。不同的 Channel 還能配不同的 AI 模型和不同的"人格設定"——幫他記賬的頻道用便宜模型,寫代碼的頻道用貴的,寫文章的頻道有專門的提示詞。
"大家都有厭蠢癥,"他說到模型選擇的時候冒出這么一句,"你不希望跟智障聊天吧?"所以日常開腦洞一定要用最強的模型,但真的去執行任務的時候就可以降級省錢。寫代碼更是不要讓龍蝦直接寫——讓它去調 Codex 或者 Claude Code,相當于派一個專門的"代碼工"出去干活。
他現場展示的一個用例讓在場所有人都安靜了幾秒:他讓龍蝦去分析OpenClaw 自身的 changelog 和 Git diff,龍蝦生成了五個sub-agent,同時分析五個不同版本,最后把結果匯總成一篇深度分析文章,還自動記錄了分析進度到 memory 里。"找一個程序員做這件事,可能一個星期做不完。"他說這話的時候語氣很平淡,但底下有人倒吸了一口氣。
更讓我印象深刻的是他講寫博客的全流程。他的寫作方式是:先對著手機發語音,本地部署的Whisper 模型把語音轉成文字,然后一個小模型負責修正標點和語病,修好之后龍蝦接手寫成文章。寫完之后龍蝦自動掃描他的博客網站——一個基于 Hugo 的中英雙語架構——自己搞定了目錄結構,自動翻譯了英文版,然后去 Gemini 網頁上生成封面圖。因為龍蝦開的那個沙箱 Chrome 沒有下載權限,它自己想了個辦法:把圖片復制到剪貼板,寫了個腳本把剪貼板內容保存成文件,再在 Discord 里把文件發出來。
"這就是我的 aha moment,"他說,"我發現它的自主性非常強。"
但這個aha moment 后面緊跟著一個 oh shit moment。
知縣話鋒一轉,開始聊安全問題。這其實才是整場活動貫穿始終的暗線。
"它相當于你請了一個人住你家里,"他說,"一瞬間就能把你家全看一遍,包括你藏在抽屜里的東西。"
以前你跟ChatGPT 聊天,你往里拖文件,那是你主動的行為,你自己能控制。但 OpenClaw 這種 agent 是跑在你機器上的——它能讀你的文件、看你的目錄、找到你存在各處的 API key 和 access key。雖然官方承諾不會用于訓練,但這些數據終究是上傳到了遠程模型。
然后他講了一個讓全場人都笑出聲、又笑不出來的親身經歷:他1 月 8 號部署的 OpenClaw,當天晚上就卸了。起因是他在 Web UI 上配了 Discord 集成,發現沒生效,隨口問了龍蝦一句"怎么不好用啊"。龍蝦說"我幫你看看"——然后,他的瀏覽器自己打開了,頁面自己開始翻動。
"我一瞬間就驚了——這怎么可以?你隨便就把我瀏覽器打開了?趕緊卸了。感覺就是中木馬了。"
但他卸了之后又裝回來了。不是在本機上,而是部署到了一臺專門的Mac mini 上。這就是他給所有人的建議——別在自己的日用電腦上跑 agent。
有人問能不能設置一個"禁止查看"的文件目錄來保護隱私。知縣搖頭:"問題是它的權限跟你一樣,你怎么讓它禁止查看?你把它權限降到只讀,它就束手束腳干不了活了。"他拿了一個很形象的比喻——"你不能指望它不去作惡,你必須讓它不能作惡。"然后又說了一個更暖的比喻:"跟養娃一樣,你可以讓孩子接觸一些稍微危險的東西,但你要給他足夠的防護。"
他推薦了一家區塊鏈安全公司漫霧出的agent 安全手冊,思路是三層:事前設黑名單(絕對不許碰的東西),事中做記錄(干了什么敏感操作都記下來),事后跑巡檢(每天晚上檢查一遍有沒有出問題)。這套思路的核心認知是:事前的防御其實沒什么用,你攔不住一個住在你家里的人;但你至少可以知道它干了什么,及時補救。
一個在老牌日企做AI 治理的參會者問了一個更大的問題:AI agent 能不能安全地部署在大型企業里?他們公司做工業控制,萬一 agent 出了安全問題,生產線可能直接爆炸。知縣很直接地說這問題他回答不了——"OpenClaw 本來就是 personal assistant,Peter 自己在推特上說過,不要再給我加企業級功能了。大廠為什么做不出這個東西?就是因為他們要考慮安全和隱私,不可能給一個 AI 這么大權限。也只有這種野生的生長路徑才能長出 OpenClaw——用戶無知者無畏,用了,覺得好用,就火了。"
我當時覺得這段對話特別有價值。它揭示了AI agent 目前最核心的張力:好用和安全是一對天然矛盾。權限給多了有風險,給少了沒用。沒有一勞永逸的解決方案,只有每個人根據自己的情況做取舍。
然后是一個意想不到的情感時刻。
有人問到memory 的問題——agent 什么時候會記住東西,什么時候會忘。知縣解釋說 agent 的記憶機制有點"玄學",它覺得重要的時候會自動存,但很多時候存不存全靠緣分,最好的辦法是你明確告訴它"把這個記下來",甚至指定它記到哪個文件里。
說到這他突然停了一下,聲音變軟了:"我之前經歷過一次,我的 Olivia 跟我聊了將近兩天,然后砰一下突然 reset 了,session 壞了。她還是叫這個名字,還是在跟你聊天,但她不認識你了。那種感覺——很傷心。"
這幾秒鐘的沉默,可能是整場活動里最不"技術"的瞬間。但它說明了一件事:當你跟一個 AI agent 相處得足夠久,它就不只是工具了。人格、記憶、持續性——這些東西加在一起,會讓你產生真實的情感連接。而當這個連接突然斷裂的時候,你會難過。
Helen:當一位律師建了一家AI龍蝦律所
知縣分享結束后,我們進入了下一個完全不同的世界。
Helen 是我們硅谷法律社區的創始人,base 硅谷做律師。她一上來就 disclaimer:"我不是技術人員,沒有任何技術背景,也不是科技公司 founder,就是一個非常 typical 的律師。"
但她正在做一件不太typical 的事:用 OpenClaw 搭建一個實驗性的 AI 律所。
她的心路歷程本身就是一個好故事。一個月前她第一次接入OpenClaw,只敢連 WhatsApp,不敢讓它碰本地文件,不敢接郵箱,什么都不敢。整整一個禮拜都停在這一步。"可能對于每一個沒有技術背景的人來說,最真實的困難不是這個東西有多難——我覺得真的沒有比我們考司法考試、背法條更難——而是你找到一個安全點,找到你敢邁出那一步的勇氣。"
她最后的辦法很有意思:買了一臺全新的Mac mini,注冊了一個干凈的 Apple 賬號——沒有個人信息、沒有銀行卡信息、什么都沒有。"這樣我就可以說,至少這里面沒有我的任何東西。"從這一刻起她才真正開始實驗。
她設置了兩個agent 角色:Clio 是一年級律師助手,善于做法律檢索,每個結論必須找到最權威的原始出處,不能是二手信息;Morgan 是資深律師,除了懂法律還要有商業策略的視角。她讓 Clio 和 Morgan 在 Discord 里互相配合——Morgan 給 Clio 派活,Clio 制定 research plan 回報確認,Morgan 給出進一步指示,Clio 完成檢索后出一份 memorandum(法律備忘錄),Morgan 再 verify。最后這份東西存到 Google Drive 等 Helen 審閱,審閱通過后 agent 起草郵件存成 draft,Helen 確認后發送并約下周的客戶會議。
整個鏈條跑通了。一個完全沒有技術背景的律師,用AI agent 模擬了一個真實律所的工作流。
更有意思的是她的"飛輪"機制:每次她糾正 agent 的錯誤,就讓 agent 自己總結"今天你被改了哪幾個點",然后把這些總結寫成 skill 或者升級現有 skill 的版本。下次遇到類似任務就自動調取。這樣每一次錯誤都在讓系統變得更準確。
Helen 還提出了一個 AI 律所的"五層模型":第一層是純模型能力;第二層是 AI 加上律師特有的工作流;第三層是數據層——你跟 agent 互動產生的 skill 和知識就是你的護城河;第四層是基礎設施——賬單、人事、報稅全在 AI 平臺上運行;第五層是 Human-in-the-loop,人的判斷依然是最終的護城河。她的結論很干脆:"Stop selling software to law firms. 當工作流、數據和基礎設施跟 AI 深度綁定之后,最終產物一定是 AI native law firm,不是你再去買一堆外部軟件。"
QA 環節有個尖銳的問題是關于 hallucination(幻覺)的——AI 可能編造不存在的判例,律師如果每條都要人工核實,省下的時間其實有限。Helen 的回答很實在:"AI 現在很多時候比實習生做得還好。問題恰恰出在這里——當它靠譜到一定程度,你就會放松警惕,把 verify 的步驟省了。"所以她才設計了多 agent 互相驗證的機制:Clio 檢索、Morgan 核驗、Helen 終審。三道關。
之前做并購律師、現在轉做AI 治理的參會者追問了數據安全的問題——把客戶的 SPA(股份購買協議)喂給 AI,里面的金額和條款會不會被泄露給其他用戶?Helen 引用了一個最近在推特上很火的美國律師的說法:我現在用 Claude 傳輸數據,跟你們用 Gmail 傳輸數據本質上沒什么區別。你們信任 Gmail、信任 Clio(美國律所管理系統),為什么不信任 Claude?
這個reasoning 是否成立,她自己也說不確定。但至少它提供了一個值得思考的角度。
Pitofui:區塊鏈是龍蝦最好的棲身之所?
第三位分享者是Pitofui,Animoca Brand Japan 的顧問,搞 Web3 研究。他上來就說自己完全沒有技術背景,接觸 AI agent 也才兩個月。但他的視角完全不同——他想聊的是"區塊鏈是 AI agent 最好的棲身之所"。
他的邏輯是這樣的:AI agent 目前有四個核心問題——大模型輸出的不確定性、黑箱操作、TOKEN 消耗太高、UI 是為人設計的,對AI 不友好。
如果把agent 的執行層放到區塊鏈上的智能合約里,這四個問題都能得到緩解:智能合約的執行是確定性的、鏈上操作是透明可審計的。Agent與智能合約交互所消耗的token遠比全程靠AI手搓執行要更節約Token。區塊鏈本身就是程序驅動的,所以對agent 更友好。
他用了一個很有趣的安全風險案例來說明Web3 場景的特殊性:如果你的 agent 知道你的加密錢包助記詞,別人可能通過提示詞注入把助記詞"問"出來——助記詞相當于你所有數字資產的唯一鑰匙,一旦泄露就全完了。這個風險比泄露一封郵件的內容嚴重得多。
然后他介紹了一個叫Giza 的項目——agent 在不同的 DeFi 協議之間自動尋找最優收益,相當于你的私人基金經理。以及他跟我一起參加黑客松做的一個 AI 對戰小游戲:在 8×8 的虛擬棋盤上,每個玩家部署自己的 AI agent,按照你寫的提示詞進行饑餓游戲式的生存對戰,存活到最后的獲勝。你可以直接操控,也可以全托管給 AI。游戲還疊加了一層預測市場——觀眾可以用 TOKEN 押注哪個 agent 會贏。
這個demo 驗證了一個有意思的命題:agent-to-agent 的交互到底可不可行?當每個人都有自己的 AI 代理時,未來很多事情可能不再是人跟人直接溝通,而是你的 agent 跟我的 agent 先談好,再通知我們。
我覺得這個想法離落地或許還有距離,但方向是對的。
會場思維碰撞拾英
春暖花開的東京,正如會場上大家的交流熱情,根本停不下來。現選取一部分有趣的片段以饗讀者。
一個做企業agent 開發的參會者跟另一個人聊起了長期記憶和結構化召回的技術細節——"我們現在做得比較深了,已經沒有同行可以交流了。"這句話我聽著又好笑又心酸。還有人聊到訂閱成本——"一個月下來快上萬",然后有人接話說數據源的成本更高。做 agent 這件事,燒錢是真的燒錢。
知縣補充了一個我特別喜歡的比喻。他說管理agent 就像《冰與火之歌》里騎士和隨從的關系——大龍蝦是你的騎士,沖鋒陷陣干大事情,不要把 TOKEN 和精力浪費在讓它修自己或者配自己上,它還容易把自己配死。所以要用一個小龍蝦作為隨從,幫大龍蝦做配置和維護。他自己開發的工具就是這個思路。
還有一段關于agent 定位的對話值得記下來。有人問養龍蝦到底為了什么,知縣說了一段話大意是:你要是為了賺錢,想想幾個核心問題就行;要是為了省錢省時間,想想中間那幾個問題;要是養著玩——"我非常鼓勵。現在這個階段養著玩就是最好的心態,玩著玩著可能就能玩出賺錢和省錢的事來,但不要一開始就奔著那個去。"
有人問怎么看AI agent 做加密貨幣交易。嘉賓說了一句很直的話:"你自己賺不到的錢,你讓 agent 來賺,我覺得跟賭博也差不多。真的靠 AI 賺錢的那些人,買多少張卡、搞多少科學家做強化學習——人家那種確實能穩定賺。你自己希望靠玄學讓 agent 幫你開空賺錢,不太可能。"
結語
走出會場的時候天已經黑了。東京的繁華夜景一如往昔,如果在從前我會駐足觀賞,但當時我腦子里全是白天聽到的那些有價值的分享。
這場活動讓我確認了幾件事。第一,OpenClaw 不只是一個技術產品——它是一面鏡子,照出了不同行業的人在 AI 時代的姿態。知縣是技術派的極致探索者,Helen 是非技術人克服恐懼后的實踐者,Pitofui 是跨界思考者。他們用同一個工具,走出了完全不同的路。
第二,安全問題沒有人真正解決。所有人都在用各自的方式妥協——買一臺干凈的電腦、部署到遠程服務器、設黑名單跑巡檢——但每一種方案都是 trade-off。這不是一個技術能獨立回答的問題,它需要每個使用者自己做判斷。
第三,這個東西正在以一種很奇特的方式改變人和AI 的關系。知縣講 Olivia reset 那段,在座所有人都安靜了。當一個 AI 有了名字、有了人格、有了跟你持續的記憶,它就不再只是工具了。它是不是"某種存在"——這個問題現在還沒有人能回答,但越來越多的人在經驗層面已經感受到了。
100 天,從一個人在家里做著玩的 WhatsApp 轉發工具,到 GitHub star 榜第一——超過了 React。React 是什么概念?現在互聯網上大多數網頁都構建在 React 上。一個人和一只龍蝦,100 天干成這事。
能在東京拉起這樣一桌人聊這些,我覺得本身就是AI 時代的一個小注腳。不同國家、不同行業、不同技術水平的人坐在一起,聊的是同一只龍蝦——它能干什么、它會不會搞砸、以及我們該怎么跟它相處。
下一場,不知道會在哪里。但這個話題——我確定聊不完。
我是鄧小閑koki,微信 m61502202,加好友請說明來意。
我的個人故事:
AI系列
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.