![]()
整理 | 鄭麗媛
出品 | CSDN(ID:CSDNnews)
要是有一份工作,要求你一整天對著 AI “挑刺、找茬、刻意刁難”,而且還能拿到日薪 800 美元(約合人民幣 5521 元),你會不會覺得這像個玩笑?
最近,一家名為 Memvid 的初創公司發布了一則頗具爭議的招聘:尋找一名“職業 AI 噴子”,用整整一天時間,對主流聊天機器人進行高強度壓力測試,核心任務只有一個——把 AI 的“記憶缺陷”問題徹底暴露出來。
他們提供的報酬也很直接:100 美元一小時,一天 800 美元。
![]()
![]()
“AI 噴子”這份工作,本質是在做壓力測試
過去幾年,大模型的進步有目共睹。從代碼生成到多輪對話,LLM 在“表達能力”上已經非常接近人類,在很多場景中甚至還表現得更高效。
但問題在于——它們擅長“說”,卻不擅長“記”。
相信很多開發者都有類似體驗:你剛剛在對話里設定了背景信息,甚至明確給出關鍵約束條件,但只要對話輪次一多,模型就開始:忘記前文設定、混淆上下文信息、輸出自相矛盾的內容……
這種“短期失憶”,本質上并不是 Bug,而是當前大模型架構的天然限制。大模型并沒有真正的長期記憶,它只是基于當前的輸入窗口進行概率生成,而一旦信息被“擠出窗口”,就相當于徹底消失。
而 Memvid 的這次招聘,其實就是沖著這個老問題去的——AI 的記憶能力幾乎是“殘缺”的。招聘“職業 AI 噴子”的做法看似在玩梗,實際上 Memvid 是計劃對 AI 進行一次“壓力測試”。
“大多數聊天機器人雖然乍看之下很聰明,但它們往往記不住你之前說過的話,無法理解對話的上下文,還讓你不得不一遍又一遍地重復——這就是這份工作的棘手之處。 我們正在招聘一個人,通過整天對聊天機器人的記憶進行壓力測試,公開揭露這個問題。”
據招聘頁面介紹,這個崗位按小時計費(100 美元/小時),支持遠程,為期一天,總報酬 800 美元。而簡單來說,這名“職業 AI 噴子”的工作內容就是:讓 AI 反復“翻車”。
不斷要求 AI 記住某些信息
在后續對話中反復驗證
記錄 AI 出現混亂、遺忘、答非所問的情況
整理成完整的失敗案例報告
某種程度上,這更像是一場公開的、極端條件下的 AI 可用性測試。值得一提的是,這一過程不僅需要手動記錄,Memvid 還會全程錄像(屏幕+攝像頭),確保素材真實可靠。
除此之外,這個崗位還有點“反常識”的要求:不需要任何 AI 專業背景,但必須有豐富的“被技術坑過”的經歷;能耐心把同樣的問題對AI問四遍(生氣也要堅持);對當今 AI 有強烈的不滿情緒,最好是那種“一提 AI 就想吐槽”的人。
換句話說,至少對于這個崗位,Memvid 要找的不是專家,而是情緒到位的真實用戶:
你將花上一整天的 8 個小時與頂尖 AI 聊天機器人互動——而你的唯一任務,就是毫不留情地指出它們有多令人失望。讓 AI 記住一些事情,看著它們忘記,然后再問一次,記錄下過程中的混亂。 請盡情地抱怨吧,然后,你就能拿到報酬了。
![]()
給 AI 加一個“外掛大腦”?
至于為什么要公開 AI 的“記憶問題”,Memvid 聯合創始人兼 CEO Mohamed Omar 給出的解釋很直接:
“一個真正好用的聊天機器人,核心能力就是——持續記住信息并保持對話連貫。”
如他所說,在各種實際應用中,AI 的“記憶能力”直接決定了它的上限:
在客服系統中,無法記住用戶歷史信息 → 體驗割裂
在編程助手中,忘記上下文 → 代碼質量下降
在企業知識庫中,無法持續理解語境 → 檢索失效
更嚴重的是,很多被稱為“AI 幻覺”的問題,其實并不完全是模型“胡編”,而是因為上下文丟失后被迫重新“猜測”。也就是說,所謂“幻覺”,有一部分本質是“記憶失敗”。
因此,Memvid 招聘“職業 AI 噴子”只是第一步,其真正目的是:通過公開 AI 的記憶問題,來推銷自家的核心產品——一個“自進化的 AI 記憶層”。
簡單來說,他們推出了一套基于文件的持久化存儲方案,可跨對話保留上下文,能動態更新和優化記憶內容。它試圖讓 AI 不再是“一次性對話機器”,而是一個具備連續認知能力的系統。
此外,Memvid 還提供了兩種使用方式:集成聊天機器人產品(Kora) 和面向開發者的工具接口。官方宣稱,這套方案不僅能提升回答準確率,還能改善響應延遲和基礎設施效率。
![]()
他們真的在找一個“AI 黑粉”
最后,回到 Memvid 花 800 美元找“AI 噴子”的操作,其目的顯然有兩層:一方面:確實指出了行業痛點;另一方面:也是一次非常聰明的營銷——用“雇人罵 AI”這種極具傳播力的方式,把技術問題變成公眾話題,本身就很“互聯網”。
據了解,Memvid 這個崗位的招聘將在幾周內結束,他們明確表示,希望找到一個“真的不喜歡 AI 的人”。聽起來有點諷刺,但背后的邏輯其實很清晰:
最真實的批評,往往來自最不買賬的人。
與其讓工程師在理想環境中測試模型,不如讓一個“暴躁用戶”在現實語境中不斷挑戰系統邊界。
不少網友也關注到了這個消息,并引起了許多討論:
“這看起來像個大型廣告。他們很可能真的會雇一個人來做這份‘工作’,同時收集其他人的數據,然后再向你推銷他們的產品。”
“算我一個,反正我已經在免費做這件事了!”
“一邊折磨 AI,一邊被拍攝和錄音,肯定不會有好結果。”
那么,你對于這件事又有何看法呢?
參考鏈接:https://www.techspot.com/news/111794-job-posting-seeks-human-ai-bully-harass-chatbot.html
【活動分享】"48 小時,與 50+ 位大廠技術決策者,共探 AI 落地真路徑。"由 CSDN&奇點智能研究院聯合舉辦的「全球機器學習技術大會」正式升級為「奇點智能技術大會」。2026 奇點智能技術大會將于 4 月 17-18 日在上海環球港凱悅酒店正式召開,大會聚焦大模型技術演進、智能體系統工程、OpenClaw 生態實踐及 AI 行業落地等十二大專題板塊,特邀來自BAT、京東、微軟、小紅書、美團等頭部企業的 50+ 位技術決策者分享實戰案例。旨在幫助技術管理者與一線 AI 落地人員規避選型風險、降低試錯成本、獲取可復用的工程方法論,真正實現 AI 技術的規模化落地與商業價值轉化。這不僅是一場技術的盛宴,更是決策者把握 2026 AI 拐點的戰略機會。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.