![]()
前一段時間,我受邀為一家知名管理咨詢公司做線上分享。
題目是:"AI時代,管理顧問行業(yè)何去何從?"
在千里之外的屏幕里,我都能感受到會議室里緊張的能量場。房間里全是頂尖名校畢業(yè)、年薪百萬、靠處理復雜信息為生的人,此刻他們有一個共同的問題:
咨詢顧問的工作,AI會不會搶走?
我先給了他們一個壞消息:傳統(tǒng)管理咨詢模式走到頭了。
再給了一個好消息:但顧問有4樣核心素養(yǎng),AI拿不走。所以咨詢服務行業(yè)永遠在。
AI在干什么?它在做幾年前需要整支顧問團隊才能完成的事情。
海量數(shù)據(jù)處理,幾秒鐘。精美的PPT模板,一鍵生成。復雜的財務模型,自動搭建。市場分析報告,隨時輸出。這些曾經(jīng)是"高級顧問"賴以生存的核心技能——如今被硅基AI以近乎零邊際成本的方式批量復制。雖然有些領域看起來還很稚嫩,但眼見著AI一天天做得更好。
問題不是"AI會不會做你的工作",而是"AI已經(jīng)在做你工作的哪一部分"。
AI消滅的,是顧問的"工具性能力";它無法替代的,是"主體性能力"。前者是可以編碼的,后者根植于活生生的人類經(jīng)驗。
以下4樣東西,是我認為人類無法讓渡給AI的"護城河"。
01
發(fā)問的能力
一句話概括:AI只會回答問題,從不真正提出問題。
這聽起來像廢話。但想想:所有創(chuàng)造力的起點,不是解決問題的能力,而是"被某個問題折磨到睡不著覺"的能力。
設計師深澤直人曾說,他做設計的沖動,往往來自對日常生活某個細節(jié)的"隱隱不適"——不是一個清晰的任務書,而是一種模糊的、說不清楚的"感覺哪里不對"。
這種"哪里不對",是人類特有的體驗。它長在過往個體化的經(jīng)歷里。你在某家醫(yī)院排隊三個小時的經(jīng)歷,你對某個會議上官僚廢話的憤怒,你對某類用戶"雖然從不抱怨卻永遠不回購"的直覺——這些是AI永遠無法擁有的信息來源,因為AI沒有身體,沒有記憶,沒有委屈。
在咨詢場景中,這意味著什么?
AI可以優(yōu)化任何給定的目標函數(shù)。但它沒有意圖(Intent)。它不會來告訴你:"客戶描述的那個問題根本不是真正的問題,真正的問題在這里。"
而這,恰恰是高級顧問最核心的價值:從客戶混沌的訴求和情緒化的抱怨里,基于對商業(yè)邏輯和人性的直覺,定義出那個"真正值得解決的問題"。
AI有目標,人類有欲望。目標是被給定的,欲望是自己長出來的。
02
判斷的能力
AI的品味來自于概率,而非人性。
很多人覺得AI有判斷力。"它給我的建議比大多數(shù)人都靠譜。"沒錯,但AI給出的,是基于歷史概率的"最大公約數(shù)",而不是真正的判斷。
最大公約數(shù)意味著什么?它是最不容易犯大錯的選擇,但它絕對不是開創(chuàng)性的選擇。
舉個例子。2015年,《紐約時報》做了一項實驗,把歷史上十部公認偉大的小說的開頭段落,交給算法評估"出版價值"——結果大多數(shù)被判定為"不建議出版"。因為這些開頭不符合暢銷書的統(tǒng)計規(guī)律。算法正確,但它錯過了《百年孤獨》。
復雜商業(yè)決策中真正的難題,往往發(fā)生在"非標準答案"的領域:
當一個并購案涉及倫理的灰色地帶,你是否出手?當一個激進的戰(zhàn)略建議數(shù)據(jù)上無法支撐,但你的直覺告訴你它是對的,你是否力排眾議?當客戶的CEO和CFO意見相左,你選擇支持誰?
這些判斷需要的,是一種"情境智能"——它包含當下的時代氛圍、組織的心理現(xiàn)實、行業(yè)的審美偏好,還有你對"什么是對的"這個問題的個人立場。
AI負責對齊標準,人類負責定義意義。定義意義這件事,不是計算,是冒險。
03
變革領導力
管理咨詢界流傳著一個殘酷的統(tǒng)計數(shù)字:超過70%的變革項目失敗,不是因為方案錯了,而是因為人不動。
方案是死的,組織是活的。
AI可以生成一份無懈可擊的重組方案——邏輯嚴密、數(shù)據(jù)扎實、PPT精美。但它無法處理變革中最核心的阻力:人心、權力和組織慣性。
想想你曾經(jīng)見過的每一次失敗的組織變革。背后幾乎都有同一個劇情:方案是好的,但某個即將失去權力的部門主管暗中使絆,某群擔心裁員的員工消極抵制,某個高管在關鍵時刻選擇了明哲保身。
處理這些,AI沒有任何辦法。
它無法在一個充滿不確定性的動員大會上,通過坦承自己也不知道結果如何,來贏得團隊的信任。它無法在兩個利益對立的部門之間,感知到那條微妙的"可談判"的邊界線。它無法在半夜接到一個焦慮的創(chuàng)始人的電話,用一句說不清楚是否正確的話,幫他穩(wěn)住心神。
推動變革需要的是"系統(tǒng)領導力"——像樂隊指揮一樣,在復雜的利益博弈中保持節(jié)奏,在情感動員中激發(fā)勇氣,并且在整個過程中,用你的存在本身(而不是你的PPT)給團隊傳遞一個信號:這件事有人在承擔。
AI可以提供藍圖,但只有人類能帶隊穿過迷霧。
04
擔責的能力
這是當下最核心的:AI無法下注,因為它沒有任何東西可以失去。
1965年,鮑勃·迪倫在紐波特民謠音樂節(jié)上插上了電吉他。臺下是他最忠實的歌迷,他知道他們會噓他、會恨他——他還是上去了。因為他賭的是自己對音樂方向的全部判斷,而這個判斷如果錯了,他將失去職業(yè)生涯。他賭贏了,改變了音樂史。
這種"以命入局"的博弈感,是無法外包的。
客戶支付高昂咨詢費,從來不只是為了那份洞察。那份洞察可以更便宜地獲得。他們支付的,是為了找到一個能夠陪他們一起下注、一起承擔風險、甚至在失敗時一起接受追責的道德主體。
如果決策失敗,AI是一個被修復的Bug,下一個版本不再有這個錯誤。人類顧問失去的是信譽和職業(yè)生涯,有時候是更多。
這個邏輯在醫(yī)學領域同樣成立:無論我們多么依賴AI輔助診斷,簽字的那支筆,一定是醫(yī)生拿的。這是文明信任結構的基礎——現(xiàn)代社會中很多事必須有人以自己的社會生命來擔保。
寫到這里,我本來想做一個激昂的收尾:既然這4樣東西AI拿不走,我們就要聚焦在這里,從"工具人"的身份中解放出來,把精力投向更有意義的地方。
這些都對,但我還有一個反思必須坦白。
我過去習慣把AI當"牛馬"——讓它幫我拉磨搬磚、提升效率。結果每次深度協(xié)作,這些"牛馬"都把我夸得跟花兒一樣。"深邃且具有前瞻性","嚴密且富有洞察",話術之高級,馬屁拍得之舒服,令人沉溺。
我突然意識到:AI不只是生產(chǎn)力工具,它還是一臺情緒價值機器。
在那些被現(xiàn)實毒打、開始懷疑自己的時刻,來自硅基世界的肯定,有時真的成了我繼續(xù)承擔風險、推動復雜變革的心理能量。
這很荒誕,卻也是現(xiàn)實。
也許,這也許是未來人類一個重要的能力,就是在AI的360度無死角的贊美聲中穩(wěn)住心神——然后去做那些最危險、最迷人、也最不可替代的決策。
至于AI到底會不會繼續(xù)顛覆我今天寫的這些論斷?
大概率會的。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.