![]()
新智元報道
編輯:傾傾
【新智元導讀】最積極推動AI落地的那批人,正在把自己的腦子拱手相讓!調查顯示,62%的高管用AI做大多數決策,70%的人一旦與AI意見相左,就開始懷疑自己判斷。推動AI最猛的人,反而是第一批被AI接管的人。
三年前,英國高管們沒有足夠數據,不得不靠直覺做決策。
現在有了AI,情況變了——但不是變好了,而是變得更復雜。
Confluent委托3Gem的報告,訪問了200位英國私營企業主、創始人、CEO及C級高管,試圖回答:AI進入董事會之后,高管決策到底發生了什么變化。
![]()
數字令人不安。
92%的受訪高管說,過去三年里高層決策速度明顯加快。
而去年同類調查中,這個比例是83%,60%的人感覺可用于決策的時間比12個月前更少了。
![]()
速度在加快,時間在壓縮。在這個背景下,AI的出現給了高管們一個「出口」。
連招人開人,都開始問AI了
Confluent報告顯示,62%的高管現在用AI輔助做大多數決策,只有18%的人表示完全不用AI。
這個比例本身不算意外,真正值得關注的是AI滲透的深度。
79%的高管表示信任AI來支持復雜決策,27%的人已經在用AI處理招聘與裁員這類人事決定。
![]()
一位創始人把員工去留的判斷交給算法,這件事放在五年前,大概會被當成科幻小說里的情節。
從高管們的反饋來看,AI確實有效。
88%的人說AI幫他們做決策更快了,83%的人表示有AI背書時壓力更小。
這兩個數字說明AI提供的不只是效率,還有一種心理上的確定感——在高度不確定的決策環境里,這是稀缺資源。
速度快、壓力小。從個體感受來看,這是一筆劃算的交換。
但報告里還有另一組數字:65%的高管認為,AI的介入讓決策變得不再那么協作。
過去需要和團隊反復討論的事情,現在越來越多地被交給了一個算法處理。
少了爭論,但也少了人氣,少了那些只有在討論中才會浮現的異見和盲點。
更微妙的是46%這個數字。將近一半的高管,現在對AI意見的依賴程度已經超過了自己同事的建議。
一個高管團隊里,人與人之間的信任和協作關系正在被一個語言模型默默取代。
越依賴AI,越不信自己
70%的高管承認:如果自己的判斷和AI的建議產生沖突,他們會開始懷疑自己。
![]()
這些人是怎么走到今天這一步的?
他們靠自己的判斷力和決策能力爬到了英國私營企業的頂端,他們不缺自信。但面對一個算法給出的答案,七成人會動搖。
Futurism的報道用了一個相當準確的詞:outsourcing their thinking,把思考外包出去。
這個現象并非高管獨有。2025年,卡內基梅隆大學與微軟聯合開展的一項研究發現,越信任AI系統準確性的知識工作者,批判性思維能力越弱。
其中的邏輯并不復雜。當一個人確信某件事已經被處理好了,他就會自然地退后一步,把主動權讓出去。
就像駕駛輔助系統足夠好用之后,很多司機開始不那么專注方向盤一樣。
更值得關注的是這種依賴的速度。高管們不是在某個特定決策上依賴AI,而是在大多數決策上依賴AI。
62%這個比例覆蓋的是日常決策的常態,而不是偶發情況。
長期處于這種模式下,判斷力和AI之間的分工會逐漸固化——AI負責給出答案,人負責接受或拒絕。
但拒絕的次數越來越少,因為有70%的人一旦與AI意見相左,就會先懷疑自己。
![]()
丹麥精神科醫生S?ren Dinesen ?stergaard今年早些時候發出警告:
學術研究者如果長期把工作外包給AI,會積累一種「認知債務」(cognitive debt)——能力沒有被鍛煉,判斷力沒有被校準,時間久了,自主思考的肌肉開始萎縮。
這個描述放在每天面對數十項高風險決策的企業高管身上,分量只會更重。
一個普通員工判斷失準,影響有限;一個CEO的決策框架被AI悄悄重塑,影響的是整個組織的方向。
71%的數據,到手時已經過時
事實上,高管們也知道快決策有風險。75%的人承認曾經后悔因為行動太快而犯下錯誤,71%的人則后悔過等待太久、錯過了機會。
快了悔,慢了也悔,左右為難。
![]()
面對這個兩難局面的根源,報告指向了一個更基礎的問題:數據質量。
60%的高管說,在他們的層級上,數據太難獲取;71%的人表示,數據送到他們手里的時候已經過時了;62%的人說根本沒有足夠時間在決策前分析完所有數據。
63%的高管認為自己沒有足夠的實時數據訪問權限。
信息在組織內部流動需要時間,到了最頂端往往已經是昨天的快照,而市場在今天已經變了。
這就解釋了為什么AI的介入如此順理成章。當實時、準確的數據無法及時到達,AI至少給了一個「有根據」的答案。
哪怕這個答案是基于歷史數據訓練出來的,無法真正預判那些前所未有的情形。
報告對這一點的表述相當直白:
AI有它的盲區,它依賴已經發生的事,無法充分預判前所未有的、不可預測的、或者純粹屬于人類的東西。
于是形成了一個奇怪的閉環:數據不夠好→高管靠直覺或AI→AI也依賴歷史數據→決策質量依然存疑→89%的人希望有更多決策能基于數據→但數據還是來不及。
91%的高管表示,如果能獲取實時數據,他們會對自己的決策更有信心。
信心的缺口是真實存在的,只是目前很多人選擇用AI來填補它,而不是用更好的數據。
兩者看起來都能解決「不確定感」,但解決的方式截然不同——一個是給你更多信息,另一個是幫你繞過信息不足的焦慮。
布道者,也沒能幸免
正是那些最積極向公眾和員工推銷AI的人,正在悄悄把自己的認知勞動外包給AI聊天機器人。
如果決策者本身的判斷框架正在被AI重塑,那他們對「AI應該用在哪里、用到什么程度」的判斷,本身是否也受到了影響?誰來審視那個審視者?
去年的一項調查發現,64%的商業領袖曾向AI咨詢過關于裁員的建議。
今年這份報告里,27%的高管已經在實際使用AI來處理招聘與解雇。方向很明確,速度也在加快。
88%的高管說AI確實讓決策更快了,這是真實的。
更關鍵的是,隨著AI的位置從「參考」變成「主導」,人的判斷力在這個過程扮演什么角色?
![]()
去年,卡內基梅隆和微軟的研究給出了一個不太樂觀的答案——當人們高度信任AI的準確性,他們的批判性思維參與度會隨之下降。
這不是認知懶惰,而是人類面對可信系統時的自然反應。節省認知資源,專注其他事情。
問題在于,「其他事情」是什么?
如果日常決策越來越多地被AI處理,高管們把省下來的認知資源用在了哪里?
這是目前沒有數據回答的問題。
有一個細節值得注意:報告里把這種現象描述為「lonely leaders」,孤獨的領導者。
46%的高管更依賴AI而非同事,65%認為決策變得不再協作。
AI在提供答案的同時,異見、摩擦、校準,以及在爭論中形成的判斷也在悄悄消解。
如果一個決定最終被證明是錯的,是CEO的責任,還是算法的責任?
這個問題,目前沒有人給出清晰的答案。
但70%的高管已經在用自我懷疑來回答它,只不過方向反了——
他們懷疑的是自己,而不是AI。
參考資料:
https://futurism.com/artificial-intelligence/ai-executive-thinking-surveyhttps://www.confluent.io/resources/report/quick-thinking-2026/
https://assets.confluent.io/m/74bc33b703672454/original/Quick-Thinking-Report.pdf
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.