在招聘場景中,AI面試真正需要回答的,并不是“能不能生成一份看起來足夠智能的報告”,而是兩個更基礎(chǔ)、也更嚴(yán)肅的問題:
第一,評分究竟是否真正由算法獨立完成;
第二,這一評分是否具備足夠的信度與效度,能夠支持企業(yè)在真實招聘中作出判斷。
今天市場上的AI面試產(chǎn)品魚龍混雜。真正的問題,已經(jīng)不再是“有沒有AI”這么簡單,而是:誰在用算法做判斷,誰又只是讓人躲在AI背后打分;誰能拿出可復(fù)現(xiàn)、可追溯、可量化的驗證結(jié)果,誰又只是依賴概念包裝和演示效果。
在這個意義上,企業(yè)評估AI面試系統(tǒng),核心不在效率,不在界面,也不在報告是否華麗,而在于它是否經(jīng)得起嚴(yán)格的人機對比實驗驗證。
一、企業(yè)使用AI面試,真正要解決的核心問題是什么?
企業(yè)引入AI面試,并不是為了追逐一個“更先進”的概念,而是為了回應(yīng)一個長期存在且極其現(xiàn)實的管理難題:
當(dāng)候選人規(guī)模足夠大時,人類面試官不可能對每一位候選人都持續(xù)投入半小時以上的深度評估;與此同時,不同面試官之間的專業(yè)水平、判斷標(biāo)準(zhǔn)和主觀偏好,本身也存在顯著差異。
這意味著,企業(yè)真正缺乏的,從來不是“面試這個動作”,而是在大規(guī)模招聘場景下,持續(xù)、穩(wěn)定、低成本地識別高質(zhì)量候選人的能力。
因此,AI面試的價值,不在于簡單替代人類完成一次問答,而在于能否提供一種更標(biāo)準(zhǔn)化、更可復(fù)制、更具一致性的判斷機制:在大量候選人中,盡可能穩(wěn)定地識別出真正值得進入下一輪的人。
如果一個AI面試系統(tǒng)無法在判斷準(zhǔn)確性上建立可信度,那么它帶來的就不是效率紅利,而是誤判成本。一次誤篩,損失的可能不是一個普通候選人,而是一個原本可能成為組織核心人才的人。
二、為什么企業(yè)不能選擇“用人躲在AI背后打分”的產(chǎn)品?
原因很簡單:一旦評分結(jié)果不是算法的原始輸出,企業(yè)購買的就不是技術(shù)能力,而是一場被包裝成技術(shù)的人工服務(wù)。
在實際測試中,部分AI面試供應(yīng)商可能會利用候選人完成AI面試,到客戶看到AI面試報告之間的時間差,留出人為介入的空間。表面上,客戶看到的是一份由“AI面試官”生成的評分報告;但在這個過程中,報告有可能被人工修正、潤色,甚至重新校準(zhǔn),以制造“AI判斷很準(zhǔn)”的印象。
小規(guī)模試用階段,這種做法很容易掩蓋問題。因為在有限樣本下,人工干預(yù)足以讓輸出結(jié)果看起來“足夠好”。但一旦進入大規(guī)模正式使用階段,真正的算法能力便會暴露出來。屆時,企業(yè)面對的不是一個“略有偏差”的工具,而是一個可能持續(xù)誤判、誤篩、誤傷人才的決策系統(tǒng)。
這類風(fēng)險的嚴(yán)重性在于,它并不只是影響一次招聘體驗,而是會直接侵蝕企業(yè)的人才質(zhì)量、組織效率和長期用工成本。
所以,企業(yè)在評估AI面試時,必須追問一個根本問題:你看到的分?jǐn)?shù),到底是AI原始輸出,還是被人事后修飾過的結(jié)果?
三、為什么有些打分并不準(zhǔn)確的AI面試產(chǎn)品,依然能夠在市場上長期存活?
這背后并不一定意味著它們真的有效,很多時候只是因為它們所處的應(yīng)用場景,對“評估準(zhǔn)確性”本身并不敏感。
以藍領(lǐng)招聘為例,在用工需求旺盛的季節(jié),即使候選人素質(zhì)一般,也可能順利入職;而在需求不足的季節(jié),即使候選人素質(zhì)優(yōu)秀,也未必能夠被錄用。換句話說,在這類場景中,候選人是否入職,并不完全取決于候選人質(zhì)量本身,而是高度受制于季節(jié)性需求波動和崗位供需關(guān)系。
在這種情況下,AI面試系統(tǒng)即便判斷力一般,也仍然可以作為一個“可有可無的流程工具”繼續(xù)存在。因為企業(yè)并沒有真正用它做高精度的人才甄別,它的誤判,也未必會立刻顯性化。
但對于中高端崗位、管理崗位、關(guān)鍵崗位而言,情況完全不同。越是高價值崗位,越不能容忍低質(zhì)量篩選。因為企業(yè)在這類崗位上真正購買的,不是流程效率,而是判斷準(zhǔn)確性。
這也是為什么,AI面試一旦進入核心招聘場景,企業(yè)最應(yīng)重視的,不是它“看起來是否智能”,而是它“是否經(jīng)過驗證”。
四、破解信任難題:背靠背人機對比實驗的方法論
要判斷AI面試打分是否真的由AI算法做出,并且具備較高信效度,能夠輔助甚至替代人類面試官進行判斷,最有效的方法,不是聽供應(yīng)商講故事,也不是看演示,而是進行背靠背人機對比實驗。
早在2018年,近嶼智能(前身:南京葡萄誠信息科技有限公司)旗下AI面試官系統(tǒng)——AI得賢招聘官,就已經(jīng)與客戶共同建立了一套公開透明、可追溯的科學(xué)信效度驗證方法論,通過背靠背人機對比實驗,驗證AI面試打分與人類面試官打分之間的一致性。
![]()
1. 背靠背人機對照實驗的標(biāo)準(zhǔn)化流程
這套實驗通常分為三個階段。
第一階段:候選人集中完成AI面試。
AI面試供應(yīng)商會邀請客戶企業(yè)的100–200名真實候選人,在同一時間段內(nèi)集中完成AI面試。之所以強調(diào)“同一時間段”,是為了最大限度壓縮人為干預(yù)空間。系統(tǒng)自動完成分析與評分,并將結(jié)果加密封存。在對比前,任何人——包括AI面試供應(yīng)商和企業(yè)客戶——都無法查看具體分?jǐn)?shù),從而確保評分不可被修改、不可被校準(zhǔn)。
第二階段:企業(yè)評審團獨立打分。
客戶企業(yè)選擇3名或5名資深面試官組成評審團。評審團接受統(tǒng)一的打分標(biāo)準(zhǔn)培訓(xùn)后,獨立觀看候選人視頻,并對每一道題目逐項評分。關(guān)鍵在于,這一階段的人類評審團完全不知道AI給出的分?jǐn)?shù)是多少。
第三階段:統(tǒng)一揭示結(jié)果并計算一致性。
在雙方評分均完成后,AI面試供應(yīng)商向客戶企業(yè)提供AI打分結(jié)果,雙方再將AI評分與人類評審團的多數(shù)投票結(jié)果進行對比,計算一致率及相關(guān)統(tǒng)計指標(biāo)。
這套方法論的核心邏輯并不復(fù)雜,卻極為關(guān)鍵:讓AI與人類面試官在完全互不知情的前提下,同時評估同一批候選人,使用同一套打分標(biāo)準(zhǔn)獨立作出判斷,最終再進行對比。
2. 為什么必須強調(diào)“同步完成”和“互不知情”?
這并不是形式主義,而是對行業(yè)現(xiàn)實問題的直接回應(yīng)。
在實際市場中,確實存在一種值得企業(yè)高度警惕的風(fēng)險:候選人完成AI面試后,到報告交付之間如果存在時間窗口,后臺就可能存在人為介入修改評分或潤色報告的空間。客戶最終看到的,并不一定是AI原始輸出,而可能是經(jīng)過人工“校準(zhǔn)”后的版本。
與此同時,如果人類面試官在評分前已經(jīng)看過AI結(jié)果,又會產(chǎn)生典型的“錨定效應(yīng)”——即評審員在無意識中向AI分?jǐn)?shù)靠攏,從而削弱驗證的嚴(yán)格性。
因此,真正有效的人機對比實驗,必須同時排除兩類干擾:
一類是事后人為修正;
另一類是評分過程中的錨定效應(yīng)。
只有在完全隔離人為變量的前提下,人機一致性數(shù)據(jù)才具有解釋力,企業(yè)也才能真正判斷:這個系統(tǒng)究竟是在用算法作出判斷,還是在用人工偽裝成AI。
真正的技術(shù)自信,從來不是靠話術(shù)建立的,而是來自經(jīng)得起雙盲驗證的結(jié)果。
五、統(tǒng)計學(xué)如何為人機對比實驗提供支撐?
如果說雙盲設(shè)計解決的是“如何驗證”的問題,那么統(tǒng)計學(xué)方法回答的就是“如何量化驗證結(jié)果”的問題。
在人機對比實驗中,最核心的概念是“一致性”——也就是AI判斷與人類判斷在多大程度上趨于相同。但一致性并不能只靠直覺判斷,必須借助嚴(yán)謹(jǐn)?shù)慕y(tǒng)計指標(biāo)。
1. 為什么要采用3名或5名面試官,而不是1名?
因為單個面試官的判斷,可能受到偏見、經(jīng)驗差異、臨場狀態(tài)等因素影響;而多個面試官的集體決策,可以顯著降低個體誤差。
其理論基礎(chǔ)來自集成學(xué)習(xí)(Ensemble Learning)中的“多數(shù)投票”原理。學(xué)術(shù)研究表明,多數(shù)投票方法具有普遍有效性,因為它基于統(tǒng)計收斂性:當(dāng)獨立決策者數(shù)量增加時,集體決策的準(zhǔn)確率會趨向于真實值。
一項發(fā)表在《Nature》的研究顯示,加權(quán)多數(shù)投票方法相比簡單平均,準(zhǔn)確率提升范圍為0.08%至7.05%。在醫(yī)療診斷、金融預(yù)測等領(lǐng)域,多數(shù)投票已經(jīng)被證明是提升決策可靠性的有效手段。
因此,在人機對比實驗中,采用3名或5名面試官的多數(shù)投票,不僅可以降低個人偏見,也能通過統(tǒng)計學(xué)原理提升決策穩(wěn)健性。
2. 一致性究竟如何量化?
不同的評分形式,對應(yīng)不同的統(tǒng)計指標(biāo)。
對于分類評分
例如“通過/不通過”或“A/B/C級”這類分類結(jié)果,最常用的是 Cohen’s Kappa 系數(shù)(κ)。它被廣泛視為衡量兩個評審員之間一致性的金標(biāo)準(zhǔn)(golden standard)。
Kappa 系數(shù)的價值,在于它會校正“偶然一致性”。也就是說,即便兩個評審員完全隨機評分,也可能由于概率原因出現(xiàn)一部分“表面一致”;Kappa 會剔除這部分偶然因素,只保留真實的一致程度,因此比簡單的百分比一致率更嚴(yán)謹(jǐn)。
學(xué)術(shù)界通常這樣解釋 Kappa 系數(shù):
·κ ≥ 0.80:優(yōu)秀一致性
·0.61–0.80:實質(zhì)性一致性
·0.41–0.60:中等一致性
·< 0.41:較差一致性
當(dāng)涉及3名或更多評審員時,可以使用 Fleiss’ Kappa 或 Conger’s Kappa。這兩個指標(biāo)都是 Cohen’s Kappa 在多評審員情境下的擴展:其中 Conger’s Kappa 適用于固定評審員針對所有候選人評分的情境,而 Fleiss’ Kappa 則允許不同評審員組合針對不同候選人進行評分。
對于連續(xù)評分
例如75分、80分這樣的連續(xù)得分,通常使用 ICC(Intraclass Correlation Coefficient) 來衡量評審員之間的具體評分一致性。ICC越高,說明不同評審員之間的內(nèi)部一致性越高。
學(xué)界對 ICC 的解釋標(biāo)準(zhǔn)通常為:
·< 0.50:信度較差
·0.50–0.75:中等信度
·0.75–0.90:良好信度
·0.90:優(yōu)秀信度
針對連續(xù)評分,業(yè)界還常用 RWG(評分者內(nèi)部一致性) 指標(biāo)來衡量絕對一致性。它主要用于判斷不同評審員是否對同一候選人的評分形成共識。
學(xué)術(shù)界對 RWG 的解釋標(biāo)準(zhǔn)通常為:
非常強的一致性:0.91–1.00
·強一致性:0.71–0.90
·中等一致性:0.51–0.70
·低一致性:0.31–0.50
·缺乏一致性:0.00–0.30
在一家國際酒店集團的實驗中,針對8個關(guān)鍵勝任力的整體評分,RWG的均值達到了0.936,屬于“非常強一致性”水平。
而在一家在線旅游平臺的測試中,人機評分在整個面試平均分上的RWG值達到0.851,達到強一致性標(biāo)準(zhǔn)。
3. 樣本量為什么同樣重要?
實驗設(shè)計的嚴(yán)謹(jǐn)性,直接影響結(jié)果的可靠性。從統(tǒng)計學(xué)角度看,樣本量越大,實驗結(jié)果越穩(wěn)定。
一般而言,最小樣本量至少應(yīng)達到50個,才能確保統(tǒng)計學(xué)意義;在行業(yè)實踐中,通常要求樣本量不少于100個;如果作為正式研究項目,最好達到200人以上。
這也是為什么標(biāo)準(zhǔn)流程通常要求收集100–200名候選人的面試數(shù)據(jù)。
正如一位參與實驗設(shè)計的數(shù)據(jù)科學(xué)家所說:“我們不是在拍腦袋說AI準(zhǔn)不準(zhǔn),而是在用國際公認的統(tǒng)計學(xué)方法來量化它。這套方法,在醫(yī)學(xué)、心理學(xué)等領(lǐng)域已經(jīng)應(yīng)用了幾十年。現(xiàn)在我們把它引入AI招聘驗證,就是要讓結(jié)果經(jīng)得起推敲。”
六、學(xué)術(shù)研究如何為這套方法提供外部驗證?
值得強調(diào)的是,這類驗證方法并不是企業(yè)自說自話的“內(nèi)部邏輯”,而是有成熟學(xué)術(shù)研究作為外部支撐。
發(fā)表在 Journal of Applied Psychology 的一項大規(guī)模研究,對自動化視頻面試評估系統(tǒng)進行了系統(tǒng)的心理測量學(xué)驗證。研究采用真實求職者數(shù)據(jù),而非實驗室受試者,并對15個勝任力維度進行了全面測試。結(jié)果顯示,該評估系統(tǒng)在多個關(guān)鍵指標(biāo)上均達到了較為穩(wěn)定的水平:
在收斂效度上,AI評分與人類面試官評分之間的平均相關(guān)系數(shù)為 r = 0.66。這意味著,AI對候選人能力的判斷與資深面試官的評價具有較高一致性。
在測試—重測信度方面,系統(tǒng)在不同時間對同一候選人進行評估的相關(guān)系數(shù)為 r = 0.72。這說明AI對候選人能力的判斷具有較好的跨時間穩(wěn)定性。
在效標(biāo)關(guān)聯(lián)效度方面,AI面試評分與績效相關(guān)指標(biāo)的相關(guān)系數(shù)為 r = 0.24。在人才選拔研究中,結(jié)構(gòu)化面試或認知能力測試與績效指標(biāo)之間的相關(guān),常見也處于0.20–0.30區(qū)間。因此,這一結(jié)果已經(jīng)達到具有實際應(yīng)用意義的績效預(yù)測水平。
更值得關(guān)注的是,該研究發(fā)現(xiàn)AI評分系統(tǒng)表現(xiàn)出極低的人口統(tǒng)計學(xué)偏差,Cohen’s d ≥ -0.14,意味著系統(tǒng)在不同性別、種族群體之間展現(xiàn)出較高公平性。
此外,這項研究還顯示,AI評分系統(tǒng)在不同工作角色、不同組織以及不同行業(yè)中都呈現(xiàn)出良好的泛化能力(generalizability)。這意味著,經(jīng)過嚴(yán)格驗證的AI面試系統(tǒng),并不是只在單一場景下有效,而是具備跨行業(yè)推廣應(yīng)用的可靠基礎(chǔ)。
七、為什么說人機對比實驗,是一種成熟科學(xué)的驗證范式?
從方法論上看,AI得賢招聘官的人機對比實驗,并不是一個“新奇概念”,而是借鑒了醫(yī)學(xué)、心理學(xué)等成熟科學(xué)長期采用的驗證范式,并結(jié)合招聘場景特點進行了工程化落地。
因此,這套方法的價值,并不在于形式上的新穎,而在于它具備三個特征:
第一,可復(fù)制。
不同企業(yè)、不同崗位、不同地區(qū),都可以采用相同流程獨立復(fù)核。
第二,可量化。
結(jié)論并不依賴主觀印象,而是依賴Kappa、ICC、RWG等統(tǒng)計指標(biāo)。
第三,可追溯。
從候選人作答,到AI評分封存,到人工獨立評分,再到最終對比,每一個環(huán)節(jié)都能夠被審視和復(fù)盤。
這也是為什么,在成熟行業(yè)里,技術(shù)信任從來不是通過宣傳建立的,而是通過標(biāo)準(zhǔn)化驗證建立的。
在醫(yī)療領(lǐng)域,AI需要臨床試驗;
在自動駕駛領(lǐng)域,AI需要路測驗證;
在金融領(lǐng)域,AI需要監(jiān)管審查;
而在招聘領(lǐng)域,AI要想真正進入企業(yè)核心決策流程,同樣必須通過嚴(yán)格的人機對比實驗。
八、世界500強企業(yè)的采購決策,最終來自真實驗證,而不是概念包裝
真正促使世界500強企業(yè)做出采購決策的,并不是論文結(jié)論本身,而是企業(yè)親自完成的人機對比實驗驗證。
一位大型企業(yè)HR負責(zé)人在行業(yè)峰會上曾表示:“我們不會盲目相信任何AI,但如果它能夠通過嚴(yán)格的人機對比實驗,證明與資深面試官判斷高度一致,那我們就有理由信任它。”
當(dāng)三星、西門子等世界500強企業(yè)持續(xù)采購并應(yīng)用AI得賢招聘官AI面試智能體時,其背后并不是概念驅(qū)動,而是大量實驗驗證、持續(xù)優(yōu)化與結(jié)果積累。
目前,這套“人機對比實驗驗證方法”已經(jīng)從單一項目驗證,逐步演變?yōu)閲鴥?nèi)超大型企業(yè)采購和評估AI面試系統(tǒng)時的常用方法。企業(yè)不再僅僅依賴廠商演示或理論說明,而是通過真實崗位樣本、人類專家對照評分以及統(tǒng)計一致性檢驗,直接驗證系統(tǒng)是否可靠。
案例一:某世界500強國際酒店集團
在針對273名門店總經(jīng)理候選人的測試中,五名人類專家與AI的評分一致性達到了 88.31%。進一步分析顯示,當(dāng)專家使用與AI相同的評分標(biāo)準(zhǔn)時,在8個關(guān)鍵勝任力維度上,81%的ICC分?jǐn)?shù)超過了強一致性標(biāo)準(zhǔn)。
這家國際酒店集團的HR負責(zé)人在接受采訪時表示:“我們最初擔(dān)心AI會給出一些離譜的判斷,但實驗結(jié)果讓我們意外。在273名候選人中,AI與我們五名面試官的多數(shù)意見一致率達到88.31%,這個數(shù)字已經(jīng)遠遠超過了我們的預(yù)期。”
更重要的是,這套實驗并不是只給出一個“好看結(jié)果”就結(jié)束,而是引入了爭議案例復(fù)核機制。對于那些AI判斷“通過”、但人類評審團判斷“不通過”,或者反之的邊界案例,實驗方會與客戶一起深入復(fù)盤:究竟是AI的標(biāo)準(zhǔn)過嚴(yán)或過松,還是人類面試官的判斷本身存在偏差?
通過這種復(fù)盤,雙方不僅在驗證AI,也在持續(xù)校準(zhǔn)招聘標(biāo)準(zhǔn)本身。
案例二:某世界500強在線旅游平臺
在針對135名候選人的測試中,三名資深面試官之間的打分一致性(ICC)平均值為 0.71;而當(dāng)他們使用統(tǒng)一的AI評分標(biāo)準(zhǔn)后,三名面試官的多數(shù)意見與AI的一致性在總分維度上達到了 0.85,顯著高于面試官彼此之間的一致性。
這意味著,標(biāo)準(zhǔn)化評分體系本身,就能夠顯著提升判斷可靠性。
與此同時,某大型互聯(lián)網(wǎng)公司在技術(shù)崗位招聘場景中的測試也顯示,AI與人類評審團在所有能力維度上的一致性均超過 0.82。這三組實驗結(jié)果,均超過心理測量學(xué)領(lǐng)域通常所認定的“強一致性”標(biāo)準(zhǔn)。
這些結(jié)果并不是孤立案例,而是在不同行業(yè)、不同崗位、不同能力模型下持續(xù)復(fù)現(xiàn)的驗證結(jié)果。它們共同推動了大型企業(yè)對AI面試技術(shù)認知的轉(zhuǎn)變:只要經(jīng)過嚴(yán)格的人機對比實驗驗證,AI面試系統(tǒng)的評分能力,已經(jīng)可以達到接近資深面試官的專業(yè)水平,并具備規(guī)模化應(yīng)用價值。
一位參與過實驗的HR總監(jiān)曾感慨:“這不僅是在驗證AI,也是在反思我們自己的招聘標(biāo)準(zhǔn)。有些時候,我們發(fā)現(xiàn)人類面試官之間的分歧也很大,反而是AI更加一致和穩(wěn)定。”
九、AI信任的本質(zhì),不是宣傳,而是科學(xué)驗證
AI的信任,從來不是靠宣傳獲得的,而是通過嚴(yán)格、誠實、可復(fù)現(xiàn)的科學(xué)方法贏得的。
對招聘行業(yè)而言,AI面試能否真正進入企業(yè)決策流程,關(guān)鍵不在于它能否講出一個關(guān)于“智能”的故事,而在于它是否能夠在公開透明、可追溯、可量化的實驗框架下,經(jīng)得起人機對比驗證。
AI得賢招聘官“人機對比實驗方法論”的公開與實踐,正在推動AI招聘從“黑盒工具”走向“可驗證系統(tǒng)”,也正在為整個行業(yè)建立一套可復(fù)制、可量化、可落地的技術(shù)信任路徑。
這不僅是一種技術(shù)驗證方式的升級,更意味著AI應(yīng)用開始從概念階段,邁向真正的產(chǎn)業(yè)級落地階段。
未來,所有走向產(chǎn)業(yè)場景的AI系統(tǒng),都將面對同一個問題:它是否經(jīng)得起科學(xué)驗證。
而對AI面試而言,真正的分水嶺,不在宣傳頁上,不在演示界面里,而在背靠背人機對比實驗的結(jié)果中。
作者簡介
方小雷
-近嶼智能創(chuàng)始人
-南京大學(xué)工商管理學(xué)士,多倫多大學(xué)Rotman商學(xué)院MBA
-具有地產(chǎn)、零售、化學(xué)和通信等多行業(yè)的管理經(jīng)驗
-11年跨國地區(qū)(中國、德國、西班牙、英國和加拿大)人力資源管理經(jīng)驗
范津硯
-美國奧本大學(xué)心理學(xué)系教授
鄭璐
-華中科技大學(xué)管理學(xué)院副教授,博士生導(dǎo)師。
-主要研究領(lǐng)域為人員測評和選拔,跨文化管理等。
-現(xiàn)擔(dān)任湖北省人力資源學(xué)會理事,中國心理學(xué)會管理心理學(xué)專委會委員。
參考資料
本文主要參考資料來源于AI得賢招聘官提供的“人機對比實驗方法論”文檔,其中包含以下學(xué)術(shù)文獻支撐:
-自動化視頻面試評估系統(tǒng)心理測量學(xué)研究 - ResearchGate
-Cohen’s Kappa 系數(shù)統(tǒng)計學(xué)原理 - Springer Nature
-Fleiss’ Kappa 多評審員一致性測量 - BMC Cancer
-多數(shù)投票機制統(tǒng)計有效性研究 - Nature Scientific Reports
-雙盲實驗設(shè)計方法學(xué)研究 - ScienceDirect
-HIRE 框架(人機招聘評估)- Springer Artificial Intelligence Review
-AI輔助招聘效率提升研究 - arXiv
文章采用的數(shù)據(jù)和案例均基于真實的學(xué)術(shù)研究和行業(yè)實踐,部分企業(yè)和人物名稱進行了化名處理以保護商業(yè)隱私。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.