337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

從“暴力燒Token”到“系統工程”:OpenAI與華為的兩條 AI 編程路徑

0
分享至


作者 | 王亞偉 華為云碼道(CodeArts)首席架構師

1 AI 編程工具的兩種演進路徑:算力暴力與工程確定性

2026 年,AI 編程工具的市場演進分化為兩條截然不同的路徑:

  • 模型中心派:其核心邏輯是“模型即一切”。通過推高上下文窗口(Context Window),試圖將超大規模的完整工程載入 Prompt,Gemini 1.5/2.0 Pro 支持高達 2M Token,這種超長上下文允許開發者將整個代碼倉庫作為 Prompt 的一部分進行分析和問答。該路徑的上限取決于模型的推理能力,但面臨極高的 Token 成本:即便模型能讀,每次對話重新讀入幾十萬行代碼的費用極高。以 Claude 為例,超過 20 萬 Token 的請求通常會觸發溢價計費;推理延遲:處理 100 萬 Token 的推理時間往往以分鐘計,無法滿足實時性交互的需求;精準度衰減(Recall Problem):學術界稱之為“大海撈針(Needle In A Haystack)”問題。當上下文過長時,模型對中間部分信息的召回率和邏輯嚴謹性會下降,極易產生“幻覺”。

  • 工具驅動派:模型驅動派側重于擴張“腦容量”(超長上下文窗口),而 Cursor 則通過重構 IDE 的交互與索引工具,開啟了“工具驅動派”的先河。其核心邏輯并非被動等待模型進化,而是通過增強 IDE 的感知與修改能力,讓現有模型也能精準處理復雜的代碼邏輯。Cursor 在本地構建了一套獨立于傳統語言服務(LSP)之外的高性能代碼索引系統(Codebase Indexing),在后臺自動對全量工程進行向量化(Embedding)并構建符號圖譜。當需求輸入時,系統會優先調用自研檢索工具,從海量文件中提取關聯度最高的代碼片段,將其精準拼湊為 Prompt 交付給模型。

從底層工程實現和企業級落地路徑來看,碼道 與 Cursor 雖然同屬“工具驅動派”,但其技術路徑存在代際差異:Cursor 是 IDE 表現層 AI 融合的典范,而 碼道 則是 IDE 內核層語義重構的專家

  • Cursor(基于表現層的上下文注入):通過 Embedding 索引結合 VS Code 原有的 LSP(語言服務協議)提供上下文。這種模式本質上仍是概率性的“文本尋蹤”,且隨著工程規模擴大,索引膨脹會導致檢索延遲增加,在大規模工程中難以保障跨模塊引用的絕對準確。

  • 碼道(基于內核層的語義驅動):通過徹底重構 IDE 底層多語言語義內核(Unified Polyglot Semantic Core),由 CMM(索引物理存儲優化) 與 CAL(統一語義模型) 支撐。這種基于內核提供的全量語義信息,不僅能確保檢索的物理準確性,更通過指令化執行實現了確定性的任務交付。

2 華為云碼道(CodeArts)的協作范式:LLM 負責“邏輯規劃”,多語言語義內核負責“確定性執行”

在企業級軟件開發中,代碼的復雜性是 Token 消耗的主要來源。碼道 的核心策略是將任務解耦:由 LLM 承擔“邏輯規劃”,由多語言語義內核負責“確定性執行”。這種“大腦 + 手腳”的協作范式,通過以下三個工程維度實現了極致的性價比:

1. 成本置換:將推理成本下放為計算成本

在大規模工程中,若由 LLM 遍歷源碼尋找接口引用,需消耗數萬 Token 進行文本理解;而通過 碼道 的底層索引,僅需一次毫秒級的 API 調用即可返回精確結果。該架構將高昂的大模型推理成本(Inference Cost)轉化為低功耗的本地計算成本(Computing Cost),從根源上消解了 Token 通脹。

  • 語義級 RAG 技術(Code Model RAG):依托多語言語義內核的索引系統實現結構化檢索。其召回的上下文僅包含必要的語義摘要(如符號定義、調用鏈),避免了無關源碼片段的冗余讀入,顯著降低輸入 Token 消耗。

2. 邏輯外掛:從“文本生成”到“指令化執行”

多語言語義內核掌握著項目的全量語義數據,能為 LLM 提供結構化的代碼理解并屏蔽語言差異:

  • 指令重構技術(Instruction Refactoring):LLM 僅需輸出高階指令(如 execute_refactor),具體的跨文件改動由底層的重構引擎自動完成。這種“外掛式”執行省去了 LLM 生成數十個文件改動內容的輸出過程,極大地壓縮了輸出 Token 的規模。

3. 閉環保障:通過自主校驗提升一次性成功率

企業級開發的隱性成本在于高頻的調試循環與人工審核。碼道 引入了代碼自主校驗技術:

  • 自主校驗技術(Code Model Shadow):通過“解析、編譯、執行”三層反饋機制,多語言語義內核可自動感知 LLM 生成的代碼缺陷,系統在后臺直接引導 LLM 修正。這種對用戶透明的自愈過程,顯著提升了一次性成功率。在復雜的企業場景下,減少修復循環意味著更低的算力損耗與更短的開發者審核周轉期。

通過規劃與執行的分離,華為云碼道以更低 Token 消耗確保了 Agent 交付件具備更好的“語法自洽”與“邏輯可運行”。這不僅優化了算力資源,更通過工具的確定性穩住了大型工程的交付質量。

3 支撐華為云碼道(CodeArts)多語言語義內核的兩大底層基石:索引物理存儲優化(CMM)與統一語義模型(CAL)

索引物理存儲優化 CMM(Compacted Memory Management)

多語言語義內核的高效運行,由底層的代碼索引存儲機制 CMM 支撐。在企業級 AI 編程場景下,平衡性能與 Token 成本的核心,在于超大規模代碼 AST(抽象語法樹)與索引的低開銷處理。

CMM 通過重構索引在內存中的表示方式,消除了原生對象存儲帶來的元數據負載(Overhead)。其技術邏輯在于利用數據布局(Data Layout)優化換取訪問速度與存儲密度。工程實踐表明,在處理大規模工程的索引效率時,底層數據表示的優化比單純的算法改進具備更高的工程收益。

1. 核心技術邏輯:重構數據布局

  • 消除對象布局冗余:在 JVM 等原生布局下,對象的元數據開銷極高(如 8 字節內容在堆中常占用 24 字節)。CMM 放棄了原生對象表示,通過扁平化存儲與屬性分組消除了元數據負載,顯著提升了內存利用率并減輕了 GC 壓力。


對象原生布局


扁平化屬性分組布局

  • CPU 緩存友好型設計:針對現代 CPU 性能遠超內存訪問速度的現狀,CMM 采用連續內存塊(Contiguous Chunks)存儲。通過將高頻協同訪問的屬性聚合在一起,最大化利用 CPU L1/L2 緩存機制,解決了大規模數據下的內存訪問瓶頸。

2. 技術實現:自適應壓縮與按需解碼

  • 自適應壓縮方案:系統根據數據分布自動選擇 Delta 編碼、RLE 編碼或變長編碼等最優方案,支持在海量數據批處理中實現高效的隨機訪問解碼。



  • 代理對象與按需解碼(Lazy Decoding):不同于全量反序列化的傳統模式,CMM 通過代碼生成技術提供代理對象。系統僅在調用具體接口方法時才對局部屬性進行解碼。這種模式避免了在處理復雜工程時產生無效的算力消耗。

3. 工程價值:支撐高頻工具調用的性能底座

  • 性能提升:在代碼模型與 AST 的訪問基準測試中,CMM 相比傳統 IDE 方案實現了 50-100 倍的性能飛躍。

  • 全量索引常駐內存:得益于高壓縮比特性,全量索引可常駐內存,消除了大規模工程下頻繁觸發磁盤 I/O 的冷啟動開銷。這確保了多語言語義內核在響應 LLM 的檢索請求時,能夠實現毫秒級的全量數據遍歷與即時反饋。

統一語義模型 CAL(Code Access Layer)

如果說 CMM 優化了索引數據的物理存儲,那么 CAL 則負責邏輯層面的語義對齊。在企業級大規模工程中,異構編程語言的 AST 結構差異顯著,LLM 難以直接處理原始的非結構化數據。CAL 通過一套統一多語言語義模型屏蔽了底層語言的實現細節,將離散的源代碼映射為標準化的結構化語義 API。

1. 核心技術邏輯:標準化語義表示

  • 統一類型系統 (Unified Type System):CAL 構建了一套抽象的類型圖譜,實現跨語言的類、方法、變量及調用關系識別。該系統將不同語法的底層實現轉化為 LLM 可解析的標準化語義符號。

  • AST 與語義符號的實時綁定:基于 CMM 的高性能索引,CAL 能夠實時構建代碼 AST 并進行精確的符號綁定(Symbol Binding)。這為 LLM 提供的不再是模糊的代碼文本,而是具備明確調用邊界的邏輯單元。

  • 代理模型與按需解析:CAL 采用與 CMM 協同的“延遲解析”策略。系統僅在 Agent 需要深度理解特定模塊時,才觸發局部的語義補全與推導,避免無效的計算開銷。

2. 工程價值:消解語義幻覺與 Token 通脹

  • 消除語義幻覺:CAL 充當 LLM 的物理校驗層。當 LLM 嘗試修改接口時,CAL 通過靜態分析提供該接口的顯式約束條件,確保生成的代碼在語義層面實現“合法性”,規避了因不熟悉私有庫規則導致的邏輯錯誤。

  • 跨語言導航能力:依托全量索引,CAL 支持在大規模代碼庫中實現毫秒級的跳轉與引用查找。這為 Agent 進行全局任務規劃提供了準確的上下文圖譜。

  • 精準的上下文壓縮:得益于高密度的語義索引,系統向 LLM 提供的不再是冗余的源碼片段,而是精煉的語義摘要。在復雜邏輯檢索任務中,這種方式能顯著削減 Token 消耗。

4 語義級 RAG 實測:代碼遮蔽與邏輯召回的量化表現

依托上述多語言語義內核提供的全量語義信息,語義級 RAG 在大規模工程的代碼遮蔽(Code Masking)實驗中表現出了極高的確定性。該評估驗證了系統在邏輯片段缺失的極端情況下,依然能通過 CAL 索引精準召回私有語義,確保交付件的語義合法性。

1. 評估流程:代碼遮蔽與類型檢索

  • 實驗設計:隨機抽取 Java 源代碼片段進行“遮蔽”處理(如上圖所示隱藏關鍵業務邏輯),僅保留方法簽名與基礎結構。

  • 檢索對齊:系統需從全量工程索引中識別并召回預設的關鍵符號(如 java.io.File 及私有庫 IPath、ModuleInfo 等)。實驗結果顯示,系統能夠準確鎖定深層私有依賴,實現語義維度的精確映射。

2. 核心性能指標

在百萬行級工程的基準測試中,語義級 RAG 展現了顯著的檢索深度:

  • 召回率(Recall):TopK-5 達到 87.5%,TopK-50 達到 97.5%。這意味著絕大多數核心代碼語義均能被索引系統成功捕獲。

  • 精確度(Precision):TopK-5 精確度為 20.8%。由于代碼上下文中真實的正確符號通常僅 1-2 個,該指標說明系統已在極窄的候選池中鎖定了標準答案。

5 工程實測:多語言語義內核實現更低成本、更確定性的 AI 編程

本次工程實測的核心目標,在于量化驗證“工具語義內核驅動”的技術路徑在處理企業級復雜任務時的實際作用。我們希望通過對多語言語義內核的接入,評估其在降低推理成本與提升交付確定性方面的工程價值。

實驗中引入的對比方案僅作為行業基準參考,旨在客觀呈現不同技術路線在相同工程負載下的表現差異,而非針對具體產品的橫向評測。我們更關注的是,如何通過底層工具鏈的確定性,為大規模 AI 編程尋找一條更具可持續性的技術落地路徑。

1. 協議化能力輸出

我們將 Python 語義內核通過 MCP(Model Context Protocol) 標準封裝為系列工具集。以下為首批接入的能力清單,后續將根據企業級開發場景的實際需求,持續擴展底層的原子化工具能力:


碼道 Python 語義內核:工具能力矩陣

2. 實驗設計與評估體系

  • 測試對象:

    • OpenAI Codex 5.2(Medium):代表頂尖模型驅動的基準性能。

    • 國內友商 AI IDE(Codex 5.2 + 開源語言插件):代表主流工具驅動的 AI 編程工具。

    • 碼道(GLM 4.7 + Python 語義內核):驗證在基礎模型(GLM 4.7)性能弱于 Codex 的情況下,依靠 Python 語義內核實現的工程補償。

  • 監控維度:

    • 執行效能:總執行耗時與交互輪次。

    • 操作分布:包括導航、查詢、編輯及診斷。

    • 經濟性:總 Token 消耗與預估成本。其中 OpenAI Codex 5.2 參考 API 市場價(每百萬輸入 Token $1.75,每百萬輸出 Token $14.0)進行成本推算;友商 AI IDE 直接采用其系統內置的成本統計數據;GLM 4.7 參考 API 市場價(每百萬輸入 $0.6,輸出 $2.2)核算。

  • 三類實驗任務:從基礎操作到復雜邏輯集成

    • T1:基礎重構(Poetry 項目) —— 側重于原子化執行。在 Poetry 源碼中執行跨文件的安全重命名(Safe Rename),驗證 Agent 對代碼符號定位的準確性、執行性能和成本。

    • T2:復雜理解(Django 代碼庫約 100 萬行 Python 代碼) —— 側重于全局語義檢索。針對 Django 代碼庫進行深度解析,通過類型繼承體系評估代碼變更的影響面。

    • T3-T4:復雜新功能(端到端集成) —— 側重于模糊需求下的邏輯交付。在不指定具體類名或方法名的情況下,開發全新的跨模塊特性,并交付完整的業務邏輯代碼。

3. 實驗任務 T1:基礎重構,Poetry 全工程安全更名

  • 用戶 Prompt

    • 將 EnvManager.generate_env_name 方法重命名為 build_env_name,并同步更新工程內部所有調用點及測試用例。需確保業務行為保持不變。

  • 測試結果:



碼道 + Python 語義內核(27.3k)

  • 性能與成本對比分析

    • 與 OpenAI Codex 5.2 相比:成本降低 83.4%,Token 消耗減少 35.0%,耗時增加約 20%(執行速度略慢)。

    • 與 友商 AI IDE 相比:成本降低 87.8%,Token 消耗減少 49.8%,耗時縮短 41.6%。

    • 接入 Python 語義內核后,碼道 的任務耗時縮短約 66%,成本與 Token 消耗同步削減了約 46%。


4. 實驗任務 T2:Django 工程分析


  • 用戶 Prompt:

    • 我計劃在 BaseHandler 中添加一個響應埋點掛載。請先識別所有相關的子類并評估該改動可能帶來的潛在影響。

  • 測試結果:



碼道 + Python 語義內核(34.5k)

  • 性能與成本對比分析

    • 與 OpenAI Codex 5.2 相比:成本降低 86.6%,Token 消耗減少 47.7%,執行耗時縮短 20.0%。

    • 與 友商 AI IDE 相比:成本降低 78.5%,Token 消耗減少 26.1%,執行耗時縮短 36.1%。

    • 接入 Python 語義內核后,碼道 的任務耗時縮短約 50%,成本與 Token 消耗同步削減了約 37%。

5. 實驗任務 T3:二段跳功能實現

針對接下來的復雜新功能測試,我們選用了一個完全由 碼道 構建的真實 Python 游戲項目。讓測試對象實現某些新功能,且在指令中不提及任何具體的類名或方法名,以最大限度還原實際開發中的模糊需求。

碼道構建的 Platformer 游戲

  • 用戶 Prompt:

    • 添加一個‘二段跳’新功能。玩家在拾取該道具后,即可在空中額外跳躍一次,落地后該額外跳躍次數重置。請在 HUD(抬頭顯示)中提供清晰的狀態指示器。同時,請將該道具放置在初始關卡中,以便能夠立即測試功能效果。

  • 測試結果:


  • 性能與成本對比分析

    • 與 OpenAI Codex 5.2 相比:成本降低 79.1%,Token 消耗減少 18.3%,執行耗時增加約 57.9%(執行速度較慢)。

    • 與 友商 AI IDE 相比:成本降低 79.0%,Token 消耗減少 16.9%,執行耗時增加約 25.8%(執行速度較慢)。

依托 Python 語義內核提供的全量索引,結合語義級 RAG、指令化重構及代碼自主校驗等技術,碼道 能夠一次性成功完成任務

碼道 二段跳功能實現

6. 實驗任務 T4:新增回旋鏢武器類型

  • 用戶 Prompt:

    • 新增‘回旋鏢’(Boomerang)武器類型,并將現有的‘爆破筒’(Blaster)保留為默認武器。請創建一個新的道具拾取標識(R)用于解鎖回旋鏢。玩家通過 Tab 鍵在武器間切換,且 HUD(抬頭顯示)需同步展示當前選中的武器。回旋鏢在發射后應向前飛行、伴隨可見的旋轉動畫并最終回到玩家手中,且在往返路徑上均能對敵人造成傷害。請在初始手工關卡中放置至少一個 R 標識道具,以便我在一分鐘的游戲流程內即可測試新武器功能。

  • 測試結果:



碼道 + Python 語義內核(87k)

  • 性能與成本對比分析

    • 與 OpenAI Codex 5.2(任務執行失敗) 相比:成本降低 78.4%,Token 消耗減少 15.5%,執行耗時增加約 41.5%(執行速度較慢)。

    • 與 友商 AI IDE 相比:成本降低 76.4%,Token 消耗減少 10.3%,執行耗時增加約 10.4%(執行速度較慢)。

OpenAI Codex 無法實現正確的回旋鏢邏輯

碼道 成功實現正確的回旋鏢邏輯

7. 實驗說明與初步結論

本次工程實測旨在初步探索多語言語義內核(Unified Polyglot Semantic Core)接入后,對 Agent 在真實開發場景下成本與效能的影響。以下為基于當前實驗環境的技術說明:

  • 工程優化空間:本次實驗側重于驗證底層內核接入后的基準表現。事實上,目前采用的 MCP 協議并非性能最優的集成方式,且尚未針對特定的 Agent 任務編排(Orchestration)或工具鏈調用邏輯執行深度調優。隨著交互策略的精細化與算法迭代、模型服務性能優化,Token 損耗及整體執行時間仍具備顯著的下行空間。

  • 環境變量說明:所有實驗數據均采集于真實開發場景,力求客觀反映各方案在百萬行級工程(如 Django)下的基準狀態。由于測試節點部署于海外,受跨境網絡鏈路時延影響,執行耗時數據在本地生產環境下預計會有更平穩的表現。

  • 工具底座的補償效應:實測觀察到,盡管 友商 AI IDE 在 Agent 邏輯的完備性與模型響應速度上展現了成熟的工程實現,但 碼道 深厚的工具底座可以在很大程度上彌補模型服務側的差距。

6 總結與展望:算力暴力與工程確定性的共生

基于 2026 年的技術現狀,模型驅動的“算力暴力”與工具驅動的“工程確定性”并非互斥,而是“上限”與“下限”的互補。

從現實落地性來看,基于工程確定性的路徑是目前企業級場景下更務實的方案。在百萬行級代碼的生產環境中,全量加載超長上下文帶來的 Token 成本、推理延遲及邏輯隨機性,仍是制約規模化落地的核心瓶頸。通過 CMM 與 CAL 等底層優化,語義級 RAG、指令重構、自主校驗等技術,將“推理開銷”下放為“本地計算開銷”,是實現 AI 編程普惠的經濟前提。

我們認為,“以工程確定性為體,以算力暴力為用”的融合路徑是 AI 編程落地企業的最優解

  • 工具驅動作為“主流底座”:依托多語言語義內核,將 LLM 的產出約束在受控的工程框架內,決定了交付的“穩”與“下限”。

  • 算力暴力作為“高端補充”:利用超大上下文提供全局推理能力,決定了 AI 理解復雜邏輯能走多“遠”與“上限”。

目前,文中提到的基于多語言語義內核的各項特性將會逐步在華為云碼道企業版落地。歡迎各位開發者與企業用戶針對實際工程中的性能瓶頸或準確率問題向我們反饋訴求,協助我們持續細化和調優底層的原子化工具能力。

作者簡介:

王亞偉,華為云開發工具效率首席技術專家,華為云碼道(CodeArts)首席架構師

Eclipse 基金會 OpenVSX 指導委員會(Steering Committee)成員,前微軟開發者事業部資深研發主管。主導了華為云碼道(CodeArts)多語言語義內核與 AI 融合架構的研發。在智能代碼補全、全庫索引檢索、自動化重構等領域擁有 30 余項全球專利(其中中國、美國、歐盟已授權 16 項),致力于通過底層內核技術與 AI 的深度融合,提升大規模企業級軟件的交付質量與效率。

會議推薦

OpenClaw 出圈,“養蝦”潮狂熱,開年 Agentic AI 這把火燒得不可謂不旺。在這一熱潮下,自托管 Agent 形態迅速普及:多入口對話、持久記憶、Skills 工具鏈帶來強大生產力。但這背后也暴露了工程化落地的真實難題——權限邊界與隔離運行、Skills 供應鏈安全、可觀測與可追溯、記憶分層與跨場景污染、以及如何把 Agent 納入團隊研發 / 運維流程并形成穩定收益。

針對這一系列挑戰,在 4 月 16-18 日即將舉辦的 QCon 北京站上,我們特別策劃了「OpenClaw 生態實踐」專題,將聚焦一線實踐與踩坑復盤,分享企業如何構建私有 Skills、制定安全護欄、搭建審計與回放機制、建立質量 / 效率指標體系,最終把自托管 Agent 從可用的 Demo 升級為可靠的生產系統。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
80年陳云建議陳錫聯辭職,陳錫聯猛拍桌:讓我干啥,我絕無二話!

80年陳云建議陳錫聯辭職,陳錫聯猛拍桌:讓我干啥,我絕無二話!

抽象派大師
2026-03-25 12:04:28
回加拿大生活的大山,60歲須發皆白很滄桑,重慶妻子仍風韻猶存

回加拿大生活的大山,60歲須發皆白很滄桑,重慶妻子仍風韻猶存

素衣讀史
2026-03-25 21:05:22
真不能怪祖院長,就曾醫生這顏值、這才華和魅力,誰遭的住?

真不能怪祖院長,就曾醫生這顏值、這才華和魅力,誰遭的住?

吃瓜局
2025-11-11 16:23:49
場上效果很不理想,湖人鋒線大閘到了季后賽估計還是很難出場?

場上效果很不理想,湖人鋒線大閘到了季后賽估計還是很難出場?

稻谷與小麥
2026-03-27 01:18:15
“14天12板”!000908,復牌后上演“地天板”

“14天12板”!000908,復牌后上演“地天板”

大眾證券報
2026-03-26 17:58:54
馬筱梅曬汪寶滿月宴,六菜一湯很低調,張蘭未參加,小心思太明顯

馬筱梅曬汪寶滿月宴,六菜一湯很低調,張蘭未參加,小心思太明顯

阿庫財經
2026-03-27 00:01:45
15戰14勝,加時掀翻東部第一!新鷹王27+8+12證明賤賣特雷楊有理

15戰14勝,加時掀翻東部第一!新鷹王27+8+12證明賤賣特雷楊有理

鍋子籃球
2026-03-26 11:25:55
巴薩舊將:當時赫萊布知道自己要離隊,他往功能飲料里兌酒喝

巴薩舊將:當時赫萊布知道自己要離隊,他往功能飲料里兌酒喝

懂球帝
2026-03-26 06:43:09
外媒:40%的消費者希望中國品牌汽車進入美國市場

外媒:40%的消費者希望中國品牌汽車進入美國市場

環球網資訊
2026-03-24 13:45:12
伊朗再獲重大勝利!美國,又被打慘了!

伊朗再獲重大勝利!美國,又被打慘了!

大嘴說天下
2026-03-26 19:32:16
15名津巴布韋人被俄羅斯騙去烏克蘭當炮灰戰死,當局怒揭殘酷真相

15名津巴布韋人被俄羅斯騙去烏克蘭當炮灰戰死,當局怒揭殘酷真相

老馬拉車莫少裝
2026-03-27 00:00:37
伊朗抓捕14名叛國分子

伊朗抓捕14名叛國分子

財聯社
2026-03-26 20:04:13
路透社:歐盟警告越南,敢用中國5G,就讓外資撤光!

路透社:歐盟警告越南,敢用中國5G,就讓外資撤光!

泠泠說史
2026-03-26 18:06:17
白宮堅稱美伊仍在談判,威脅伊朗“切勿誤判”;伊朗外長:美國談論“談判”無異于承認“失敗”,伊朗放聲開新戰線

白宮堅稱美伊仍在談判,威脅伊朗“切勿誤判”;伊朗外長:美國談論“談判”無異于承認“失敗”,伊朗放聲開新戰線

每日經濟新聞
2026-03-26 17:08:49
菲總統候選人莫雷諾:如果當選,我會讓菲律賓成為下一個新加坡!

菲總統候選人莫雷諾:如果當選,我會讓菲律賓成為下一個新加坡!

小丸說故事
2026-03-17 14:23:29
柯文哲被判重刑,黃國昌蔣萬安回應,賴清德又盯上鄭麗文?

柯文哲被判重刑,黃國昌蔣萬安回應,賴清德又盯上鄭麗文?

DS北風
2026-03-26 17:58:06
電影《挽救計劃》高口碑熱映 以跨文明協作詮釋守望相助溫暖內核

電影《挽救計劃》高口碑熱映 以跨文明協作詮釋守望相助溫暖內核

封面新聞
2026-03-26 18:56:02
智能麻將桌殺到:傳統麻將館真的要被“取代”了?

智能麻將桌殺到:傳統麻將館真的要被“取代”了?

生活新鮮市
2026-03-20 06:28:56
原油飆漲!黃金、白銀下跌,美股突變!特朗普威脅!霍爾木茲海峽,最新消息!

原油飆漲!黃金、白銀下跌,美股突變!特朗普威脅!霍爾木茲海峽,最新消息!

證券時報e公司
2026-03-26 22:23:23
TOP14位身高170以上的女神,有顏有燈有演技

TOP14位身高170以上的女神,有顏有燈有演技

素然追光
2026-01-02 02:45:02
2026-03-27 02:16:49
InfoQ incentive-icons
InfoQ
有內容的技術社區媒體
12207文章數 51820關注度
往期回顧 全部

科技要聞

美團發布外賣大戰后成績單:虧損超200億

頭條要聞

特朗普:伊朗允許10艘油輪通行霍爾木茲海峽

頭條要聞

特朗普:伊朗允許10艘油輪通行霍爾木茲海峽

體育要聞

申京努力了,然而杜蘭特啊

娛樂要聞

劉曉慶妹妹發聲!稱姐姐受身邊人挑撥

財經要聞

油價"馴服"特朗普?一到100美元就TACO

汽車要聞

一汽奧迪A6L e-tron開啟預售 CLTC最大續航815km

態度原創

本地
親子
藝術
健康
公開課

本地新聞

救命,這只醬板鴨已經在我手機復仇了一萬遍

親子要聞

看看把孩子嚇得哈哈哈

藝術要聞

北京大興機場和青島膠東機場“撞臉”,長得像就是抄襲?

轉頭就暈的耳石癥,能開車上班嗎?

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版