Skip to main content
Home
News Repo 2026 (v05)
since 2026-01-01

Breadcrumb

  1. Home
  2. 推論戰場的五大勢力:從 CUDA 護城河到 TSMC 產能戰

推論戰場的五大勢力:從 CUDA 護城河到 TSMC 產能戰

KF Cheng
By KF Cheng on Mon, 2026-03-09 - 15:39
Short Title
推論戰場的五大勢力:從 CUDA 護城河到 TSMC 產能戰
Private
Public
Image
Financial Analysis Report 謎米財經分析報告
2026-03-09

日期:2026年3月3日 作者:Kila

【超級懶人包】

  • 推論晶片市場正在從 Nvidia 單極壟斷走向五大勢力競爭的格局。Nvidia 仍是訓練之王,但它最強大的護城河 CUDA 正在編譯器、框架和部署三個層面同時被侵蝕。Google TPU 是目前唯一經過十年、七代迭代的商業化大規模 ASIC,功耗僅為同級 GPU 的 40% 到 50%。AMD 硬體已追平 Nvidia 但軟體是致命瓶頸。各雲端巨頭的自研 ASIC(Trainium、Maia、MTIA)各有側重但尚未達到 Google 的規模。Cerebras 和 Groq 等新創證明了極端專用化路線的可行性。

  • Nvidia Blackwell 架構 GB200 NVL72 機架訂單據供應鏈數據從最高 8 萬櫃修正至 3.5 萬櫃以內,因客戶抗拒被全端綁定。TPU v7 (Ironwood) 單晶片峰值算力 4,614 TFLOPS,最大集群 9,216 顆、總算力 42.5 EFLOPS。OpenAI 的 Triton 編譯器已達 CUDA 76% 到 82% 性能。Samsung 已通過 Nvidia HBM4 品質認證並計劃量產,全球 HBM 供應格局正在重塑。

  • TSMC 3nm 月產能上限約 14 到 14.5 萬片晶圓,Apple、Nvidia、Google/Broadcom、AMD 四方爭奪。HBM 全球短缺已波及消費電子。無論推論晶片市場誰勝出,上游的先進封裝和記憶體才是真正的咽喉。

從單極到多極:五大勢力的位置

在上一篇文章中,我們解釋了為什麼 AI 推論正在成為一個萬億美元的戰場,以及為什麼通用 GPU 在這個戰場上不再是唯一答案。這篇文章要回答的是:那麼,誰在打這場仗?怎麼打?各自的護城河有多深?軟肋在哪裏?

目前推論晶片市場有五大勢力。它們的定位各不相同,但目標一致:搶奪推論這塊佔未來 75% 至 80% AI 算力的巨大蛋糕。

第一是 Nvidia,GPU 全棧霸主,正在從訓練之王向推論擴展。第二是 Google TPU,唯一經過十年、七代迭代並大規模商業化的 ASIC。第三是 AMD,硬體已追平 Nvidia 但軟體生態嚴重落後。第四是雲端巨頭的自研 ASIC(AWS Trainium、Microsoft Maia、Meta MTIA),各自為政的垂直整合。第五是新創公司(Cerebras、Groq、Etched),走極端專用化路線。

以下逐一拆解。

Nvidia:帝國的反擊

Nvidia 的護城河之深,在整個半導體行業中幾乎無人能及。

首先是 CUDA 生態。15 年的積累,覆蓋從底層驅動到頂層應用框架的完整軟體棧。全球絕大多數 AI 研究人員和工程師都是在 CUDA 環境下成長的,數以百萬行的代碼和數以千計的優化庫構成了巨大的遷移成本。其次是全棧整合能力:Nvidia 不只是賣晶片,它賣的是晶片加上 NVLink 高速互連網絡加上 DPU 加上 TensorRT 等軟體的完整系統。第三是訂單積壓:Nvidia 披露其累計訂單積壓超過 $5,000 億,並且每年維持新架構推出的節奏,保持技術領先。

面對推論市場的挑戰,Nvidia 正在三條戰線同時反擊。

第一條戰線是架構革命。$200 億收購 Groq 的核心目的,是獲取 LPU(語言處理單元)這一專門為語言模型推論優化的技術,並將其整合進 Nvidia 的全棧生態。LPU 放棄了通用性,通過極簡指令集和大規模片上 SRAM,攻克推論場景中的記憶體頻寬和延遲瓶頸。即將在 GTC 大會亮相的新品,目標是將 LPU 的高效推論與 GPU 的通用算力結合,打造單位 Token 成本和延遲大幅降低的「推論怪獸」。OpenAI 已承諾成為其最大客戶。

第二條戰線是商業模式靈活化。Nvidia 歷史上首次為 Meta 大規模提供不捆綁高端 GPU 的純 CPU 伺服器,用於廣告推薦等 AI 工作負載。這表明 Nvidia 已接受推論場景的多樣性,從強迫客戶買「標準套餐」轉向允許按需「自助點餐」。這是一種防禦性策略:與其讓客戶因「過度消費」而徹底轉向 TPU 或 Trainium,不如主動提供更靈活的組合來留住客戶。

第三條戰線是資本聯盟。Nvidia 以數百億美元深度投資 OpenAI、Anthropic 等頂尖模型公司,用資本紐帶綁定客戶關係,確保這些定義行業方向的模型優先在 Nvidia 架構上訓練和推論。在 OpenAI 最新 $1,100 億融資中,Nvidia 是關鍵出資方之一。這種「你中有我」的交叉持股構成了極高的競爭壁壘。

但帝國的軟肋也正在暴露。

第一個軟肋是 Blackwell 出貨不如預期。供應鏈數據顯示,基於 Grace CPU 的 GB200 NVL72 機架訂單被大幅下修,從最高 8 萬櫃腰斬至 3.5 萬櫃以內。主要原因是客戶抗拒被 Nvidia 的 Grace CPU 生態全端綁定,寧可採購單獨的 B200 GPU 搭配傳統的 AMD 或 Intel x86 伺服器。Nvidia 從「賣晶片」向「賣整機系統」的升級策略遭遇了客戶的強烈抵制。

第二個軟肋是毛利率的可持續性。Nvidia 75% 的毛利率建立在極強的定價能力之上。但當推論成為主戰場,客戶對 TCO 的敏感度會指數級上升。TPU 可以便宜 44% 至 56%,AMD 可以用更低的價格搶份額,OpenAI 能靠「可信的切換威脅」榨出 30% 折扣。在推論端長期維持 75% 毛利率的難度正越來越大。

第三個軟肋是中國市場的實質性脫鉤。華為的 Ascend 910C 在 2025 年出貨約 100 萬顆,字節跳動、百度、阿里巴巴、騰訊等中國巨頭正被迫全面轉向國產算力。Nvidia 針對中國的降規版特供晶片 H20 遭遇嚴重滯銷,在 2026 財年第一季度被迫提列了高達 $45 億美元的庫存減值。中國市場曾佔 Nvidia 數據中心營收的 20% 至 25%,這塊市場正在永久性地流失。

Nvidia 的終局定位可能是:訓練仍是絕對之王,估計保持 90% 的市佔率。但推論份額可能從目前的 80% 以上,逐步下滑至 2028 年的 50% 至 60%。收購 Groq 是承認這個現實、並試圖在推論戰場重建技術優勢的最大膽嘗試。

Google TPU:十年磨一劍

在所有 Nvidia 的挑戰者中,Google TPU 是資歷最深、部署規模最大、商業化最成熟的一個。

Google 在 2013 年啟動 TPU 項目,2015 年出了第一代矽片,到 2025 年已經迭代到第七代 Ironwood,比微軟的 Maia 早了 4 至 6 年。這個時間差不只體現在硬體性能上,更體現在軟體棧的成熟度和大規模部署的穩定性上。

Ironwood 的性能數據是頂尖的:單晶片峰值算力 4,614 TFLOPS(FP8 精度),最大集群可組裝 9,216 顆晶片,總算力達到 42.5 EFLOPS。但最具殺傷力的不是峰值算力,而是能效和互連。TPU v7 在同等算力輸出下,功耗僅為 Nvidia B200 的 40% 至 50%。更關鍵的是,依托 Google 自研的光電路交換機(OCS)技術,萬卡級集群可以實現近乎線性的加速比。Trillium(TPU v6)的光學 pod 互連頻寬達到 4.8 Tbps,對比 Nvidia NVLink 的 900 Gbps,差距超過 5 倍。在大規模推論場景中,互連頻寬是決定實際性能的瓶頸,而非單晶片算力。

TPU 的戰略意義在 2025 至 2026 年發生了質變。此前,TPU 主要作為 Google 內部的核心算力支撐,供自家模型使用。但從 2025 年開始,Google 正式將 TPU 推向外部商用市場,引發了巨額訂單的湧入。除了 Anthropic 的 $210 億訂單外,Meta 被報道已與 Google 達成數十億美元的交易,潛在客戶還包括 Apple 及 xAI。

SemiAnalysis 的研究揭示了一個有趣的現象:同時使用 TPU 和 GPU 的 Anthropic,在與 Nvidia 的議價談判中擁有比純用 GPU 的 OpenAI 更強的籌碼。這意味着「多晶片並行」不只是降低成本的策略,還是提升議價能力的武器。

TPU 的護城河在於它不只是一顆晶片。它是晶片加上自研光學互連加上 XLA 編譯器加上 Google Cloud 基建的完整系統,經過了 Google 自身數萬億次搜索和推薦查詢的千錘百煉。Gemini 3 完全基於 TPU 訓練,在多個權威基準測試中位居榜首。當全球最先進的 AI 模型之一,是在 TPU 上而非 GPU 上訓練出來的,這本身就是對 TPU 能力最直接的證明。

但 TPU 也有明顯的軟肋。最大的問題是綁定 Google Cloud 生態。目前外部客戶要使用 TPU,基本必須透過 Google Cloud,on-prem(自建機房部署)仍處於起步階段。Meta 的 on-prem TPU 部署最早也要到 2027 年。另外,雖然 TPU 的軟體棧已經相當成熟,但歷史上主要依賴 TensorFlow 和 JAX 框架,而全球 75% 的機器學習研究人員使用的是 PyTorch。好消息是,Google 和 Meta 正在合作開發 TorchTPU 計劃,目標是讓 PyTorch 用戶無縫使用 TPU,Google 甚至考慮開源部分代碼。如果 TorchTPU 成功,TPU 的最大採用障礙將被移除。

最後,在製造端,TPU 高度依賴 Broadcom 作為設計服務商。但 Google 已開始對沖這一風險:與聯發科合作開發低成本 TPU 變體(v7e、v8e),同時擴大內部晶片設計團隊。Broadcom 仍將保留高價值的訓練級 TPU 訂單和關鍵網絡互連 IP,但長期而言,Google 會逐步降低對單一設計夥伴的依賴。

AMD:硬體已追平,軟體是最後一哩路

AMD 在 AI 晶片領域的故事,是一個「硬體先行、軟體追趕」的典型案例。

從硬體角度看,AMD 的最新產品 MI355X 在 FP8 單節點基準測試中已經追平甚至超越了 Nvidia B200。Meta 使用 MI300X 運行 Llama 405B 的全部即時推論流量,這是 AMD 在超大規模部署中最有力的背書。2026 年 2 月,OpenAI 與 AMD 簽下 6 吉瓦的算力訂單,涉及數十萬顆 GPU,其中包含即將推出的 MI450 系列。

但 AMD 最大的瓶頸不是硬體,而是 ROCm 軟體生態。

半導體研究機構 SemiAnalysis 發現了一個尷尬的事實:AMD 內部開發分支的性能已經超越 Nvidia,但這些改進尚未合併到穩定版的 PyTorch 發行版中。也就是說,只有擁有底層改寫能力的頂級巨頭(如 Meta、Microsoft)才能充分發揮 AMD 硬體的潛力,普通企業客戶拿到手的「開箱即用」體驗仍然不如 Nvidia。

AMD CEO Lisa Su 顯然深刻意識到了這個問題。她近期一改過去對硬體規格的長篇大論,轉而聚焦軟體進展,並給出了具體的 milestone:ROCm 6.3 讓 MI300X 的推論效能提升了 2.7 倍,而即將推出的 ROCm 7 預計將帶來超過 3 倍的效能提升。

另一個值得關注的數字是 AMD 的定價策略。根據行業估算,MI300 系列的平均售價約為 $1.5 萬美元,遠低於 Nvidia H100 的 $3.2 至 4 萬美元。這說明 AMD 為了搶佔市佔率,正在進行深度的戰略性價格折讓。結果是出貨量快速攀升,但非 GAAP 毛利率僅約 54%,遠低於 Nvidia 的 74% 至 75%。

雲端巨頭自研 ASIC:各自為政的算力自主之路

除了 Google TPU,其他主要雲端巨頭都在推進自研 ASIC,背後的邏輯一致:沒有人相信 Nvidia 的定價長期可持續,所以每家都想擁有自己的算力供應鏈。

AWS Trainium 3

2025 年 12 月在 re:Invent 大會上正式發布並已進入量產。這是 AWS 首款基於台積電 3nm 製程的 AI 晶片,單晶片提供 2.52 PFLOPS 的 FP8 算力,搭載 144 GB HBM3e 記憶體和 4.9 TB/s 的記憶體頻寬。Trainium 3 UltraServer 最多可搭載 144 顆晶片,相比上一代性能提升 4.4 倍,能效改善超過 4 倍。透過 EC2 UltraClusters 3.0,數千台 UltraServer 可以連接起來,支持高達 100 萬顆 Trainium 晶片的規模。

AWS 宣稱已部署超過 100 萬顆 Trainium 處理器,Anthropic 是其核心客戶,透過 Project Rainier 使用大量 Trainium 晶片訓練和運行 Claude。值得注意的是,Trainium 最初是作為訓練晶片推出的,但現在也被大量用於推論,AWS 表示其在推論場景下比 GPU 方案可節省 30% 至 40% 的成本。

Trainium 4 已在開發中,將支持 Nvidia NVLink Fusion 高速互連技術,這意味着 Trainium 系統未來可以與 Nvidia GPU 在同一機架內互操作。這是一個非常聰明的策略:不與 Nvidia 正面對抗,而是創造一個「混合部署」的選項,讓客戶可以同時使用兩套系統。

不過,Trainium 的挑戰在於軟體生態的成熟度。SemiAnalysis 指出,Trainium 3 發布時僅支持較受限的 LNC=1 或 LNC=2 模式,更廣泛的 ML 研究社區偏好的 LNC=8 模式預計要到 2026 年中才能支持。這限制了其對非 Anthropic 客戶的吸引力。

Microsoft Maia 100

2024 年發布,為 Bing AI 和部分 OpenAI 推論供電,但 Azure AI 仍有 70% 的工作負載運行在 Nvidia 之上。微軟的 ASIC 起步比 Google 晚了 6 年(2019 年才開始開發,Google 是 2013 年),這個差距體現在軟體棧的成熟度和產能爬坡速度上。客戶報告承諾產能等候期為 18 至 24 個月,而 TPU 僅需 2 至 3 個月。

更值得關注的是,OpenAI 正與 Broadcom 合作開發自己的推論 ASIC(代號 Titan),計劃採用台積電 3nm 製程在 2026 年下半年量產,2027 至 2029 年間部署高達 10 吉瓦的算力。這意味着 OpenAI 正在逐步擺脫對 Nvidia 和微軟硬體的雙重依賴。

Meta MTIA v2

Meta 的自研 ASIC 走了一條非常聚焦的路線:專門針對推薦系統和廣告排序優化。Meta 在 ISCA 2025 論文中公佈的數據顯示,MTIA 在目標場景下實現了 44% 的 TCO 降低,方法論透明度在所有自研 ASIC 案例中最高。MTIA 的一個巧妙設計是使用 LPDDR5 記憶體取代 HBM,直接消除了 GPU 最大的成本組件之一。

但 MTIA 的局限性也很明確:它是為推薦系統設計的,在通用 LLM 推論場景下效率比 TPU 低 30% 至 40%。這就是為什麼 Meta 一邊在內部大量使用 MTIA 跑廣告推薦,一邊還要向外部租用 Google TPU 和採購 AMD GPU 來處理 Llama 模型的推論。

這三家的共同趨勢是:每一家雲端巨頭都在自研 ASIC,因為沒有人願意長期被 Nvidia 的定價綁架。但除了 Google,目前沒有一家達到了可以大規模對外商業化的成熟度。

新創公司:極端專用化的可能性

推論晶片市場還有一批走極端路線的新創公司。它們的存在本身就是對「GPU 推論壟斷」最強的反證。

Cerebras:把整片晶圓當一顆晶片

Cerebras 的技術路線可能是半導體行業中最大膽的:在整片 300mm 晶圓上製造一顆超大晶片,而非傳統的將晶圓切割成數百顆小晶片。其最新的 CS-3 系統在推論性能上比 Nvidia 旗艦 DGX B200 Blackwell 快 21 倍,成本和功耗均降低約三分之一。

2026 年 2 月,OpenAI 上線 GPT-5.3 Codex Spark 時選擇了 Cerebras 而非 Nvidia 來承接推論任務。這是 OpenAI 首次在主力模型上大規模採用非 GPU 晶片,原因是 Cerebras 帶來的更低延遲和更低能耗,為實時編程場景提供了接近即時的響應體驗。

Groq:「TPU 之父」的進化

Groq 的創始人 Jonathan Ross 正是 Google TPU 的核心設計者。他創立 Groq 的初衷就是要打造一款超越 TPU 的推論晶片。Groq 的 TSP(Tensor Streaming Processor)架構與 TPU 不同,採用「軟體定義硬體」的設計理念,在保持可編程性的同時達到接近 ASIC 的極致性能。實測數據顯示,Groq 晶片的首 Token 延遲比 TPU v7 低 20% 至 50%,每 Token 成本低 10% 至 30%。

2025 年底,Nvidia 以近三倍溢價、$200 億的天價收購了 Groq 的核心技術和團隊。這筆收購的戰略價值遠超財務數字:Nvidia 買下的不只是一項技術,而是用來彌補 GPU 在推論場景結構性弱點的一把「手術刀」。

Etched

Etched 的策略是徹底放棄通用性,設計一款只為 Transformer 推論而生的 ASIC。其核心邏輯是:大模型架構已經收斂到 Transformer 為絕對主流,既然推論只需要做一件事,那就把這一件事做到物理極限。

這些新創公司驗證了一個關鍵命題:在推論場景下,極端的專用化可以帶來數量級的性能和成本優勢。即使部分公司最終被收購(如 Groq),它們開闢的技術路線已經不可逆。

CUDA 護城河正在三個層面同時被侵蝕

市場長期以來將 Nvidia 的 CUDA 軟體生態視為牢不可破的護城河。但數據告訴了一個不同的故事。侵蝕正在三個層面同時發生。

第一層:編譯器

OpenAI 開發的 Triton 編譯器,已經在端到端 LLM 推論中達到了手寫 CUDA 核心 76% 至 82% 的性能。2025 年 10 月的第三屆 Triton 開發者大會上,Intel、AMD、Qualcomm、Nvidia、Microsoft 和 AWS 全部參與。字節跳動基於 Triton 開發的分佈式擴展,在 Nvidia 和 AMD GPU 上均實現了對 NCCL/RCCL 高達 45 倍的加速。

第二層:框架

Google 和 Meta(PyTorch 的創建者)正在合作開發 TorchTPU,目標是讓 TPU 與 PyTorch 完全兼容。如果成功,全球 75% 使用 PyTorch 的 ML 研究人員將可以無縫切換到 TPU,無需改寫任何代碼。Google 正考慮開源部分 TorchTPU 以加速採用。

第三層:部署基建

2026 年 1 月,主流推論引擎 vLLM 正式將 AMD ROCm 列為「一等平台」(first-class platform),建立了持續整合管線,每次代碼提交都在 AMD 矽片上測試。官方 Docker 映像已於 1 月 6 日發布。TPU 在 vLLM 中的支持仍處於實驗階段,但已經可用。

最有說服力的不是技術指標,而是商業行為。Meta 在同一週內簽下 TPU 租用協議和 AMD GPU 訂單。

CUDA 的護城河沒有消失,但它已經從「不可逾越的城牆」變成了「可以繞行的圍欄」。

供應鏈的真正咽喉:TSMC 和 HBM

無論推論晶片市場哪一家勝出,都繞不開兩個物理瓶頸:台積電的先進製程產能,和高頻寬記憶體(HBM)的全球供應。

TSMC 3nm:四方爭奪戰

台積電的 3nm 製程面臨史無前例的產能緊缺。預計至 2026 年底,3nm 總月產能上限約為 14 至 14.5 萬片晶圓。產能分配估算如下:Apple 佔約 35% 至 40%,Nvidia 佔約 30% 至 35%(下一代 Vera Rubin 架構晶片面積巨大,將吞噬海量產能),Google/Broadcom 加 AMD 合計佔約 25% 至 30%。

台積電已通知客戶 2026 年將對次 5nm 節點漲價 3% 至 5%。先進封裝(CoWoS)同樣是瓶頸,每顆 GPU 增加約 $1,000 的額外成本。二線 AI 晶片公司幾乎不可能獲得足夠的 3nm 代工配額。

這意味着一個殘酷的現實:即使 ASIC 在性價比上完勝 GPU,其取代 GPU 的速度也受限於台積電能分配多少產能給它。同理,Nvidia 想要無限擴張也不可能,因為台積電的產能就這麼多。

HBM:全球短缺與三星的反擊

高頻寬記憶體(HBM)是 AI 晶片最關鍵的組件之一,也是目前全球短缺最嚴重的半導體產品。

此前的市佔格局中,SK Hynix 以約 62% 的份額絕對主導,Micron 約 21% 位居第二,三星因未能及時通過 Nvidia 的 HBM3E 資格驗證,份額從 41% 暴跌至 17%。

但在最新一代 HBM4 上,三星實現了強勢反擊。2026 年 1 月底,三星的 HBM4 正式通過了 Nvidia 的全部品質認證,2 月已開始量產,產品將用於 Nvidia 下一代 Vera Rubin AI 加速器。三星的 HBM4 採用第六代 10nm 級(1c)DRAM 和 4nm 邏輯基板,傳輸速度達到 11Gbps 以上,遠超 JEDEC 的 HBM4 標準(8Gbps)。三星已將 1c DRAM 產能擴展至月產 6 萬片晶圓,並計劃將 HBM4 產能再提升 70%。分析師估計,三星到 2026 年底有望將 HBM4 市佔率拉回至 30%。

但 HBM 的全球短缺已經產生了嚴重的連鎖效應。各大記憶體廠商將晶圓產能從傳統 DDR 轉向 AI 專用 HBM,導致 DDR4 和 DDR5 記憶體嚴重短缺。高通 CEO 將其手機部門 13% 的收入下跌完全歸因於記憶體不足。Google、Amazon、Microsoft、Meta 已向記憶體供應商下達「無限期訂單」,無論價格一概接受。OpenAI 與三星和 SK Hynix 針對「星際之門」基建項目的戰略合作,可能消耗全球 DRAM 產量的 40%。

核心含義是:無論推論晶片市場最終形成什麼格局,先進封裝(TSMC CoWoS)和記憶體(SK Hynix / Samsung HBM)才是真正的「賣鏟人」。它們既限制了 ASIC 取代 GPU 的速度,也限制了 Nvidia 無限擴張的能力。

筆者的判斷

推論晶片市場正在從 Nvidia 單極壟斷,走向一個競爭性的多極格局。高盛預測,到 2027 年,非 GPU 晶片在全球 AI 伺服器中的出貨佔比將從 2024 年的 36% 升至 45%。

這不是一個「GPU 已死」的故事。GPU 在訓練領域仍然是不可替代的,在推論領域也將持續佔據重要份額。這是一個「不同任務需要不同工具」的理性回歸。訓練需要最強的靈活性和最高的算力峰值,所以 GPU 仍是首選。推論需要的是極致的成本效率和能效比,所以 ASIC 正在快速崛起。

Nvidia 收購 Groq、發布推論專用架構、為客戶提供靈活的部署選項。這些動作說明它已經接受了推論市場「不再是 GPU 獨佔」的現實。問題不是 Nvidia 會不會衰落,而是它能否在推論市場保住足夠多的份額和足夠高的毛利。以目前科技巨頭「集體去風險化」的速度來看,75% 毛利率在推論端長期維持的難度越來越大。

對於仍然堅持「GPU 絕對無敵」的觀點,我的建議是:不需要看分析師的報告,也不需要相信任何人的預測。只需要看 Google、Meta、Anthropic、OpenAI 這些掌握着全球最多 AI 工程師和最精密成本模型的公司。它們已經用數十億、數百億美元的真實採購決策做出了回答。

免責聲明

本文內容僅供資訊及教育用途,不構成任何投資建議。文中提及的公司、產品及數據均來自公開資料,作者可能持有或不持有相關證券。讀者應自行判斷並在作出任何投資決定前諮詢專業顧問。

投資理財
謎米財經分析報告
About BYOS

Build-Your-Own-System is a practice to build digital solutions for business and enterprise based on integration of open source technology and web resources, an excellent approach for digital transformation by practice and experience.  It does not require IT background or programming, because business analysis, experiment and digital innovation is what it is about.

BAYGO

Build-as-you-GO is the strategy behind building a site, and the flexibility of BYOS architecture supports this strategy, which makes everybody the best designer for their own system over time.

More about BayGO

BYOS Workshops

It is the skillset for the digital era.  No IT background is needed.  No programming is needed. It is just a matter of hands-on practice.  You'll be surprised you can do it too.

Our Services

We provide services in:

  • Agile System Building
  • Digital Transformation Consultancy
  • Knowledge Management
  • Combined Consultancy
  • BYOS Workshops
  • BYOS Mentorship
A self-hosted platform for knowledge management
Built by KF Cheng    ©2026
Self-hosted Platform: KHub v4.00.62
Running on Ubuntu 22.04 PHP 8.1 MariaDB 10.10 Nginx 1.18
Clear keys input element