【台北訊,2025 年 10 月 15 日】世界領先開放原始碼軟體解決方案供應商 Red Hat 今日宣布推出 Red Hat AI 3,是 Red Hat 企業級 AI 平台的一大進展。此平台匯集 Red Hat AI Inference Server、Red Hat Enterprise Linux AI(RHEL AI)與 Red Hat OpenShift AI 的最新創新成果,不僅能簡化大規模高效能 AI 推論的複雜流程,更賦能企業得以將工作負載更順暢地從概念驗證(PoC)推向生產環境,同時改善 AI 驅動應用程式的協作。
企業將 AI 從實驗階段推向實際應用時,往往面臨資料隱私、成本控管及多樣化模型管理等重大挑戰。根據麻省理工學院 NANDA 計畫的《The GenAI Divide: State of AI in Business》報告指出,生產環境 AI 的現實情況是,儘管企業投資金額高達 400 億美元,仍有約 95% 的企業未能從中獲得可衡量的財務報酬。
為應對上述挑戰,Red Hat 推出 Red Hat AI 3,專為資訊長和 IT 主管提供一致且統一的體驗,協助他們最大化加速運算技術的投資效益。企業不僅能於跨混合式或多供應商的環境中快速擴展與部署 AI 工作負載,還能透過單一通用平台,提升團隊在新一代 AI 代理等專案上的協作效率。Red Hat AI 3 以開放標準為基礎,能滿足企業在 AI 發展過程中各階段的需求,支援任何硬體加速器上的任何模型且適用於各種環境,包含資料中心、公有雲、主權 AI 環境,抑或是最遙遠的邊緣端。
Red Hat 副總裁暨 AI 事業部總經理 Joe Fernandes 表示:「當企業將 AI 的應用規模從實驗階段擴展至生產環境時,將會面臨複雜性、成本與控管上新一波的挑戰。Red Hat AI 3 作為企業級開放原始碼平台,正是為了將上述障礙降至最低。我們藉由 llm-d 的分散式推論等創新功能為代理式 AI 奠定基石,IT 團隊得以更有自信地在任何基礎架構上,以自己的方式將新一代 AI 投入實際營運。」
從訓練到「執行」:企業 AI 推論的轉變
企業將 AI 舉措推向生產環境後,其重心將從模型的訓練與調校移轉至推論,亦即企業 AI 的「執行」階段。Red Hat AI 3 著重於可擴展且符合成本效益的推論能力,奠基於廣受好評的 vLLM 與 llm-d 社群專案,並結合 Red Hat 自身卓越的模型最佳化技術,為大型語言模型(LLM)提供生產環境級的服務。
為協助資訊長充分利用高價值硬體加速資源,Red Hat OpenShift AI 3.0 正式推出 llm-d,重新定義 LLM 在 Kubernetes 上的原生執行方式。llm-d 巧妙結合經驗證的 Kubernetes 調度價值與 vLLM 的卓越效能,實現智慧分散式推論,並結合多項關鍵開源技術,包括 Kubernetes Gateway API Inference Extension、NVIDIA Dynamo 低延遲資料傳輸函式庫(NIXL),以及 DeepEP Mixture of Experts(MoE)通訊函式庫,賦予企業:
統一平台,實現協作式 AI
Red Hat AI 3 提供統一彈性體驗,專為生產環境中生成式 AI 解決方案的協作需求打造。其設計旨在透過促進團隊協作與統一工作流程,並為企業創造實質價值。平台工程師和 AI 工程師可藉由 Red Hat AI 3 這個單一平台執行 AI 策略。新功能著重於提升從概念驗證擴展至生產環境所需的生產力與效率。
模型即服務(Model as a Service,MaaS)功能奠基於分散式推論之上,IT 團隊能作為企業自己的 MaaS 供應商,集中管理常用模型並為 AI 開發者與 AI 應用程式提供依據需求(on-demand)存取服務。上述功能不僅有助於成本控管,亦能應對因隱私權或資料安全顧慮而無法在公有 AI 服務上執行的應用情境。
平台工程師可透過 AI 中心(AI Hub)探索、部署與管理基礎 AI 資產,其提供內含模型精選目錄(curated catalog)的集中式管理中心,涵蓋經驗證與最佳化的生成式 AI 模型、模型生命週期管理登錄檔,以及可配置與監控運行於 OpenShift AI 上所有 AI 資產的部署環境。
生成式 AI 工作室(gen AI Studio)為 AI 工程師打造動手實作的環境,在此能與模型互動並加速生成式 AI 應用程式的原型開發。透過 AI assets endpoint 功能,工程師能輕鬆探索與使用可用的模型與 MCP 伺服器(用以簡化模型與外部工具的整合流程)。內建的 playground 則提供互動式且無狀態(stateless)的環境,可用於模型實驗、提示詞(prompts)測試與參數微調,支援如對話(chat)與檢索增強生成(RAG)等應用場景。
Red Hat AI 3 亦同步整合全新且經 Red Hat 驗證與最佳化的模型以簡化開發流程。精選內容包括如 OpenAI 的 gpt-oss、DeepSeek-R1 等受歡迎的開源模型,以及 Whisper(語音轉文字)和 Voxtral Mini(用於語音代理)等專業模型。
為新一代 AI 代理(AI agents)奠定基石
AI 代理即將顛覆應用程式的建構方式,其複雜的自動化工作流程將對推論能力帶來嚴苛的要求。Red Hat OpenShift AI 3.0 版本不僅強化推論能力,更帶來專注於代理管理的新版或強化功能,持續為可擴展的代理式 AI 系統奠定穩固基礎。
為加速代理的建立與部署,Red Hat 推出基於 Llama Stack 的統一應用程式介面層,助力讓開發流程與 OpenAI 等業界標準保持一致。此外,為提倡更開放、更具互通性的生態系,Red Hat 已率先採用模型上下文協定(Model Context Protocol,MCP),此強大的新興標準能簡化 AI 模型與外部工具的互動方式,是現代 AI 代理不可或缺的基礎功能。
Red Hat AI 3 引入以既有的 InstructLab 功能所打造、模組化且可擴充的全新模型客製化工具組。開發者可藉由專用的 Python 函式庫獲得更大的靈活性及掌控度。此工具組是由多項開源專案驅動,其中包括用於資料處理的 Docling,可將非結構化文件轉換為 AI 模型可讀取的格式,大幅簡化資料匯入流程。此外,該工具組亦支援用於合成資料生成的彈性框架,以及用於 LLM 微調的訓練中心。AI 工程師可透過整合的評估中心(evaluation hub)監測並驗證訓練成果,協助企業有自信地運用專有資料,以獲得更準確且更具相關性的 AI 成果。
關於 Red Hat
Red Hat 是開放混合雲技術的領導廠商,為推動 IT 創新與 AI 應用的轉型變革提供值得信賴、一致且完善的基礎。Red Hat 的產品組合涵蓋雲端、開發者工具、AI、Linux、自動化及應用平台等技術,協助企業從資料中心至邊緣跨環境皆可部署各式應用程式。作為世界領先開放原始碼軟體解決方案供應商,Red Hat 積極投入開放生態系與社群,攜手解決未來的 IT 挑戰。Red Hat 與合作夥伴及客戶緊密合作,協助其建置、連接、自動化、確保安全性並管理 IT 環境,並透過顧問服務、獲獎的訓練與認證計畫提供強力支援。
前瞻性聲明
除此處包含的歷史訊息和討論外,本新聞稿中包含的陳述可能符合美國 1995 年「私人證券訴訟改革法」所定義之前瞻性陳述。前瞻性陳述是基於公司現階段對未來業務和財務表現的假設。這些陳述涉及許多風險、不確定性和其他可能導致與實際結果出現重大差異的因素。本新聞稿中的任何前瞻性陳述僅在發布之日起生效。除法律要求外,Red Hat 公司不承擔更新或修訂任何前瞻性陳述的義務。
###
Red Hat、Red Hat Enterprise Linux、Red Hat logo 及 OpenShift 為 Red Hat 或其子公司在全球之商標或註冊商標。Linux® 為 Linus Torvalds 在全球的註冊商標。