探索AI落地路径,红帽胜算几何?
百模大战的销烟尚未散去,大模型降价的风潮又此起彼伏。种种迹象表明,AI落地的脚步声似乎越来越近了。
根据IDC咨询发布的报告,企业要想成功借助AI实现跃迁,需要对许多现有应用和数据环境进行现代化改造,消除现有系统和存储平台之间的障碍,提高基础架构的可持续性,并在云端、数据中心和边缘之间找到平衡点。
那么,如何以开源的方式将AI带入企业?在不久前举办的2024红帽全球峰会上,多年来在全球开源技术发展中扮演重要角色的红帽公司宣布一系列与人工智能相关的创新,包括RHEL AI、OpenShift AI和Lightspeed等,并与NVIDIA等合作伙伴在混合云和AI领域展开合作。
近日,红帽全球副总裁兼大中华区总裁曹衡康、红帽大中华区资深市场总监赵文斌、红帽大中华区解决方案架构部高级总监王慧慧等高管在开放日活动中,进一步阐释了红帽的AI 理念和解决方案,同时分享了红帽在中国的发展策略和实施举措。
直面多元复杂环境下的新挑战
在人工智能模型从实验阶段转向投产阶段的过程中,客户面临着诸多挑战,包括硬件成本增加、数据隐私问题以及在与基于SaaS的模型共享数据时缺乏信任。
生成式AI的快速变化加剧了上述矛盾,许多企业都在积极构建可靠的核心人工智能平台,使其能够在本地或云端运行。对红帽而言,这意味着人工智能平台必须具备灵活性,以支持企业在采用AI的过程中取得突破性进展。
据了解,红帽致力于支持小型的开源模型进行混合部署。企业可以在公共云或自己的数据中心训练这些模型,并在边缘部署它们。此外,红帽的平台设计支持所有主流GPU提供商,包括NVIDIA、AMD和Intel,旨在为企业今天和将来使用的硬件以及模型运行的位置提供从公共云到边缘的灵活性。
驱动AI与传统IT技术加速融合
从AI落地的角度看,运行一个已经构建好的模型固然重要,但更为强大的是能够通过训练模型来定制自己的解决方案,并在实践中加以应用。
这正是红帽致力于驱动RHEL和RHEL AI,以及OpenShift和OpenShift AI发展的重要原因。RHEL用于运行所有可在Linux上运行的应用程序,而RHEL AI则用于运行可通过训练和定制的大型语言模型的AI部分;OpenShift用于管理可在RHEL上以分布式方式跨集群运行的应用程序,而OpenShift AI则以相同的方式管理一系列模型,高效地分割训练、使用和提供服务。
不难看出,传统IT技术与人工智能应用程序之间会产生许多交叉链接。红帽的混合平台关注应用程序的全生命周期演进,通常从Linux开始,然后转向OpenShift、中间件和运行时环境。相较而言,RHEL AI更专注于为大模型创建业务安全、管理生命周期和提供可预测性,并使用户能够对其进行修改。这是专为引入新类别硬件而设计的堆栈,类似红帽推出RHEL时所做的工作,目标是支持大模型与传统应用程序的融合。
奔赴开源创新的星辰大海
在过去三十多年中,开源技术不仅推动技术快速创新,还大幅降低IT成本以及企业应用门槛。从基于RHEL提供开放式企业Linux平台,到借助OpenShift推动容器和Kubernetes成为开放式混合云和云原生计算的基础,红帽始终引领着开源演进的方向。
适逢AI加速落地的时间窗,红帽在开放混合云中赋能人工智能/机器学习战略,支持AI工作负载在数据所在的地方运行。除了支持工作负载外,红帽还在模型训练和优化等方面发力,以更好地应对数据主权、合规和操作完整性等方面的挑战。
曹衡康认为,在国内市场,采用轻量化的开源模式向各个行业渗透,是加速AI落地的有效路径。目前,红帽在金融、智能制造等领域已打造诸多成功案例,未来有望在更多行业取得丰硕成果。
站在更长远的视角,AI彻底打开了开源创新向上突围的天花板,以红帽为代表的探路者正砥砺前行,更精彩的篇章还在后面。