订阅内容

简而言之,红帽认为,实现开源 AI 的最低标准是将采用开源许可的模型权重与开源软件组件相结合。

三十多年前,红帽就已觉知开源开发和许可证在创造更好的软件以推动 IT 创新方面的潜力。历经三千万行代码的征程,Linux 不仅发展成为最成功的开源软件,更是迄今为止最成功的软件。时至今日,我们对开源原则的承诺依然坚定,这不仅体现在我们的业务模式中,还融入到我们的企业文化中。我们相信,如果方法得当,这些理念在人工智能(AI)领域也能产生同样的影响力。然而,对于何为“正确方法”,科技界却存在着明显的分歧。

AI,尤其是驱动生成式 AI(gen AI)的大语言模型(LLM),不能完全等同于开源软件来看待。与软件不同,AI 模型主要由模型权重组成,这些数值参数决定了模型如何处理输入信息,以及在不同数据点之间建立何种联系。经过训练的模型权重是指,利用精心准备、混合和处理的大量训练数据进行广泛的训练而取得的结果。

尽管模型权重并非软件,但在某些方面,它们发挥着与代码类似的作用。人们很容易做出这样的类比:数据就是模型的源代码,或者类似于模型的源代码。在开源领域,源代码通常被定义为对软件进行修改的“首选形式”。然而,仅凭训练数据并不能担当这一角色,因为训练数据规模通常极为庞大且预训练过程非常复杂,导致训练数据中的任何一项与训练后的权重以及模型所表现出的行为之间,仅存在微弱且间接的联系。

当前,AI 领域的大多数模型改进和优化并不依赖于对原始训练数据的访问或操作。这些提升主要通过对模型权重的修改或执行微调流程来实现,此类方法同样能够有效优化模型的性能。要支持自由地对模型进行这些改进,就需要在发布权重时赋予用户开源许可证所涵盖的各项权限。

红帽对开源 AI 的看法。

红帽认为,实现开源 AI 的最低标准是将采用开源许可的模型权重与开源软件组件相结合。这是开源 AI 的起点,而不是终点。我们鼓励开源社区、监管机构以及整个行业在训练和微调 AI 模型时,继续努力提高透明度并遵循开源开发原则。

这是红帽作为开源软件生态系统主导者,对于如何切实参与开源 AI 领域的看法。这并非像开放源代码促进会(OSI)制定开源 AI 定义(OSAID)那样,试图给出一个正式定义。到目前为止,我们的观点仅仅是基于自身理解,阐述了如何实现开源 AI,并使其能为最广泛的社区、企业组织和供应商所用。

我们在开源社区的工作中将这一观点付诸实践,尤其是红帽主导的 InstructLab 项目,以及我们与 IBM 研究院围绕 Granite 系列开源许可模型所开展的工作。InstructLab 显著降低了非数据科学家参与 AI 模型开发的门槛。借助 InstructLab,来自各行各业的领域专家能够将自身技能与知识融入其中,而且既可供内部使用,也有助于为上游社区推动打造一个共享、广泛可用的开源 AI 模型。

Granite 3.0 模型系列可应对广泛的 AI 用例,从代码生成、自然语言处理到从海量数据集中提取见解,这一切均在宽松的开源许可证下实现。我们帮助 IBM 研究院将一系列 Granite 代码模型引入开源领域,并继续从开源的角度以及作为红帽 AI 产品的一部分,持续为该模型系列提供支持。

DeepSeek 最近发布的公告所引起的反响,展示了开源创新在模型层面及其他方面对 AI 可能产生的影响。显然,人们对 DeepSeek 的做法存在担忧,主要是该模型的许可证并未阐明其生成方式,这进一步凸显了透明度的必要性。尽管如此,这一颠覆性发展也印证了我们对于 AI 未来的看法:未来是开放的,以规模更小、经过优化且全面开源的模型为核心,而且这些模型能够针对混合云中任何地方的特定企业数据用例进行定制。

拓展开源 AI,超越模型范畴

开源技术和开发原则是红帽 AI 产品的核心,正如它们在红帽 AI 产品组合中所体现的那样。红帽 OpenShift AI 以 Kubernetes、KubeFlow 和符合开放容器计划(OCI)的容器为基础,同时还依托一系列其他云原生开源技术。红帽企业 Linux AI(RHEL AI)则融合了 IBM 具有开源许可的 Granite LLM 系列以及 InstructLab 开源项目。

红帽在开源 AI 领域的工作远远超出了 InstructLab 和 Granite 模型系列,涵盖了实际使用和高效利用 AI 所需的工具和平台。我们积极参与了越来越多的上游项目和社区,还自行发起了更多项目,其中包括(但不限于):

  • RamaLama:一个开源项目,旨在大幅降低 AI 模型本地管理与服务的难度和复杂性;
  • TrustyAI:一个用于构建更负责任的 AI 工作流的开源工具包;
  • Climatik:一个专注于提升 AI 在能源消耗方面可持续性的项目;
  • Podman AI Lab:一个专注于促进开展开源 LLM 实验的开发人员工具包。

我们最近发布的关于 Neural Magic 的公告进一步推进了我们的 AI 愿景,使企业组织能够将规模更小且经过优化的 AI 模型(包括开源许可模型)与他们分布在混合云各处的数据相适配。随后,IT 组织可以使用 vLLM 推理服务器来为这些模型的决策和输出提供支持,从而帮助构建一个基于透明且受支持的技术的 AI 堆栈。

在红帽看来,开源 AI 的蓬勃发展与混合云息息相关。混合云提供了极为必要的灵活性,使我们能够为每个 AI 工作负载选择最佳环境,从而优化性能、成本、可扩展性以及安全防护方面的需求。我们的平台、目标和企业组织都在全力支持这一工作,并且我们期待在继续推动开源 AI 创新的过程中,与行业合作伙伴、我们的客户以及更广泛的开源社区展开合作。

在 AI 领域,拓展这种开放协作的潜力巨大。展望未来,模型以及训练方面都将展开透明化运作。无论是下周还是下个月(考虑到 AI 发展之迅猛,甚至可能更快),我们将继续支持并积极参与各类举措,力求突破界限,推动 AI 领域的民主化与开放化进程。


关于作者

Chris Wright is senior vice president and chief technology officer (CTO) at Red Hat. Wright leads the Office of the CTO, which is responsible for incubating emerging technologies and developing forward-looking perspectives on innovations such as artificial intelligence, cloud computing, distributed storage, software defined networking and network functions virtualization, containers, automation and continuous delivery, and distributed ledger.

During his more than 20 years as a software engineer, Wright has worked in the telecommunications industry on high availability and distributed systems, and in the Linux industry on security, virtualization, and networking. He has been a Linux developer for more than 15 years, most of that time spent working deep in the Linux kernel. He is passionate about open source software serving as the foundation for next generation IT systems.

Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

按频道浏览

automation icon

自动化

有关技术、团队和环境 IT 自动化的最新信息

AI icon

人工智能

平台更新使客户可以在任何地方运行人工智能工作负载

open hybrid cloud icon

开放混合云

了解我们如何利用混合云构建更灵活的未来

security icon

安全防护

有关我们如何跨环境和技术减少风险的最新信息

edge icon

边缘计算

简化边缘运维的平台更新

Infrastructure icon

基础架构

全球领先企业 Linux 平台的最新动态

application development icon

应用领域

我们针对最严峻的应用挑战的解决方案

Original series icon

原创节目

关于企业技术领域的创客和领导者们有趣的故事