红帽 AI
红帽® AI 可提供小型专用模型、高效的定制技术以及随时随地进行开发和部署的灵活性,有助于加快企业对 AI 的采用。
红帽 AI 可帮助您开启 AI 之旅或帮助您为扩展做好准备。
红帽 AI 产品
红帽企业 Linux® AI
红帽企业 Linux AI 可以为那些处于 AI 之旅初期阶段、尚未定义业务用例的客户提供帮助。该 AI 平台旨在开发、测试和运行生成式 AI(gen AI)基础模型。
功能和优势
包括 IBM 的 Granite 系列大语言模型
利用 InstructLab 在本地微调模型
对于 GPU 访问受限的客户而言,具有成本效益
红帽 OpenShift® AI
红帽 OpenShift AI 是专为准备好扩展 AI 应用的客户而打造的。此 AI 平台可帮助管理混合云环境中预测性 AI 和生成式 AI 模型的生命周期。
功能和优势
企业 MLOps 功能
包含 IBM Granite 大语言模型和 InstructLab 工具
利用硬件加速器和混合云支持,大规模构建和交付 AI。
什么是 InstructLab?
红帽的 InstructLab 是一个社区驱动的项目,它能让开发人员更轻松地尝试 IBM 的 Granite 模型,即使是那些机器学习经验极少的人也不例外。
如果您想在您的本地硬件上试验自己选择的 AI 模型或微调基础模型,那么这是一个很好的起点。
这种方法能够让您在准备好为您的企业采用 AI 之前,消除试验 AI 模型的成本和资源障碍。
红帽 AI 合作伙伴
AI 合作伙伴越多,意味着通向成功的途径就越多,因此您可以拥抱开放,选择无限。
红帽 AI 汇聚了众多专家和各种技术,让客户能够利用 AI 实现更多目标。各种技术合作伙伴与红帽携手合作,以认证他们的产品能否与我们的解决方案无缝衔接。此外,我们的生态系统也在不断地发展壮大。
解决方案模式
使用红帽技术和 NVIDIA AI Enterprise 构建的 AI 应用
创建 RAG 应用
红帽 OpenShift AI 是一个用于构建数据科学项目并为依托 AI 的应用提供服务的平台。您可以集成支持 检索增强生成(RAG)所需的所有工具,这是一种从自己的参考文档中获取 AI 答案的方法。将 OpenShift AI 与 NVIDIA AI Enterprise 关联后,您可以尝试各种 大语言模型(LLM),以找到适用于您应用的最佳模型。
构建文档处理管道
要使用 RAG,首先需要将文档导入到一个向量数据库中。在示例应用中,我们将一组产品文档嵌入到 Redis 数据库中。由于这些文档经常更改,我们可以为此过程创建一个管道并定期运行,以确保始终拥有最新版本的文档。
浏览 LLM 目录
NVIDIA AI Enterprise 支持访问不同 LLM 的目录,因此您可以尝试不同的选择,并选取能够提供最佳效果的模型。这些模型托管在 NVIDIA API 目录中。设置 API 令牌后,您就可以直接从 OpenShift AI 使用 NVIDIA NIM 模型服务平台来部署模型。
选择合适的模型
在测试不同的 LLM 时,您可以让用户对每个生成的响应进行评分。您还可以设置一个 Grafana 监控面板,用于比较各个模型的评分、延迟和响应时间。然后,您就可以根据这些数据来选择最适合在生产环境中使用的 LLM。