Directory

AI 基础模型和端点 | NVIDIA

NVIDIA AI 基础模型和端点

针对企业生成式 AI 进行优化

什么是 NVIDIA AI 基础模型和端点?

NVIDIA AI 基础模型是由社区和 NVIDIA 共同构建的模型,并且经过 NVIDIA 优化,可在 NVIDIA 加速基础设施上获得出色的性能。企业可以通过 NVIDIA 微服务自定义和部署这些模型,并简化向生产级 AI 的过渡。

您可以浏览 NVIDIA API 目录,并直接从浏览器体试用验模型;也可以连接到 NVIDIA 托管的端点,免费启动 POC。

缩短向生产级 AI 过渡所需的时间

使用 NVIDIA NIM 可以大规模部署 NVIDIA AI 基础模型。NVIDIA NIM 是一组易于使用的微服务,采用了行业标准 API,能够确保在本地或云端进行无缝、可扩展的推理。

为企业应用程序构建自定义生成式 AI 模型

NVIDIA AI 代工服务是 NVIDIA AI Foundation 模型、 NVIDIA NeMo™ 框架和工具以及 NVIDIA DGX™ Cloud 的集合,为企业创建自定义生成式 AI 模型提供了端到端解决方案。

体验先进的生成式 AI 模型

如果您还没有决定,不妨先试用领先的基础模型,包括 Llama 2、Stable Diffusion 和 NVIDIA 的 Nemotron-3 8B 系列(均已针对超高性价比性能进行了优化)。

自定义基础模型

您可以通过 NVIDIA NeMo 使用专有数据来优化和测试 Foundation 模型。

在云端更快地构建模型

您也可以选择在 DGX Cloud 上定制模型。DGX Cloud 是一个无需使用服务器的 AI 训练即服务平台,适合企业开发者使用。

 

在生产环境中运行模型

利用企业级 NVIDIA NIM 在任意位置部署自定义模型和 NVIDIA AI 基础模型。

NVIDIA AI 基础模型和端点的优势

经过优化的性能

推理速度最高可达传统方法的 4 倍,有助于降低总拥有成本 (TCO) 并提升能效。

适合企业级需求

精简的高性能大语言模型 (LLM) 使用由负责任来源提供的数据集构建而成,可满足企业级需求。

简单快捷的模型测试

可通过 GUI 或 API 直接从浏览器体验模型的峰值性能。

易于集成的 API

您可以将自己的应用连接到 API 端点,测试它们在全面加速的堆栈上运行时的实际性能。

模型可部署在任意位置

借助 NVIDIA AI Enterprise,您可以在云端、数据中心、工作站等任意位置运行这些模型。

体验经过优化的生成式 AI 模型

NVIDIA AI Foundation 模型包含由社区和 NVIDIA 构建的先进模型,能够支持广泛的用例,包括内容生成、图像创建、药物研发和 IT 服务自动化等等。

Llama 2

Llama 2 是一种大语言 AI 模型,能够根据提示生成文本和代码。

Stable Diffusion XL

Stable Diffusion XL (SDXL) 可根据更简短的提示生成富有表现力的图像,并在图像上嵌入文字。

Nemotron-3-8B-QA

NVIDIA Nemotron-3 8B 是一款企业级问答 LLM,可供企业针对所在领域进行定制。

借助检索增强生成 (RAG) 技术,为您的企业应用注入强劲动力

构建可与您的自定义 LLM 和知识库连接的 AI 聊天机器人,准确、自然地实时回答特定领域的问题。

成功案例

从 IT 服务和电信到金融和零售,生成式 AI 正在影响当今的各行各业。要将生成式 AI 运用到实践中,企业需要借助于 AI 代工服务,以便利用专有数据构建自定义模型并进行大规模部署。了解世界领先的企业组织如何利用 NVIDIA AI 为其客户提供服务。

生态系统合作伙伴

开始行动

试用全面优化的最新 NVIDIA AI 基础模型 (可从 NGC 目录、Azure ML 模型目录或 Hugging Face 获取),获得第一手体验。

订阅提醒,当有新模型经过优化并添加到 NVIDIA AI 基础模型集合中时接收通知。

探索其他生成式 AI 资源和工具。