当前位置: 首页 » 资讯 » 新零售 » 正文

微软推出Windows AI Foundry:用于本地人工智能开发的统一平台

IP属地 北京 编辑:顾雨柔 IT之家 时间:2025-05-20 01:06:35

5 月 20 日消息,在 Build 2025 开发者大会上,微软宣布了一系列针对 Windows 平台的 AI 开发新工具与功能,其中包括 Windows AI Foundry 的推出,这一全新的统一平台旨在为本地 AI 开发提供强大的支持,整合了 Windows Copilot Runtime 以及多项新能力,进一步推动 Windows 生态内的 AI 应用发展。

Windows AI Foundry 的推出标志着微软在本地 AI 开发领域迈出了重要一步。该平台通过整合 Windows Copilot Runtime 以及新增功能,为开发者提供了一系列强大的工具和资源。Windows Copilot Runtime 已经在 Windows 平台上为本地 AI 应用提供了支持,通过 Windows AI API 和 Windows 机器学习(ML)功能,让 AI 模型能够在本地持续运行。而 Windows AI Foundry 在此基础上进一步拓展,提供了即用型 AI API,这些 API 由内置的 AI 模型驱动,能够满足开发者在本地开发 AI 应用时的多样化需求。

此外,Windows AI Foundry 还提供了定制 Windows 内置模型的工具,开发者可以根据自身应用的特定需求对模型进行优化和调整。该平台还支持从 Azure AI Foundry 引入开源模型,进一步丰富了开发者可使用的模型资源。同时,它还提供了一个推理运行时,使得开发者能够将自己开发的模型轻松集成到应用中。

在 AI 模型的集成方面,Windows AI Foundry 展现了强大的兼容性。它不仅整合了来自 Azure Foundry Local 的 AI 模型,还支持其他模型目录,例如 Ollama 和 NVIDIA NIMs。微软自身的 Foundry Local 模型目录将提供经过优化的 AI 模型,这些模型能够在 CPU、GPU 和 NPU 等多种硬件平台上高效运行。开发者可以通过简单的“winget install Microsoft.FoundryLocal”命令来浏览、下载和测试与设备兼容的模型。一旦选定模型,开发者可以利用 Foundry Local SDK 轻松将 Foundry Local 集成到自己的应用中,大大降低了开发难度和时间成本。

据了解,Windows ML 作为 Windows 内置的 AI 推理运行时,是 Windows AI Foundry 的重要组成部分。其基于 DirectML 开发,能够在包括 AMD、Intel、NVIDIA 和 Qualcomm 在内的多种芯片平台上高效运行。Windows ML 的出现极大地简化了模型部署的流程,使得开发者无需担心未来硬件更新带来的兼容性问题。该运行时能够自动更新所有必要的依赖项,并在后台自动适配新的芯片架构,确保应用的稳定性和性能。

微软还宣布了对 LoRA(Low-Rank Adaptation)技术的支持,这一技术能够在 Phi Silica 模型上实现对模型参数的小部分微调。通过使用自定义数据进行微调,LoRA 能够显著提升模型在特定任务上的性能表现。目前,LoRA 已经作为 Windows App SDK 1.8 Experimental 2 的一部分进入公开预览阶段,并且已经在 Snapdragon X 系列 NPU 上实现支持。未来几个月内,LoRA 还将扩展到 Intel 和 AMD 的 Copilot+ PC 上,为更多开发者提供这一高效微调工具。

除了上述功能外,微软还推出了新的语义搜索 API,帮助开发者在其应用中创建 AI 驱动的搜索体验。这些 API 支持本地运行,并且集成了 RAG(Retrieval-Augmented Generation)技术,能够提供更加智能和高效的搜索结果。目前,语义搜索 API 已经在所有 Copilot+ PC 上进入私有预览阶段,开发者可以利用这些 API 将 AI 驱动的搜索功能集成到自己的应用中,为用户提供更加个性化的搜索体验。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。