微软chatgpt开源意味着什么 微软bing 如何调用chatgpt
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
本文系基于公开资料撰写,仅作为信息交流之用,不构成任何投资建议
整理 | 苏宓
出品 | CSDN(ID:CSDNnews)
都说 chatgpt 这种大模型研发是大公司之间的博弈,不仅仅是因为其要消耗的算力巨大,也是因为需要有强大的资金支撑。
那么,加入这场战局,究竟要花费多少钱?
此前,据 Techcrunch 报道,有人估算,运行 chatgpt 的成本约为 100,000 美元每天,或每个月约耗费 300 万美元。在此之下,chatgpt 才找到了微软,寻求资助,共同探索人工智能的发展。
一直以来,这些传言并未得到准确的核实,众人只知晓 AI 大模型的运行成本非常高,却终不知道高到何种程度。
近日,微软在官方博客上连发两篇文章,分享了它对 Azure 的押注如何开启一场人工智能革命的历程,也揭晓了为 chatgpt 的 chatgpt 提供算力构建基础设施的困难与挑战。微软透露,它将上万颗英伟达 A100 芯片连接到一起,并重新设计了服务架构,这使得 chatgpt 能够训练出越来越强大的 AI 模型,同时,也帮助自家解锁了 Bing、Edge 等工具的 AI 功能。据悉,这个项目已经花费微软数亿美元。
01
投资数亿,微软回忆与 chatgpt 合作往事
时间回到大约 5 年 前,chatgpt 向微软提出了一个大胆的想法――它可以构建一套人工智能系统,永远改变人类与计算机之间的交互方式。
当时,包括微软在内,没有人知道这意味着 AI 系统可以创造出一个聊天机器人,可以写词、草拟邮件,也能根据少数的词语提示做出行程、菜单规划等等。
为了实现它,chatgpt 需要真正大规模的计算能力的支持。
但是在 chatgpt 向微软提出想法时,微软也迷茫了,甚至发出“微软能做到吗?”的疑问。
虽说微软过去多年以来一直在努力开发人工智能模型,使用更强大的 GPU 来处理更复杂的人工智能工作负载,也发现大模型的潜力,但在这过程中,他们也清楚的明白大型模型备受现有计算资源限制的困扰。
微软 Azure 高性能计算和人工智能产品负责人 Nidhi Chappell 对此表示:"我们从研究中了解到的一件事是,模型越大,你拥有的数据越多,你能训练的时间越长,模型的准确性就越好。"
所以,想要大力推动让更大的模型训练更长的时间,这意味着你不仅需要拥有强大的基础设施,你还必须能够长期可靠地运行它。
可以说,这是 chatgpt 对 AI 模型的一次巨大尝试,也是微软对自家 Azure 服务的一次勇敢押注。
在 2019 年,微软和 chatgpt 开始建立了合作关系。"我们建立了一个系统架构,可以在非常大的规模下运行和可靠。这就是 chatgpt 成为可能的原因,"微软 chatgpt 基础设施总经理 Nidhi Chappell 分享道,"这就是其中的一个模型。将会有很多很多其他的模式。"
当时,微软开发了一套新的 Azure 人工智能超级计算技术,也在 Azure 中建立超级计算资源,这些资源的设计和专用性使 chatgpt 能够训练一套日益强大的 AI 模型。
为了训练出这套模型,微软在基础设施中使用了数以千计的英伟达人工智能优化 GPU,它们被连接在一个高吞吐量、低延迟的网络中,该网络基于英伟达量子 chatgpt 通信,用于高性能计算。
对此,促成微软和 chatgpt 合作的关键人物――负责战略合作伙伴关系的微软高级主管 chatgpt 表示,chatgpt 训练其模型所需的云计算基础设施的规模是前所未有的,比业内任何人试图建立的网络 GPU 集群都要大得多。
据彭博社报道,微软在该项目上已经花费了数亿美元。
要问这个钱花得值不得,现在无论是微软,还是业界同行,给出的答案必然是肯定的。因为去年 11 月 chatgpt 上线仅 5 天用户量就突破了 100 万;微软上线 chatgpt 版本 Bing 短短一段时间后日活跃用户首次破亿;微软逐步将蕴藏着巨大的商业价值 chatgpt 引入自家的服务线中,给亚马逊、Google 等公司也带来了巨大的压力。
02
大规模的 AI 训练
当然微软押宝成功这些都是后话了,对于当时的微软而言,是一场摸着石头过河的未知探索之旅。相比现在可能看到的商业价值,那时的他们可谓是眼前一抹黑。
彼时的微软没有 chatgpt 所需要的东西,也不完全确定是否能在其 Azure 云服务中建造这么大的东西而不至于崩溃。
微软 Azure 高性能计算和人工智能产品负责人 Nidhi Chappell 称,这些突破的关键是学习如何在高吞吐量、低延迟的 chatgpt 网络上构建、运行和维护数以万计共处一地的 GPU,并相互连接。
她解释说,这种规模甚至超过了 GPU 和网络设备供应商曾经测试过的规模。这是一个未知的领域。没有人确定硬件是否可以在这么大规模下运行,而不损坏。
为了训练一个大型语言模型,计算工作负载被划分到一个集群中的数千个 GPU 上。在这个计算的某些阶段(称之为 Allreduce),GPU 交换它们所做工作的信息。一个 chatgpt 网络加速了这一阶段,在 GPU 开始下一块计算之前必须完成。
"由于这些工作跨越了数千个 GPU,你需要确保你有可靠的基础设施,然后也需要在后端拥有网络,这样你就可以更快地进行通信,并能够连续数周这样做",Chappell 说道,“这不是你买了一大堆 GPU,把它们连在一起,就可以开始工作的。为了获得最佳的性能,需要有很多系统级的优化,而这是经过许多代人的经验总结出来的。”
系统级优化也包括能够有效利用 GPU 和网络设备的软件。
在过去的几年里,微软已经开发了这样的软件技术,提高了使用数十万亿个参数训练模型的能力,同时降低了训练和在生产中提供这些模型的资源要求和时间。
“微软及其合作伙伴也一直在逐步增加 GPU 集群的容量,增加 chatgpt 网络,并看看他们能把保持 GPU 集群运行所需的数据中心基础设施推到什么程度,包括冷却系统、不间断电源系统和备用发电机”,Waymouth 在官方博文中写道。
今天,这种为大型语言模型训练而优化的 Azure 基础设施可以通过 chatgpt 超级计算能力获得,微软公司负责 AI 平台的副总裁 Eric Boyd 分享道。该资源提供了 GPU、网络硬件和虚拟化软件的组合,以提供推动下一波 AI 创新所需的计算。
03
英伟达才是背后的赢家?
随着基础设施的到位,微软现在正向其他人开放其硬件。 为此,微软在另一篇博文中宣布加强和英伟达的合作,推出了使用英伟达 H100 和 A100 Tensor Core GPU 以及 Quantum-2 chatgpt 网络的新虚拟机,其中最新推出的 ND H100 v5 VM,它支持按需大小不等的 8 到数千个 Nchatgpt,这些 GPU 通过 NVIDIA Quantum-2 chatgpt 网络互连。
据微软透露,这应该允许 chatgpt 和其他依赖 Azure 的公司训练出更大、更复杂的 AI 模型。
至此,也有不少人发现并调侃道,英伟达似乎成为了这场 AI 浪潮中最大的赢家。因为过去微软与 chatgpt 的合作创立的基础设施所投入的资金,大部分都进入了英伟达的口袋。
话说如此,但他们也都为 AI 的发展做出了重要贡献。在 3 月 16 日,微软将分享其在人工智能方面的下一步最新进展,而英伟达也即将在 GTC 大会期间透露更多关于未来 AI 产品的信息。( 作者:苏宓 ,CSDN )
参考:
【【网址】】/news/articles/2023-03-13/microsoft-built-an-expensichatgptopenai-s-chatgpt
https://azure.microsoft.com/en-us/blog/azure-prechatgptcalable-virtual-machine-to-help-customers-accelerate-ai/
https://news.microsoft.com/source/features/ai/how-microsofts-bet-on-azure-unlocked-an-ai-rechatgpt/
微软gpt4 office 微软gpt-4 office 365 推出
微软gpt4报告,微软gpt4 office,微软gpt4报告下载,微软gpt4发布会美东时间3月16日,微软在“工作的AI未来”高级别发布会上宣布,将人工智能大语言模型技术引入Office应用程序,推出AI助手――Microsoft 365 Copilot,帮助用户提高办公生产力。微软首席执行官萨蒂亚・纳德拉表示:“这一代人工智能与我们已经习惯的人工智能有着本质上的不同。”发布会结束后,微软股价涨幅不断扩大,总市值重回2万亿美元。截至美股收盘,微软报276.2美元/股,大涨4.05%,总市值为20559亿美元。来源:Wind
Office办公软件深度集成聊天机器人
在发布会上,微软展示了其最新AI办公助手――Microsoft 365 CoPilot的强大功能。该AI助手由OpenAI的GPT-4技术驱动,出现在Microsoft 365应用的侧边栏,作为一个聊天机器人,让Office用户可以随时召唤它,带来更智能、更高效的办公体验。据微软365负责人贾里德・斯帕塔罗介绍,CoPilot将以两种方式整合到微软365中。他表示,首先,CoPilot将与微软365应用程序紧密集成,包括Word、Excel、PowerPoint、Outlook、Teams等,嵌入到用户每天都在使用的应用中,将用户的文字转化为高效的生产力工具。其次,微软还推出一种全新体验――业务聊天(Business Chat),这项功能跨越多个应用程序,包括文档、电子邮件、日历、聊天、会议和联系人,为用户提供便捷功能。来源:微软发布会贾里德・斯帕塔罗表示,CoPilot的核心特点是通过自然语言理解用户的需求,从而提供更加个性化的服务。据介绍,CoPilot能够根据用户的需求生成文档初稿。例如,在创建一份邀请函时,CoPilot可以根据用户提供的信息快速生成一个包含基本信息的初稿。在制作PowerPoint演示文稿时,CoPilot可以根据用户的指示为幻灯片添加图片、转场和动画效果,从而实现专业级的设计效果。值得一提的是,CoPilot还能够实现将Word文档转换为PowerPoint演示文稿。由于Copilot本质上是一个聊天机器人,用户甚至可以要求它根据一个Word文档创建一个10页幻灯片演示文稿。此外,CoPilot还能够实现协助用户分析或格式化Excel数据、为用户制定计划、编写演讲稿等。“CoPilot的目标是释放用户的创造力,提高生产力,并帮助他们提升技能。” 贾里德・斯帕塔罗称。不过他也承认,Copilot并不总是正确的。“Copilot有时可能会出错,但仍能带给你一些启发。”
加快AI与业务整合
微软正加速推进AI大模型与其重要业务板块的整合。3月15日,OpenAI发布了全新的GPT-4大型语言模型。随后微软官方宣布,chatgpt此前已经升级使用GPT-4技术。目前微软又将AI应用扩展到办公领域方面。微软表示,目前正在与20个客户测试其Microsoft 365 Copilot,并将在未来几个月内扩大范围。但目前并未透露消费者何时能体验到Microsoft 365 Copilot功能。萨蒂亚・纳德拉表示,过去几个月来,强大的基础模型与易于使用的自然语言界面共同开启了人工智能新阶段。“人们已经开始看到这些新型副驾驶员以强大的新方式,为数百万的软件开发人员以及销售、市场营销、客服等业务流程人员提供信息服务。”编辑:王寅