庆云古诗词

庆云古诗词

open ai使用教程 open ai有次数限制吗

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】


智东西(:【【淘密令】】)

作者 | ZeR0

编辑 | 漠影

智东西5月25日报道,和前两年一样,今年微软Build开发者大会再度以虚拟方式举行,并由微软董事长兼CEO萨提亚・纳德拉发表开场演讲。

本届大会的主角是人工智能(AI)、低代码和无代码开发,微软还特别为AI开发者打造了一款外形酷似Mac Mini的全新硬件Project Volterra。

这是一款迷你版台式机,由高通骁龙计算平台提供支持,内置神经网络处理器(NPU),方便开发者构建和执行本地AI加速任务。

微软还进一步降低AI开发和软件开发门槛,不仅公布新的OpenAI服务,允许开发者使用GPT-3自然语言模型的功能,而且着重推出自动转换编程语言、自动补写代码、查错等能力,甚至为其Power Apps平台新增了一项AI快速设计功能,可将手绘草图、图像、文档、设计文件或演示文稿自动转换为工作软件。

此外,为了持续优化远程协作办公,微软在其视频会议软件Microsoft Teams中推出一项实时共享新功能,方便参会者直接在远程会议期间实时地展示3D创作的编辑、创作、更改过程。

合作方面,Meta选择微软Azure作为战略云供应商,将使用Azure的超级计算能力加速AI研究与开发,并将合作扩大PyTorch在Azure上的应用,微软还将继续为PyTorch提供企业级支持。

微软也正与PyTorch和AMD合作,为在Azure上运行PyTorch的客户优化性能和开发者体验。

一、微软首款“台式机”:内置高通骁龙和NPU

微软正在开发【【微信】】的原生Arm版本和迷你版Arm PC。

虽然像Surface Pro X这样的Arm设备已经能够通过x64仿真运行【【微信】】,但一些功能没有得到支持,性能也有所限制。因此很多开发者都对听到更多Arm原生支持抱有期待。

微软正在创建一个全面的Arm原生开发工具链,包括【【微信】】、VC++、.NET和.NET框架的Arm原生版本。微软正在努力支持Open JDK、Python、LLVM、Node和Git作为原生针对Arm64的开源项目。

微软还再次与高通合作,打造了一款由Arm驱动的开发者设备Project Volterra。

这款迷你“台式机”外形与Mac Mini相似,拥有可堆叠的设计,开发者可将多台Project 【【微信】】堆叠在桌上或服务器机架内。

它内置有高通骁龙处理器、神经处理单元(NPU),适用于Windows的高通神经网络处理SDK工具包,可帮助开发者构建执行本地AI加速工作负载的应用。

Windows开发者能够在他们喜爱的所有生产力工具(包括【【微信】】、Windows Terminal、WSL、【【微信】】、Microsoft Office和Teams)旁边构建、测试和调试Arm原生应用程序。

这是微软构建智能混合计算世界愿景中的一环。微软希望,未来客户端与云之间的移动计算工作负载,将像今天手机在Wi-Fi和蜂窝网络之间移动一样动态和无缝。为此,微软一直在开发平台支持新兴的硬件平台和技术,包括MIPS、x86、Alpha、Itanium和x64在内的CPU。

微软尚未透露完整的规格,目前仅知Project Volterra由回收的海洋塑料制成,后面有3个USB端口、1个DisplayPort和1个以太网端口,侧面还有2个USB-C端口。微软后续会分享更多内容。

“我们希望您构建云原生AI应用。”Windows和设备负责人Panos Panay说,“使用原生Arm64 【【微信】】,.NET support和Volterra项目将于今年晚些时候到来,我们将发布新的工具,帮助您迈出这一旅程的第一步。”

有趣的是,两年前苹果宣布自家电脑芯片将从英特尔x86处理器向自研Arm处理器过渡时,也发布了开发者过渡套件(DTK),其Mac mini搭载了苹果基于Arm指令集架构研发的A12Z芯片。

去年微软曾在Build大会上宣布与高通合作,为开发者打造了一个基于Arm的开发工具包,以便为Windows构建原生Arm64应用。如今,双方的合作更进一步。我们也期待看到更多Arm驱动的Windows设备和应用。

【【微信】】的原生Arm预览版将在“未来几周内”发布,预计将于今年晚些时候完全发布,同时支持Arm64 .NET。

二、让数十亿人都能开发软件!从即时创建app,到自动翻译代码

基于大模型,微软公布了由顶尖AI研发机构OpenAI打造的AI大模型GPT-3提供支持的首款产品功能――不会编码,也能构建应用程序。

微软企业业务应用程序和平台副总裁Charles Lamanna认为,通过使用AI驱动的开发,从低代码到无代码,数十亿人将能够开发软件。

为此,Lamanna团队将GPT-3与微软低代码应用开发平台Microsoft Power Apps集成,用于一项名为Power App Ideas的功能,该功能允许人们在开源编程语言Power Fx中使用对话语言创建应用程序。Power Fx建立在Microsoft Excel上。

通过GPT-3支持的新功能,Microsoft Power Apps用户可以用会话语言描述编程目标,并将其自动转换为Power Fx代码。

无论是几乎没有编码经验的人,还是有深厚编程专业知识的专业开发者,都能借助这一新AI功能提高构建应用程序的效率。

此外,微软在Build大会上公布一项名为Power Apps Express Design的新功能:通过利用Azure认知服务的AI模型,用户只需点击几下,就能直接将纸质表格、PowerPoint、PDF、手绘草图、传统应用程序的UI屏幕截图、Figma专业设计资产等图像和设计文件即时转换为软件应用。

将草图上传至Express Design,即可快速生成可用的app

微软还宣布了其具备自动编程功能的GitHub Copilot和OpenAI Codex的更新:

GitHub Copilot在技术预览中的使用数据以及关于一般可用性的更新。Copilot项目将代码翻译成自然语言描述,可为新手开发者或从事不熟悉的代码库的人提供有效帮助。

OpenAI Codex源自GPT-3,可将自然语言翻译成十几种编程语言的代码。

例如,在图形渲染引擎Babylon.js中工作的创建者将“创建太阳系模型”输入文本框,AI驱动的软件会将该命令转换为太阳系模型的代码。

微软GitHub与OpenAI合作,将Codex集成到【【微信】】de等软件开发程序的可下载扩展GitHub Copilot中。

GitHub Copilot使用Codex从开发者的现有代码中提取上下文,可向开发者建议接下来可输入的代码和函数行。开发者还可以用自然语言描述他们想要实现的目标,Copilot将利用其知识库和当前上下文来提供方法或解决方案。

这些演示和相关代码将在GitHub上提供给微软Build的参会者。与会者还可以在3个月内无限制地访问OpenAI的Codex模型。

此外,微软的代码开发和托管平台Power Pages现可预览,低代码制作者和专业开发者可以借助这一平台高效设计、配置和发布桌面和移动网站。Power Pages经过重新设计,已经拥有全新的用户体验和许多新功能。

微软还将Azure Bot Framework Composer的专业代码功能的复杂性和Power 【【微信】】低代码平台的简易性进一步整合,方便专业及普通开发者协作构建智能机器人。

根据微软对近1000名商业决策者、用户及潜在用户关于低代码影响的调查,近90%的用户认为低代码对其生产力有积极的影响,83%的用户认为低代码使他们能够自己做一些通常需要开发团队的事情,超过80%的用户认为低码/无码平台提供了一个提高他们开发知识和技术能力的机会。

三、OpenAI服务现可预览,允许访问GPT-3和Codex

微软Azure人工智能为认知服务推出了两项更新。

一个是Azure OpenAI服务,现已可以预览。获批的用户可利用Azure的企业能力访问OpenAI的不同模型,包括GPT-3基础系列(Ada、Babbage、Curie和DaVinci)、Codex系列和嵌入模型。

OpenAI服务能帮助客户为写作辅助、代码生成和理解非结构化数据等用例构建先进的应用。通过微调和内置负责任的AI等功能,客户还可以根据具体需求定制模型,以检测和减少负面的应用。

另一处更新是Azure Cogniti【【微信】】服务。该服务可为文档和对话提供总结,帮助开发者快速浮现文档和联络中心电话中的关键信息,例如通话的原因和解决方案。

其他功能包括自定义命名实体识别,用于帮助开发者识别某个领域的特定术语;以及自定义文本分类,以帮助开发者用特定领域标签来组织和分类文本,如发票。

新西兰最大的农村供应合作社Farmlands使用Azure OpenAI服务来高效总结35万次客户互动

微软Azure机器学习负责任的AI仪表板功能现已进入预览阶段。

该AI仪表板汇集了数据资源管理器、公平性、模型可解释性、错误分析以及反事实和因果推理分析等多种功能,有助于开发者调试他们的模型,从而加速模型部署。

此外,Azure机器学习提供了一个负责任的AI记分卡,以总结模型性能和见解,帮助技术和非技术受众了解应用负责任AI的影响。

四、远程开会,还实时演示3D创作

“临场感是最终级的杀手级应用。”纳德拉说。

微软正不断为其Microsoft Teams视频会议软件建立更丰富的实时协作体验。最新增加的一个功能是实时共享(Live Share)。

对于具有Live Share功能的应用程序,Team允许参会者共同创建、编辑、注释、放大和缩小以及各种形式地进行共享内容的互动。

比如,Hexagon开发者创建了一个应用原型,在Teams中使用Live Share功能后,参会者可以一边开会,一边放大、注释和编辑3D模型。

微软还在Team中提供白板集成,其中包括与Live Share类似的共同创建和共同编辑体验。

Live Share工具建立在微软Fluid Framework上,只需几行代码,开发者便可借此创建更多共享和交互式服务和应用,微软已将Fluid作为其Loop组件集成到Teams和Outlook中。

五、与Meta合作加速AI与PyTorch应用

微软还宣布了与社交平台巨头Meta、芯片巨头AMD、知名开源平台Hugging Face的重要合作伙伴关系。

Meta选择Azure作为战略云供应商,帮助加速开发者的AI研究和实验。作为协议的一部分,Meta公司将扩大使用Azure的超级计算能力,以加速其Meta人工智能小组的AI研究和开发。

Meta将利用由5400个GPU组成的专用Azure集群,使用Azure中最新的虚拟机(VM)系列(【【微信】】系列,采用英伟达A100 Tensor Core 80 GB GPU),用于其一些大规模的AI研究工作负载。

此外,Meta与微软将合作扩大PyTorch在Azure上的应用,并加速开发者从实验到生产的过程。

在未来几个月,微软将建立新的PyTorch开发加速器,以促进在Azure上快速实施基于PyTorch的解决方案。微软还将继续为PyTorch提供企业级支持,使客户和合作伙伴能够在云和边缘的生产中部署PyTorch模型。

因为Azure将是第一个部署AMD旗舰M200 GPU用于大规模AI训练的公共云,微软正与PyTorch和AMD合作,为在Azure上运行PyTorch的客户优化性能和开发者体验,并确保开发者的PyTorch项目在AMD硬件上以最佳方式运行。

面向数据科学家和机器学习从业者的开源平台Hugging Face也将加深与微软的合作,并扩大其Azure的整合。

新的Hugging Face端点服务得到了Azure机器学习的支持,可在Azure市场上使用,将帮助开发人员和数据科学家更快速、更容易地部署成千上万的自定义或预训练的转换模型。

此外,Hugging Face和微软将把Pri【【微信】】和专家加速计划引入Azure,并使Hugging Face的API直接在Azure机器学习中消费。

六、其他AI更新:增强大规模管理部署,简化多种开发体验

Azure机器学习的其他更新包括:

(1)Azure机器学习管理端点现在普遍可用,可以帮助开发者和数据科学家更轻松地部署大规模机器学习模型,用于实时和批量推理。

(2)预览版AutoML功能包括对自然语言处理和图像任务的支持、模型训练代码的生成以及对产品集成和机器学习操作(MLOps)的增强。

(3)预览版Python SDK v2简化了开发者的体验,命令行界面v2允许用户无需学习特定的编程语言,即可参与机器学习的生命周期。

面向更具体的行业应用,Azure表单识别器在预览中增加新功能。用户可解锁新的文档处理场景,如利用保险卡和疫苗卡的预建模型简化病人的登记和疫苗验证。此外,针对段落、标题的布局能力使文本提取更加精确。

两名NHS外科医生正在使用Azure AI来发现手术期间面临更大风险的患者

微软智能数据平台现已全面上市,它是一个新的集成平台,将数据库、分析和治理统一起来,使企业能够投入更多时间创造价值,而不是整合和管理零散的数据资产。

微软智能数据平台使企业能够在快速发展的环境中轻松地进行调整,为他们的应用程序增加智能层,释放预测性的洞察力,并在任何地方管理他们的数据。它解决了客户的主要痛点,如市场分散,同时也使客户能够更有效地捕获和利用数据,以增加市场份额。

结语:AI和低代码开发,正成为微软的杀手锏

此次微软Build大会清晰传递出微软对AI开发、低代码&无代码产品以及协作开发的看重。

作为愈发被公认的生产力工具,AI不止被用于挖掘各行各业的数据价值和提高生产效率,也正驱动软件开发流程的创新与升级。

从微软提供的一系列工具,我们看到由AI驱动的模型和工具,可以帮助开发者清理数据、补写编程代码、转换编程语言、检查代码错误、调试错误,乃至直接将草图手稿转换成即时可用的app。

这些工具和平台,不仅进一步降低了AI与软件开发的门槛,使得开发者、工程师可以跳出一些繁琐的步骤,少掉几根头发,并将重心放到更有价值的创新工作上来。

OpenAI怎么使用(昨夜)由ChatGPT中文网发布,转载请联系本站书面授权。 特别声明:本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者在两周内速来电或来函联系。

open ai的技术是共享的么


栗子 编译整理

量子位 出品 | QbitAI

催更,他是认真的。

眼看着GPT-2编故事的技能就要冲出天际,OpenAI直说着不敢开源完整模型。

对此,多数小伙伴选取了嘲讽的语调,激励团队早日开源:不如改名ClosedAI算了。

不过,来自斯坦福的Hugh Zhang,使出了完全不同的催更技巧。

对于“这么危险,不能开源”的说法,这位NLP研究人员不以为然。且理由丰满,条分缕析。

首先,他觉得危险的技术分两种:一种是破坏性的,一种是欺骗性的。应该分开讨论。

第一种,如果是子弹,不会因为你明白它的威力,就躲着你走。

第二种,如果是假消息,你只要知道PS,就不会相信普京骑熊。

网上观摩一下,普京骑什么的都有。

Hugh还认为,GPT-2远远谈不上危险,且开源比不开源更安全。他事无巨细的论述,为GPT-2引来了又一波热烈的讨论。

我们就来观察一下,Hugh为什么会这样讲:

越公开,越安全

1825年,相机诞生,大家都认为这是记录历史的一种公正的方式。

不过,人类很快就发现照片可以修改。

1988年,Photoshop发布,那时照片修改早已不算罕见,但大众还是天然地担心:人人都能轻易编辑图像的话,技术很可能被滥用。

如今30年过去,Photoshop变成了顺理成章的存在,社会也并没有因此受到什么严重的伤害。

为什么会这样?

因为,大家都知道Photoshop是什么。

诚然,近年来语音、文本和图像生成技术的高歌猛进,可能引发某种恐惧,让一部分人感觉一场大难就要降临了。

但更有可能的是,这些技术的发展也像Photoshop走过的路那样:社会大众会去学习,然后变得更有警惕性,更懂得怀疑。

那么,具体到GPT-2身上,又是怎样的情况?

这AI也没那么强

GPT-2是个文本生成模型,OpenAI就用它生成的几个故事,向公众说明这AI是个危险的存在。

最著名的作品可能就是发现独角兽的故事了。

人类给AI的两句开头长这样:

科学家们有个令人震惊的发现,在安第斯山脉一个偏远且没被开发过的山谷里,生活着一群独角兽。更加让人讶异的是,这些独角兽说着完美的英文。

AI续写的第一段长这样:

这些生物有着独特的角,科学家们就以此为它们命名,叫Ovid’【【微信】】。长着四只角的银白色生物,在这之前并不为科学界所知。

(故事全文,请点这里)

在独角兽的故事里,需要注意两件事:

第一,我们看到的故事,是AI写了10次之后,人类选出的最好的一次结果。

第二,人类给的开头,其实也是精挑细选的。

具体讲讲第二点,为什么选了“说英语的独角兽”这样的设定?

因为,奇怪的设定可以掩饰AI的瑕疵。如此设定之下,就算AI写的句子再不切实际,读者都会觉得很合适。

以及,就算不考虑这一点,独角兽的故事还是有不少缺陷:

首先,第一句的角 (Horn) 用的是单数,表示这种生物只有一只角,也吻合了独角兽 (Unicorn) 名字的含义;可第二句却改口说有四只角。

许多同学都发现了这个bug。

还有,人类写的开头提到,独角兽的发现是近期的新闻;而AI写的第三句话,却说这次大发现,是两个世纪以前的事。

你可能问,我们这样挑错,是不是太苛刻了?

并不,这其实反映出深度学习模型一个很重要的问题:

AI没有理解,它生成的文本到底是什么意思。

其实,要生成“乍一看没问题”的句子,并不是很难。

比如,后现代主义论文生成器 (Postmodernist Essay Generator) ,以及数学论文生成器 (Mathgen) ,都能写出语法没错的句子,但语义上可能不起任何作用。

反正,给不懂数学的人看,这两个公式都像天书:

生成句子容易,上下文保持连贯就难了。

客观地说,GPT-2生成的作品,还是比之前所有的模型要好一大截;不过,和人类逻辑的一致性相比,它还差得很远。

GPT-2写出的那些故事,没有哪篇是能直接用来骗人的。

另外,也没有证据表明,15亿参数的GPT-2,比现在开源的缩小版更优秀。到目前为止,OpenAI官方并没有发布过GPT-2与任何现有模型的性能对比。所以,开源小模型,不开源完整模型,理由并不充分。

以及,OpenAI没有微调,所以也没办法在任何下游任务 (如概括、如翻译) 上,直接对比GPT-2和其他模型的表现。

为何应该开源完整版?

有些人会认为,没必要开源完整版,现在这个1.17亿参数的缩小版就够了。其实这是有问题的。

AI研究的爆发,一部分归功于开源:研究人员直接在现有模型基础上迭代,省去了重造轮子的时间。

作为现今最有影响力的AI研究机构之一,OpenAI拥有强大的开源传统,这也鼓励了其他研究团队开源自己的成果。

如果OpenAI的新政策反其道而行,许多其他研究人员也可能效仿。AI领域的开源文化,可能就会受到冲击,每个人都会有损失。

另外,开源也有利于把技术发展的消息,向领域之外的公众进行传播。

举个近期的例子。

英伟达开源了StyleGAN之后,用这个算法生成假脸的网站【【网址】】,速速成为了大众讨论的主角:

刷新一次,生成一张脸。要让普通人感受到AI技术的发展,可能没有比这更简单的体验了。

再举个例子。

世界上第一幅参加艺术品拍卖的AI画作,也是用开源算法生成的。

这幅名叫Edmond de Belamy的作品,在佳士得拍出约合300万人民币的价格,还引起了不小的争论。

就像前文说的,普通人越了解技术发展的程度,也就越有能力辨别AI生成物,越能避免被虚假消息淹没的灾难。

而如果OpenAI真的认为,这是一项非常危险的欺骗性技术,可以在发布论文之后,多等一段时日再开源。

这样,公众便有时间去了解它的生成效果有多逼真,做好准备。

One More Thing

不过,在Hugh的催更文发酵的同时,OpenAI也宣布了一项斩钉截铁的举措:

为了部落AI技术的安全,我们需要社会科学领域的贤才,现在已经开始招人啦!

这是一则认真的招聘启事,申请入口已开放,还附以OpenAI的一篇论文和一篇博客,以示决心。

核心观点就是:AI安全,需要社会科学家。

如果方针是安全为上,OpenAI谨慎的开源操作,大概也不会止于这一次了。

Hugh Zhang催更原文:

https://thegradient.pub/【【微信】】-please-open-source-your-language-model/

社会科学家投简历请至:

https://jobs.lever.co/【【微信】】/dd3f7709-6651-4399-b2b4-4f27abcbd296

探讨AI安全的论文:

https://distill.pub/2019/safety-needs-social-scientists/

GPT-2编的更多故事:

https://blog.【【微信】】.com/better-language-models/#sample8

― 完 ―

诚挚招聘

量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位(QbitAI)对话界面,回复“招聘”两个字。

量子位 QbitAI ・ 头条号签约作者

?'?' ? 追踪AI技术和产品新动态

OpenAI开源吗(OpenAI)由ChatGPT中文网发布,转载请联系本站书面授权。 特别声明:本站注明稿件来源为其他媒体的文/图等稿件均为转载稿,本站转载出于非商业性的教育和科研之目的,并不意味着赞同其观点或证实其内容的真实性。如转载稿涉及版权等问题,请作者在两周内速来电或来函联系。