庆云古诗词

庆云古诗词

chatgpt和aigc都是人工智能吗 ai产品经理视角下的chatgpt全解析

淘文章 0
ChatGPT和AIGC的关系,ChatGPT和AIGC的区别
出chatgpt独享账号!内含5美元!仅需38元/个!独享永久使用!点击购买!自动永久激活office/【【微信】】6,2013、win10/win11工具,仅需15元,点击购买! 头条号:人工智能研究所 微信号:启示AI科技 视频号:启示科技

上期图文教程,我们介绍了ChatGPT的注册使用过程,并且介绍了GPT-3代API接口的开发代码实现过程,由于ChatGPT一直使用的是ChatGPT-3.5代接口,且我们在官网上面使用的也是ChatGPT-3.5代接口,大家对3.5代接口都十分认同,上期介绍的ChatGPT-3代API虽然可以实现问答对话,但是大家希望是否可以使用官方的接口来实现强大的ChatGPT功能。关于如何注册,如何获取API key,上期图文我们也进行了详细的分享。

本期,我们介绍一下openai刚刚公布的ChatGPT的API接口gpt-3.5-turbo。首先其gpt-3.5-turbo接口API是官方刚刚发布的gpt-3.5-turbo API接口,针对第三代接口进行了速度与精度方面的优化,其官方也是建议开发者使用gpt-3.5-turbo API接口,且价格是3代API 接口的十分之一的价格。我们首先介绍一下openai发布的gpt-3.5-turbo API如何使用re【【微信】】库进行调用。

import re【【微信】】 # Your OpenAI API Key 【【微信】】="YOUR KEYS" # The text prompt you want to generate a response input_prompt=input("输入需要跟chat AI的聊天内容:") prompt=input_prompt # The URL for OpenAI's API url="https://api.openai.com/v1/chat/【【微信】】" # The headers for the API re【【微信】】={ "Content-Type": "application/json", "Authorization": f"Bearer {【【微信】】}" } data={ "model":"gpt-3.5-turbo", "messages":[")

首先,跟往期教程类似,我们需要使用re【【微信】】库,并需要官方账号的【【微信】】。然后就可以输入需要的问题了。当然gpt-3.5-turbo的API接口地址如下:

url="https://api.openai.com/v1/chat/【【微信】】"

我们可以使用往期的代码,把需要的问题post到上面的API接口接口。这里需要注意的是gpt-3.5-turbo的API接口使用的不再是prompt,而是messages参数,且参数格式如下:

messages=[ ]

在messages参数里面,我们需要指定role角色与content我们的问题,然后其他参数跟3代API接口一致。

{ 'id': 'chatcmpl-6p9XYPYSTTRi0xE【【微信】】', 'object': 'chat.completion', 'created': 1677649420, 'model': 'gpt-3.5-turbo', 'usage': {'prompt_tokens': 56, 'completion_tokens': 31, 'total_tokens': 87}, 'choices': [ { 'message': { 'role': 'assistant', 'content': 'The 2020 World Series was played in Arlington, Texas at the Globe Life Field, which was the new home stadium for the Texas Rangers.'}, 'finish_reason': 'stop', 'index': 0 } ] }

当然,最后的返回参数也有稍微的区别,我们需要使用如下代码获取返回的参数。

response.json()['choices'][0]['message']['content']

当然,除了以上直接调用API接口外,openAI也开发了自己的第三方库

import openai openai.【【微信】】='sk-keys' while True: prompt=input('Q:') 【【微信】】=='quit': break else: res=openai.ChatCompletion.create( model='gpt-3.5-turbo', messages=[], temperature=0.5, max_tokens=500, fre【【微信】】=0, presence_penalty=0 ) print('***********GPT-3.5 Open AI**************') print(res['choices'][0]['message']['content'])

首先需要我们安装openai 的第三方库,这里最好自己的python版本大于3.9,安装完成后,我们便可以使用openai库进行chatGPT的调用工作了。

第二行代码,我们需要提供上一个步骤的【【微信】】

然后,我们直接使用openai.ChatCompletion.create函数就可以调用chatGPT了。

同样的道理,我们需要修改一下里面的参数,一个是model参数,另外一个是messages参数。

model='gpt-3.5-turbo', messages=[],

以上,便是我们介绍的ChatGPT 官方API接口gpt-3.5-turbo,当然openAI除了ChatGPT这样的NLP领域任务外,还有类似DALL-E的AI绘画模型,且官方开源的whisper,可以识别99种语音的识别系统,不仅可以语音转文字,还可以自动翻译等。

更多transformer模型 VIT模型 【【微信】】模型 参考头条号:人工智能研究所

VX搜索小程序:AI人工智能工具,可以免费体验ChatGPT

【本文地址】

openai的发展趋势 open ai产业链

openai官网,openai和微软的关系,openai账号购买,openai老板

据报道,为当前人工智能热潮提供支撑的最重要“原材料”的价格正在快速下降,这将有助于这项技术更快地进入主流。然而,这也威胁到了那些希望从这股热潮中获利的创业公司的财务状况,并可能导致行业主导权集中在一小部分公司的手中。

这里的原材料指的是大语言模型(LLM)的处理能力。这些模型支撑着ChatGPT和微软新必应搜索等服务。

运行这些模型原本需要高昂的算力成本,因此可能会严重拖累模型的广泛应用。搜索引擎【【网址】】首席执行官、知名计算机科学家理查德・索切(Richard Socher)表示,就在几周前,【【网址】】使用人工智能提供搜索服务的成本还比传统互联网搜索高出50%。但到上月底,由于大语言模型公司OpenAI、Anthropic和Cohere之间的激烈竞争,这一成本差异下降到只有约5%。

几天后,OpenAI发布了一项新服务,让开发人员可以直接使用ChatGPT,并将使用这项技术的价格削减了90%。

这对客户来说是好事,但对OpenAI的竞争对手来说可能是毁灭性的。包括Anthropic和Inflection在内的许多公司已经完成或正在融资,以支撑各自大语言模型的发展。

很少有像大语言模型这样的技术能如此迅速地从实验室研究直接进化到大规模商用,这也促使研究者纷纷将实验室环境的开发过程“工业化”。性能上的大部分提升以及成本的下降主要来自运行大语言模型的底层计算平台的优化,以及对模型训练和运行方式的改进。

从某种角度来看,硬件成本的大幅下降有利于所有的市场参与者。这其中包括为满足最新人工智能模型要求而设计的高性能芯片,例如英伟达H100 GPU。微软在其Azure云计算平台上运行OpenAI的模型,并向其他大语言模型公司提供相同的高性价比硬件支持。

然而,大语言模型既是科学,也是艺术。OpenAI表示,自去年12月以来,ChatGPT对于处理查询的方式进行了“一系列系统范围的优化”,使成本降低了90%,最终带来了面向用户的大幅降价。

训练大语言模型需要花费数千万美元,而处理这类任务的技术也在快速变化。至少在短期内,一小部分具备模型开发和训练经验的人才将可以获得更大的优势。

当最优秀的技术被广泛理解和采用时,早期参与者可能已经获得了先发优势。微软云计算和人工智能部门负责人斯科特・格斯里(Scott Guthrie)提到了GitHub Copilot等新服务。该服务于去年夏季推出,向软件开发者提供代码建议。在被广泛使用后,这类服务将会迅速优化。他本周在摩根士丹利的一场投资者会议上表示,来自这类服务用户的“信号”很快就将成为产品重要的差异化点。

OpenAI竞争对手的主要希望在于,提供额外的服务,帮助开发者和大企业客户更方便地使用大语言模型,以及针对细分市场探索满足特定业务需求的模型。

例如,以色列创业公司AI21 Labs本周发布了最新的大语言模型,同时也发布了一系列API(应用程序接口),以提供文字概要或改写等更高级的服务。

AI21联席首席执行官奥利・格申(Ori Goshen)表示,大部分公司不会使用类似ChatGPT的通用模型,而是需要针对金融或医疗等行业训练的模型,或是基于某个公司自有数据训练的模型。

他认为,大语言模型目前还处于初级阶段,还有很多工作需要完成,例如减少模型说假话的倾向,以及防止模型产生“幻觉”,提供与事实无关、似是而非的答案。如果希望取得成功,人工智能公司还需要持续进行前沿探索。

不过目前的事实是,这些生成式人工智能的基础成本正在大幅下降。OpenAI的降价是一个信号,表明这项技术将以非常快的速度进入大规模商用。但这同时也带来了警示,表明这个行业未来可能不会有太多公司有实力参与。