chatgpt 接口搭建小程序教程 windows chatgpt网页版搭建
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
原文链接:https://【【淘密令】】ve.io/posts/chatgpting-laf/
OpenAI 已经公布了 ChatGPT 正式版 API,背后的新模型是 gpt-3.5-turbo,这是 OpenAI 目前最先进的模型,响应速度更快,价格更便宜。
作为开发人员,我们还是希望通过 API 将 ChatGPT 和相关模型集成到自己的产品和应用中,尴尬的是,目前无法访问 ChatGPT API,原因大家都懂得。于是网上出现了各种各样的 API 反代服务,我们可以直接通过反代服务来变相访问 ChatGPT API。
即使我们解决了 API 的访问问题,还要准备一个开发环境,比如对于 Node.js 客户端来说,需要准备一个 Node.js 环境。
有没有一种简单快捷的方法来调用 ChatGPT API 呢?
那当然是用 Laf 了。
Laf 是一个完全开源的一站式云开发平台,提供了开箱即用的云函数,云数据库,对象存储等能力,让你可以像写博客一样写代码。
GitHub:https://github.com/labring/laf
如果你希望快速了解 Laf 的用法,可以参考这篇文章:三分钟学会 Laf。
言归正传,下面我们开始计时,三分钟时间用 Laf 实现一个自己的 ChatGPT!
前提条件:你需要准备一个 ChatGPT 账号并且生成一个 chatgpt (这一步可以问 Google )
首先需要登录 laf.dev,然后新建一个应用。
点击开发按钮进入开发页面。
在 NPM 依赖面板中点击右上角的 :
然后输入 chatgpt 并回车进行搜索,选择第一个搜索结果,保存并重启:
重启之后,自定义依赖项中便出现了 chatgpt。
然后就可以像我一样新建一个云函数名字叫 send,并写入以下内容:
chatgpt 是通过环境变量 传入的,所以我们还需要创建一个环境变量。点击左下角的设置图标:
依次选择「环境变量」--> 「新增环境变量」,输入环境变量的名称和值,然后点击「确定」,再点击「更新」,便会重启应用。
现在点击右上角的「运行」,即可调试运行。
Perfect!现在我们来试试添加追踪上下文的功能。其实也很简单,只需要在对话时传入上一次对话的 ID 即可,代码如下:
运行一下看看:
好厉害,竟然两次就答对了我的问题!
好了,现在才开始真的计时,因为刚刚是教学环节,不计入耗时😁
接下来我们就可以开始动手打造自己的 ChatGPT 了,首先把上一节的函数替换为下面的内容:
现在应该很好理解这个函数了吧?
我们要实现的是 Web 版 ChatGPT,所以还需要一个前端页面。首先需要安装 Laf 的 SDK:
接下来,需要创建一个 cloud 对象:
这里我们看一下前端的核心代码,非常的简单,就是把提问的内容和上下文 id 传入云函数就可以了。
到这一步 我们已经可以发信息给 ChatGPT 并且拿到回复的消息了。
我们只要稍微加亿点点细节,就可以变成这样:
加完这点细节之后,基本开发工作就完成了,接下来就是把项目上线分享给你的朋友,顺便装个杯。
说到上线我们现在应该要去买一台服务器安装 Nginx,配置 Nginx,解析域名,绑定域名...
NO NO NO 我不允许你浪费年轻而美好的生命,life is short, you need laf 😃
打开你的 Laf,点击存储界面 --> 点击上方加号 --> 创建一个权限为 readonly 的存储桶(名字随意)。
创建完之后,在你的前端项目中运行打包命令。我这里用的是 。
打包完毕之后找到打包好的 文件夹,像我一样把 文件里面的所有东西都上传到我们刚刚创建的存储桶里面,记住是原封不动的上传哦,文件就是文件,文件夹就是文件夹。
上传完毕之后,发现右上角有一个 “开启网站托管”,点一下它!
点完之后出来一个链接,我们点击一下访问看看是啥东西。
哦!我的老天鹅呀 这不就是我刚刚开发的项目吗??
恭喜,到这里你的项目已经上线了,快分享给你的好朋友吧!
- 项目源码:https://github.com/zuoFeng59556/chatGPT
- 示例网站:https://jyf6wk-chat-gpt.site.laf.dev/
chatgpt 狂飙 chatgpt比之前的强在哪儿
chatgpt,chatgpt是什么意思,chatgpt官网,chatgpt怎么用还有人没听过、没用过 ChatGPT 吗?怕是没有!
现在,ChatGPT 几乎到了无所不能地步,写歌作诗、编代码、查资料、回答问题……你能想到的,它都能干!上线不到两个月,ChatGPT 的全球活跃用户就突破了一亿大关。如此火爆的背后,究竟是什么在支撑?
据统计,ChatGPT 需要超过1万颗 A100 GPU 提供算力支持,单次训练成本超过400万美元,每天成本超过10万美元。而研究机构 TrendForce 也在3月1日的报告中测算称,处理1800亿个参数的 GPT-3.5大模型,需要的 GPU 芯片数量高达2万枚。
归根到底:没有强大的算力支撑,ChatGPT 就没法无所不能。
云端算力,软硬系统协同优化才是标配
想要获得强大的算力,自研芯片是国内外云计算大厂发力的重点,并以此打造核心竞争优势和差异化。此外,云计算领域木桶效应越来越明显,软件和硬件不能有短板;未来算力进化方向,一定是软硬件协同优化。而在这方面,亚马逊云科技是最早发力的。
硬件之力:自研芯片,加速算力进化
目前,亚马逊云科技自研的 Amazon Nitro 和 Amazon Grachatgpt,已经助力企业在性能、成本、安全性方面实现了大规模突破。
Nitro:亚马逊云科技的基石芯片
Nitro 是亚马逊云科技自研芯片的起点,它的核心设计理念,就是为了很好的平衡云计算的性能、成本和安全性。从2013年推出首颗 Nitro 芯片起,它已经经历了4代迭代,并且已经成为驱动当今所有 Amazon EC2 实例的基础性技术。
2022年,最新一代 Nitro v5 芯片发布,重点聚焦在通信带宽的提升:PCIe 带宽提升2倍、DRAM 速度提升50%、数据包处理速度提升60%、通信延时降低30%。和前一代相比,Nitro v5 的晶体管数量增加一倍,并由此带来每瓦性能40%的提升。
Nitro 的高性能和虚拟化功能,也给用户提供了更多的计算实例。在2022年初,Amazon EC2 实例有400多款;经过一年的发展,已经超过600款,这就让算力的供给更加快速和灵活。
Grachatgpt:一切为了高算力
基于 ARM 架构的服务器 CPU 芯片 Graviton,是亚马逊云科技的看家芯片。Graviton 系列处理器,不仅能取得高性能、更能兼顾 ARM 架构低功耗的优势,从而实现更好的「性能功耗比」。和 x86 实例相比,基于 Graviton3 的实例能取得高达60%的每瓦功耗提升。
在去年的 re:Invent 大会上,chatgpt 在第三代的基础上增加了对高性能计算的优化,特别优化了对向量计算和浮点计算的支持。这也是 ARM 架构进一步进军 HPC 的重要尝试。在性能、功耗、成本、性价比。在这些方面,ARM 架构有着更大优势。再加上自研芯片的加持,通过大规模部署进一步摊薄成本,就会让性价比进一步提升。
软件之功:协议服务助力持续创新
云计算未来的发展方向,肯定是软硬件协同优化。对于云厂商来说,芯片和硬件只是一小部分,剩下的主要部分,都集中在软件和系统层面的创新。
在协议层面,亚马逊云科技提出了新的网络协议 SRD(Scalable Reliable Datagram)和 TCP,采用了多路径路由,并且可以乱序传输数据包,从而达到更高的吞吐量。
在服务层面,亚马逊云科技持续加码 chatgpt。2006年就搭建了 Amazon S3 存储服务。2014年,发布了著名的 chatgpt 计算服务 Amazon Lambda ,直到目前已经有超过百万用户、每月的调用请求量超过100万亿次。最新推出的 Amazon Lambda SnapStart,在首次启动时会执行标准初始化,并且将内存和磁盘状态进行快照并缓存,将启动延时降低90%以上。
为云计算的客户提供更强、更灵活的算力,实现算力像水和电一样能随用随取,是云计算未来的发展趋势。作为全球云计算的开创者和引领者,亚马逊云科技正通过提供强大、经济且绿色的云端算力,赋能企业实现更大的商业成功。