现在还能继续白嫖chatGPT吗?能
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
后台看了下之前的那篇秒秒钟安装插件免费体验chatGPT 的阅读数据走势,每天还是有新的阅读量产生。看来对chatGPT感兴趣的人还是不少哇,那,这这这,这让喜欢分享资源的我,岂不是得再分享一波白嫖chatGPT的资源?
前面那篇文章已经分享了chatGPT大致的用法,当时演示的是如何利用chatGPT协助写代码。实际还有很多其他玩法,比如帮助构思文章(有没有可能我这篇文章就是它构思的?)、做一个完整的程序出来(网上已经有人利用它在短时间内做成了一套编程导航网站,涵盖上千篇文章)、还有……
打住,咱们本次讨论的重点是,还有没有其他资源用来白嫖chatGPT,不需要付费的那种
下面直奔主题,开始分享资源
1、插件、插件
没错,这一款又是插件哈,先看看截图
看到插件中间那亮眼的 Chat AI 了么。安装插件之后,浏览器中打开新的标签页就会进入上诉页面,然后直接点你想玩的那个就行。安装教程如下
使用google浏览器,点击打开设置
找到 扩展程序
扩展程序的页面长这样
直接把插件拖到这个页面即可,等待安装(会提示确定安装吗,点击确认即可)。安装完成后,打开一个新的标签页就会展示我们前面截取到的主页,下图展示的是点击了图中的 Chat AI之后的效果
其他就不过多赘述了,尽情玩耍吧。插件名叫做 wetab,可以自己搜索下载。当然,也可以直接在此公众号回复关键词 wetab ,会直接发给你
2、在线体验:
地址1:【【网址】】/#/chat/1002
操作简单,打开即用。这一类的网站目前看到的比较多,很多是要收费或者有积分要求,但目前这个网站作者还是对外免费提供的,没体验过的朋友可以体验体验。
地址2:https://supremes.pro/
这一款相对简陋了点,但是功能是正常的,玩一玩还是没什么问题
3、chatGPT调教指南
你还在纠结于怎么让chatGPT快速进入状态吗,比如充当一名教师?一名HR?一名专业领域的专家?可以尝试下以下的关键词
教你如何使用关键词迅速将chatGPT带入特定情境中
如有需要,在公众号回复 ai调教 获取链接
王川:从 ChatGPT 看人工智能的投资机会和风险
本文来自2023年4月14号笔者和一群投资分析师做的关于人工智能投资的分享,略有删节。
(1)
先做一下风险提示。第一,今天和大家的分享全是来自公开可以到网上查的信息。第二,这里只是谈我对美国股票市场的经验,对亚洲和中国的市场,我不了解。第三,我只是预测比较长期的,三四年以上的趋势,也只对这种研究感兴趣。就是你投了以后,可以什么都不管,躺平。也不用挖空心思,揣测下个季度收入好不好,也不用太担心竞争者来了,等等。第四,我的观点,也会随着新的信息,新的变化而不断调整。所以,今天和大家分享的,只是我这一刻的观点, 非投资建议。投资有风险,入市须谨慎。
(2)
以 chatgpt 为代表的人工智能大语言模型 (LLM) 的涌现,对世界的冲击力将大于蒸汽机,大于印刷术,大于文字,大于火。其进化速度和传播速度前所未有。终日沉浸其中才能理解其威力。世界结构和运作方式将彻底改变,而且已无法逆转。
去年还在谷歌工作的 Jason Wei有篇论文,“emergent abilities of large languages models" (大语言模型的涌现能力),此文揭示了未来科技加速发展的核心法则之一。很多大语言模型,当计算训练量超过 10^23 FLOP 之后,准确度突然开始飞跃。
chatgpt 的出现是一种"涌现"的现象和数学的必然。理解此机制后,就会意识到下面将有一长串的不断涌现的新的 AI 的强大功能,而且这也是数学的必然。(涌现可以定义为:某个系统的某种能力,在某个维度的参数超过某个临界点后,突然开始迅速增长。而这种能力在未突破临界点之前不存在)
LLM的关键点在于模型大小和数据量达到了一个临界值,过去认为机器不可能的有的推理能力,突然有了。大模型迎来了人工智能的顿悟时刻。人的一生,时刻都在对各种情况,建立模型,做出分析判断,现在人工智能拥有自己的推理能力,而且将不断规模化,自动化,成本不断降低,等于是触及了人类活动本质,对未来的冲击,不可限量。
GPT 里面的 T,是 Transformer 的缩写。这个技术对于自然语言处理上的核心改进,是在训练 AI 理解力时,把距离相对远的词语建立起相关性。比如说这句话 “我对花生过敏,每次吃到它,身体就不舒服”. Transformer 能够通过所谓 “注意力”的机制,把 “花生”和“它”两个词建立起相关性,相对于传统 AI 语言模型而言,其理解力大大提高。把这个概念推而广之,要提升对这个世界的理解力,也应当不断训练自己把各种看似距离较远,但实际上强相关的事物关系,能够迅速提取出来的能力。
(3)
人工智能技术的突破一个重要因素是大规模并行计算能力的提升。
人工智能技术的核心是神经网络,神经网络的核心算法是调网络参数时的前向传播和反向传播计算,这本质就是矩阵乘法。而矩阵乘法计算,每一个元素的计算可以单独平行展开,和其它元素的计算互不干扰,所以特别适合用 GPU 的大规模并行计算能力来实现。
人脑里的初级视觉皮质层 (Primary 【【微信】】),据说有一点四亿个神经元。这些神经元在后台进行复杂的并行计算和信息传递,赋予人脑快速的视觉感知力。这在最底层看,和 GPU 的并行计算获得图像识别能力,其机制是类似的。有视觉能力的动物,在多数环境下,可以迅速在生存竞争中获得压倒性优势,慢慢把没有视觉感知力的其它动物淘汰。
但在听觉和其它文字处理任务上,人脑的并行计算处理能力其实非常差。即使一目十行,也就最多同时看两百多个字。而现在 Gpt-4 一次性输入可以接受三万多个词,比人的能力要高两个数量级,而且还会继续迅速增加。这种不断增加的高并行度,意味着其对文字和世界的理解力和穿透力,将不断达到一个常人难以理解的高度。所以一定要努力学习用这种工具来提升自己对世界的理解力。
需要理解的是,gpt 作为一种以自然语言为界面的工具,可以容忍输入信息的一定模糊性,因此可以几乎无限的向更大的数据培训量上扩展. 之前的很多工具,需要特定的输入界面和语法,差几个字母就完全无法理解,根本不具有扩展性,和 gpt 完全不是同一性质的东西。
效率高的工具,演化到一定程度,会把各种元素连接综合起来,成为一个前所未有的效率越来越高的实体,甚至从一个遥远的观察者来看,像一个有着明确目标的生命体。要注意观察 Gpt 的连接,会造就出什么样的全新的,结构完全不同的实体。
大语言模型将成为智能组合叠加的超级胶水。本质上是语言理解力强,降低了接口的精确性要求(一般软件接口种类繁多,各家定义不同,格式严格精确性要求高,还要考虑兼容,做到通用性不容易),大大提高了接口的通用性, 降低了各个子领域技术组合的门槛
把这个思路延伸一下,在分配时间和注意力的时候,最重要的不是你掌握某个具体的技术的能力,而是要保持始终和智能最高的大语言模型生态连接 (而不被切断)的能力。始终沉浸于这个生态中,你就赢了大半;孤立的闭门造车,而幻想能创造出什么竞争优势,最好也就是昙花一现,大概率则是白忙一场。
未来超级个体和公司的区别会越来越模糊。人与人之间沟通互动的带宽是比较窄的,容易出错掉链子,经常要等待。LLM 和其插