盖茨谈chatgpt三大潜在用途 比尔盖茨chatgpt将改变世界
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
来源:财经锐眼
近日,比尔盖茨在其个人博客中对ChatGPT发表了一些看法,他认为,ChatGPT是他人生中见到的最具革命性的技术之一,还有一项技术是他在1980年接触到的用户图形界面,后来就有了摆脱DOS界面的Windows界面。
同时,他认为,利用人工智能可以在提高生产力、健康医疗、教育等领域发挥重要作用。
ChatGPT这一技术的诞生对软件行业的影响可能不是暂时的,而是具有极其深远意义的,或许又是一次信息技术的革命。
A股今年始终牢牢的咬住ChatGPT这一风口不放,一直在炒作这个技术相关的概念股,这种现象有点像2019年的半导体芯片浪潮,也有点像2021年的新能源浪潮。
11天7涨停的返利网
返利网这个网站大家应该不陌生,这家成立于2006年的在线导购平台,打着“万物皆可返利”的旗号,先后与包括天猫、淘宝、京东、苏宁、华为、爱彼迎、亚马逊、苹果、美团、饿了么等在内的400多家平台、超5万家商家合作,累计用户数超2.6亿,影响国内超6亿消费者。
从2014年开始返利网就开始谋求A股上市,最终在2020年借壳昌九生化实现上市,也就是现在的返利科技(600228.sh)。
上市以来股价完成了借壳时的疯涨和借壳后的暴跌“过山车”行情,今年以来ChatGPT在A股大热,返利网似乎看到了这里面的机会!
今年2月10日,返利科技在其互动平台表示,除已有的数字智能工具外,为消费者新增提供基于ChatGPT或其他AIGC模型的数字产品或服务,为中国用户在消费决策场景提供帮助。
之后,由于百度推出文心一言彻底激活中国版类ChatGPT的市场,3月13日有投资在返利科技互动平台询问,公司是不是百度文心一言生态合作伙伴?几天后,3月17日返利科技表示,公司作为百度文心一言的首批生态合作伙伴,已获得百度向公司开放的百度文心一言内测对接权限。
正是这一互动平台动态让返利科技的股价开启了狂飙模式,从3月13日至今走出11天7涨停的强势行情,涨幅已达90%,更是让返利科技的市值重回百亿大关!
但是,3月22日返利科技发布的股价异常波动显示,公司现有导购等主营业务与ChatGPT等人工智能底层技术无关,公司不从事ChatGPT底层技术开发,公司仅采购相关人工智能技术用于导购等业务。
返利科技说的很明白,只采购相关技术,并不从事底层技术开发,你们瞎炒个啥!
解禁、减持、蹭概念,完美联动
不过,返利科技近期股价大涨期间发生的一些事情,细细研究起来还是很有意思的。
在返利科技2月10日首次蹭ChatGPT概念之前,有投资者在互动平台询问,在东方财富上看到3月20日要解禁2.5亿股是吗?公司当天就给了回复,表示3月限售股实际可解禁流通的数量将远低于有关媒体的预测数据。
有意思的是3月20日、3月21日发生的事情。
3月20日,返利科技借壳上市后首批解禁股上市流通,解禁数量3746.16万股,解禁市值3.75亿,成本价5.19元,解禁前一日收盘价10元。
3月21日盘中,上午10点半的时候,返利科技在互动平台表示,公司与OpenAi的接口已经升级至ChatGPT 4.0版,并组织技术团队进行导购领域的产品开发。当天股价正是在10:30后突然拉升至涨停的。
然后,3月21日盘后,也就是自3月13日首次涨停以来第5个涨停板后,返利科技公告,公司第三大股东NQ3、第四大股东【【微信】】在3月20日-21日期间通过大宗交易分别减持981.59万股、856.22万股,分别套现1.06亿、9283万。
这一系列事件到底是巧合还是有预谋呢,外界不得而知。不过,可以看出,返利科技这次蹭ChatGPT的热度是认真的,国内的百度、国外的OpenAi一个也没错过。
借壳对赌失败,股民一起买单
当前市场最热的概念蹭了,股价也大涨了,股东也趁机减持套现上亿,那么公司又如何呢?
遗憾的是,目前返利科技正陷入借壳上市对赌失败的巨额赔偿之中。
1月30日返利科技公告,已完成对2021年度业绩补偿并回购注销股份。按当初借壳上市时签署的资产置换业绩承诺协议,返利网经营主体中彦科技承诺2021年-2023年实现的扣非净利润不低于1.92亿、2.2亿、2.49亿,但上市后第一年2021年返利科技实现的扣非净利润仅为1亿,差了9000多万,需要进行业绩补偿。
业绩补偿方案是,返利科技以1元的价格回购9346.94万股并注销,注销之后公司总股本由8.23亿股降为7.29亿股。同时,公司向广大投资表示诚恳的道歉!
道歉是应该的,业绩对赌协议是你们大股东签的,没有完成业绩承诺公司管理层当负主要责任,但赔偿的时候却是公司所有股东一起承担。
从业绩看来,可能返利科技2022年又完不成业绩承诺,承诺的是2.2亿扣非净利润,但2022年前三季度实现的扣非净利润只有4769.31万,目前公司还没发布2022年财报,也没发布业绩预告!
实际上,在返利科技自借壳上市之前业绩就已经变脸。
借壳上市前,返利网的营收就一路从2017年的9.33亿降至2019年的6.11亿,到2021年营收就只有4.95亿了,归母净利润从1.93亿降至8549.53亿,但在重组预案中却乐观的估计1.91亿的归母净利润,到2025年可以达到3.1亿的归母净利润。
总的来看,业绩方面返利科技早已进入了业绩下降周期,选择借壳上市而不是自己独立上市或许也有其特殊的原因,此次趁市场炒作ChatGPT拉升股价之际,大股东趁机巨额套现,显然具有很大的炒作成分。$返利科技(SH600228)$
黄仁勋对谈openai联创 openai孵化的人工智能巨头
黄仁勋lori,黄仁勋对华态度,黄仁勋会讲中文吗?,黄仁勋twitter「为了加速训练,我们用到了非饱和神经元和一个非常高效的 GPU 卷积操作实现。」Ilya Sutskever 等人在 【【微信】】 的相关介绍中提到了这样一条关键信息。他们还详细说明了如何将他们的网络映射到多个 GPU 上。从这时起,GPU 和神经网络紧紧地绑定在一起。黄仁勋领导的英伟达自然也成了这波 AI 浪潮中不可或缺的一环。
2015 年,Ilya Sutskever 参与创办了 OpenAI,并带领这家公司一路向着 AI 大模型的方向前进。但随着模型变得越来越大,训练它们所需的算力也急剧增长。
「加速计算并非易事,2012 年,计算机视觉模型 【【微信】】 动用了 GeForce GTX 580,每秒可处理 262 PetaFLOPS。该模型引发了 AI 技术的爆炸。十年之后,Transformer 出现了,GPT-3 动用了 323 ZettaFLOPS 的算力,是 【【微信】】 的 100 万倍,创造了 ChatGPT 这个震惊全世界的 AI。崭新的计算平台出现了,AI 的 iPhone 时代已经来临。」黄仁勋在 GPT 大会的 Keynote 中说道。在这次大会上,英伟达发布了 ChatGPT 专用的 GPU,推理速度提升了 10 倍。
一路走来,Ilya Sutskever 和黄仁勋都是这波 AI 浪潮的见证者和重要推动者。在即将到来的「AI iPhone 时代」,两人也必将扮演重要的领导者角色。
毫无疑问,随着ChatGPT与GPT-4在全球范围内的爆火,这也成为了这次谈话的关注焦点,而除了GPT-4及其前身包括ChatGPT相关话题外,黄仁勋与Sutskever也聊到了深度神经网络的能力、局限性和内部运作方式,以及对未来AI发展的预测。
从网络规模和计算规模还无人在意时做起
可能不少人一听到Sutskever的名字最先想到的就是OpenAI及其相关的AI产品,但要知道,Sutskever的履历可以追溯到吴恩达的博士后、Google Brain的研究科学家,以及Seq2Seq模型的合作开发者。
可以说,从一开始,深度学习就与Sutskever绑定在了一起。
在谈及对深度学习的认识时,Sutskever表示,从现在来看,深度学习确实改变了世界。不过他个人的出发点更多是在于对AI存在的巨大影响潜力的直觉,对意识与人类体验的浓厚兴趣,以及认为AI的发展会帮助解答这些问题。
2002-03年期间,人们普遍认为学习是一件只有人类才能做到的事,计算机是无法学习的。而如果能让计算机具有学习的能力,那将是AI领域一次重大的突破。
这也成了Sutskever正式进军AI领域的契机。
于是Sutskever找到了同一所大学的Jeff Hinton。在他看来,Hinton所从事的神经网络正是突破口,因为神经网络的特性就在于能够学习,可以自动编程的并行计算机。
而彼时并没有人在意网络规模和计算规模的重要性,人们训练的神经网络只有50个或100个,数百个的规模已经算大的了,一百万的参数也被视为很庞大。
除此之外,他们还只能在没有优化过的CPU代码上跑程序,因为没人懂BLAS,多用优化后的Matlab做一些实验,比如用什么样的问题来提问比较好。
但问题是,这些都是很零散的实验,无法真正推动技术进步。
构建面向计算机视觉的神经网络
当时,Sutskever就察觉到,有监督学习才是未来前进的方向。
这不仅是一种直觉,也是无需争辩的事实。在神经网络足够深且足够大的基础上,那么它就有能力去解决一些有难度的任务。但人们还没有专注在深且大的神经网络上,甚至人们根本没有把目光放在神经网络上。
为了找到一个好的解决方案,就需要一个合适的大数据集以及大量的计算。
ImageNet就是那个数据。当时ImageNet是一个难度很高的数据集,但要训练一个大的卷积神经网络,就必须要有匹配的算力。
接下来GPU就该出场了。在Jeff Hinton的建议下,他们发现随着ImageNet数据集的出现,卷积神经网络是非常适合GPU的模型,所以能够让它变得很快,规模也就这么越来越大了。
随后更是直接大幅打破了计算机视觉的纪录,而这不是基于以往方法的延续,关键是在于这个数据集本身的难度与范围。
OpenAI:从100人到ChatGPT
在OpenAI初期,Sutskever坦言道,他们也不是完全清楚如何推动这个项目。
在2016年初,神经网络没有那么发达,研究人员也比现在少很多。Sutskever回忆称,当时公司只有100个人,大部分还都在谷歌或deepmind工作。
不过当时他们有两个大的思路。
其中一个是通过压缩进行无监督学习。2016年,无监督学习是机器学习中一个尚未解决的问题,没有人知道怎么实现。最近,压缩也并不是人们通常会谈到的话题,只是突然间大家突然意识到GPT实际上压缩了训练数据。
从数学意义上讲,训练这些自回归生成模型可以压缩数据,并且直观上也可以看到为什么会起作用。如果数据被压缩得足够好,你就能提取其中存在的所有隐藏信息。这也直接导致了OpenAI对情绪神经元的相关研究。
同时,他们对相同的LSTM进行调整来预测亚马逊评论的下一个字符时发现,如果你预测下一个字符足够好,就会有一个神经元在LSTM内对应于它的情绪。这就很好地展示了无监督学习的效果,也验证了下一个字符预测的想法。
但是要从哪里得到无监督学习的数据呢?Sutskever表示,无监督学习的苦难之处不在于数据,更多关于为什么要这么做,以及意识到训练神经网络来预测下一个字符是值得追求和探索的。于此它会学习到一个可以理解的表征。
另一个大的思路就是强化学习。Sutskever一直相信,更大的就是更好的(bigger is better)。在OpenAI,他们的一个目标就是找出规模扩展的正确途径。
OpenAI完成的第一个真正的大型项目是实施战略游戏Dota 2。当时OpenAI训练了一个强化学习的agent来与自己对抗,目标是达到一定水平能够和人类玩家游戏。
从Dota的强化学习转变为人类反馈的强化学习与GPT产出技术基座结合,就成了如今的ChatGPT。
OpenAI是如何训练一个大型神经网络的
当训练一个大型神经网络来准确预测互联网上不同文本中的下一个词的时候,OpenAI所做的是学习一个世界模型。
这看上去像是只在学习文本中的统计相关性,但实际上,学习这些统计相关性就可以把这些知识压缩得非常好。神经网络所学习的是生成文本的过程中的一些表述,这个文本实际上是世界的一个映射,因此神经网络便能够学习越来越多的角度来看待人类和社会。这些才是神经网络真正在准确预测下一个词的任务中学习到的东西。
同时,对下一个词的预测越准确,还原度就越高,在这个过程中得到的对世界的分辨率就越高。这是预训练阶段的作用,但这并不能让神经网络表现出我们希望它表现出的行为。
一个语言模型真正要做到的是,如果我在互联网上有一些随机文本,以一些前缀或提示开始,它会补全什么内容。
当然它也可以在互联网上找到文本进行填充,但这就不是最初构想的那样的,因此还需要额外的训练,这就是微调、来自人类老师的强化学习,以及其他形式的AI协助可以发挥作用的地方。
但这不是教授新的知识,而是与它交流,向它传达我们希望它变成什么样,其中也包括了边界。这个过程做得越好,神经网络就越有用越可靠,边界的保真度也就越高。
再谈GPT-4
ChatGPT成为用户增长最快的应用没多久,GPT-4就正式释出。
在谈到两者的区别时,Sutskever表示,GPT-4相较于ChatGPT在许多维度上都做到了相当大的改进。
ChatGPT与GPT-4之间最重要的区别在于在GPT-4的基础上构建预测下一个字符具有更高的准确度。神经网络越能预测文本中的下一个词,它就越能理解文本。
比如,你读了一本侦探小说,情节非常复杂,穿插了非常多的故事情节和人物,埋了很多神秘的线索。在书的最后一章,侦探收集了所有的线索,召集了所有人,说现在他将揭示谁是犯人,那个人就是……
这就是GPT-4能够预测的东西。
人们都说,深度学习不会逻辑推理。但不管是这个例子还是GPT能做到的一些事,都展现出了一定程度的推理能力。
Sutskever对此回应称,当我们在定义逻辑推理时,在进行下一步决策时如果你能够以某种方式思考一下或许能得到一个更好的答案。而神经网络能走多远也尚待考察,OpenAI目前还没有充分挖掘出它的潜力。
一些神经网络其实已经具备了这类能力,但是大多都还不够可靠。而可靠性是让这些模型有用的最大阻碍,这也是当前模型的一大瓶颈。这不关乎模型是否具备特定的能力,而是具备多少能力。
Sutskever也表示,GPT-4发布时并没有内置的检索功能,它只是一个能够预测下一个词的很好的工具,但可以说它完全具备这个能力,将检索变得更好。
GPT-4还有一个显著的改进就是对图像的响应和处理。多模态学习在其中发挥了重要的作用,Sutskever说到,多模态有两个维度,第一个在于多模态对神经网络是有用处的,尤其是视觉;第二个在于除了文本学习外,从图像中也可以学习到世界的知识。
人工智能的未来
再说到利用AI训练AI时,Sutskever表示这一部分的数据不应该被忽视。
预测未来语言模型的发展是一件困难的事,但是在Sutskever看来,有充分理由相信这个领域会持续进步,AI也将在自己的能力边界继续用实力震惊人类。AI的可靠性是由是否可以被信任决定的,未来肯定会达到可被完全信赖的地步。
如果它不能完全理解,它也会通过提问来弄清楚,或者告诉你它不知道,这些正是AI可用性影响最大的领域,未来会有最大的进步。
现在就面临这样一个挑战,你想让一个神经网络总结长文档或获取摘要,如何确定重要的细节没有被忽视?如果一个要点显然重要到每个读者都会对此达成一致,那么就可以承认神经网络总结的内容是可靠的。
在神经网络是否清楚地遵循用户意图这一点上也同样适用。
未来两年会看到越来越多这样的技术,让这项技术变得越来越可靠。
文章综合整理自网络,仅供阅读参考