ChatGPT的产业链 chatgpt的商业价值
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
最近,一款人工智能软件“ChatGPT”在金融、科技圈爆火,而这背后或将掀起沉寂多年的搜索大战。
“ChatGPT”上线5天就收获了100万用户,并据称得到了290亿美元的天价估值。
据调研机构CBInsights统计,ChatGPT概念领域目前约有250家初创公司,其中51%融资进度在A轮或天使轮。2022年,ChatGPT和AIGC领域吸金超过26亿美元,共诞生6家独角兽,估值最高的就是290亿美元的OpenAI。
“ChatGPT”仅仅推出2个月,月活跃用户就突破1亿,这是TikTok在全球花了9个月才完成的里程碑。
毫无疑问,“ChatGPT”再次刷新了用户增速最快的历史记录,这也让创造者OpenAI及OpenAI首席执行官Sam Altman在全世界声名鹊起。
OpenAI 是一家总部位于旧金山的人工智能公司,成立于 2015 年,得到了包括埃隆・马斯克(Elon Musk) 、彼得・ 蒂尔(Peter Thiel) 和PayPal校友、LinkedIn联合创始人雷德・霍夫曼(Reid Hoffman)等多位硅谷重量级人物的资金支持。
01
Sam Altman 是一位连续创业的科技企业家,Sam曾在博客中这样说,“对于创业者来说,失败是家常便饭,量变导致质变,失败多了,成功就出现了”。
据介绍,Sam Altman现年37岁,在美国密苏里州圣路易斯长大,他的职业生涯可谓一路开挂。
8岁就学会了如何编程和拆解Macintosh计算机。
大学就读于斯坦福计算机系。上学期间,最受Sam关注的是福布斯那些富豪名仕。
福布斯榜单让他明白,除了一些艺人,很少有人是靠薪水发财的。挣工资就是出卖自己的时间,而时间换来的财富只会保持缓慢的线性增长,不可能爆发式增长。
“创业很难,因为培养原创性思维很难。这种思维在学校里面是学不到的,实际上学校培养的是一种相反的思维方式,所以只能靠我们自己来培养原创性思维”。
展开全文
大学的第二年,Sam与两位同学选择了辍学,开始了自己的创业生涯。
彼时,19岁的他成立了位置服务提供商Loopt,这家公司后来被预付借记卡业务公司Green Dot收购。
据了解,Loopt的估值曾高达1.75亿美元,虽然没有掀起太大波澜,最终于2012年被Green Dot以4300万美元的价格并购。
在此期间,Sam也收获了一段爱情,不过,他们在卖掉公司后选择了分手。
卖掉Loopt后,Sam创立了一家名为Hydrazine Capital 的风险基金,赢得了亿万富翁企业家、风险投资家彼得・ 蒂尔(Peter Thiel)的数千万美元的投资。
Sam将其中大部分资金投入了YC公司,并领投了Reddit的B轮融资。
2014年,不满30岁的Sam被Y Combinator创始人保罗・格雷厄姆 (Paul Graham)选中,担任YC的总裁职务。
从此,Sam开始在全球创业创新领域大放异彩。
2015年,Sam还曾入选了福布斯30位30岁以下风险投资榜单。
入职Y Combinator一年后,Sam再度选择创业。
Sam非常推崇马斯克的“第一性原理”。马斯克建议凡事都从“第一性原理”出发,从问题的本质开始,想出新的创意,并通过与人交流,尝试发现更简便更快捷的方法以解决问题。
或与是缘分,或许是志同道合,Sam与现代的“钢铁侠”埃隆・马斯克一起在人工智能领域选择携手创业。
02
2015年,Sam和埃隆・马斯克(Elon Musk) 等人一起创办了OpenAI,目标是确保人工智能不会消灭人类,包括LinkedIn联合创始人雷德・霍夫曼(Reid Hoffman)和知名投资人彼得・ 蒂尔(Peter Thiel)承诺投资10亿美元。
成立不久的OpenAI,就受到众多巨头关注。
2016年,微软主动上门,与OpenAI建立了战略合作伙伴关系。
与微软达成合作后,OpenAI专注于大型语言模型(LLM,Large Language Model) ,原因是这些模型具有直接的商业应用。
2018年,埃隆・马斯克(Elon Musk) 宣布退出OpenAI后,Sam选择了辞去Y Combinator总裁职务,接管OpenAI全部工作。
Sam接管后,公司的优先事项开始发生变化。曾经广泛的研究议程缩小到主要关注自然语言处理。
2019年,OpenAI收到微软10亿美金投资承诺后,宣布重组为一家“有限营利(capped-profit)企业”。
关于公司重组,Sam接受采访时称,“我们要成功完成任务所需的资金比我最初想象的要多得多。”
与此同时,OpenAI内部也开始发生变化,部分员工选择出走。
据公司前员工表示,“OpenAI 的成立是为了不受公司影响,但它很快成为一家大型科技公司的工具。”
关于OpenAI该如何盈利,Sam回答道:“诚实的回答是,我们不知道”。
据《财富》显示,OpenAI迄今为止的收入相对较少,而且亏损严重。
资料显示,2022年该公司预计将带来近3000万美元的收入。该公司预计支出为4.1645亿美元,员工费用为8931万美元,其他未指明的运营费用为3875万美元。
不包括员工股票期权在内,其2022年的净亏损总额预计为5.445亿美元。
OpenAI预计,随着ChatGPT成为吸引客户的警笛,其收入将迅速增加。文件显示,该公司预计2023年的收入将达到2亿美元,并预计到2024年收入将超过10亿美元。
据彭博社的最新消息称,微软未来几年计划再将向OpenAI投资100亿美元。OpenAI 已经创建了世界上最强大的LLM 之一。它被称为 GPT-3,拥有超过 1750亿个参数,并在大约三分之二的互联网、所有维基百科和两个大型书籍数据集上接受训练。
据《财富》披露称,在新投资完成后,微软将有权获得 OpenAI 75% 的利润,直到这家软件巨头赚取 920 亿美元的利润后,微软的份额将降至 49%。
与此同时,其他风险投资者和 OpenAI 的员工也将有权获得 OpenAI 49% 的利润,直到他们赚取约 1500 亿美元。如果达到这些上限,微软和投资者的股份将归还给 OpenAI 的非营利基金会。
本质上,OpenAI 是在把公司借给微软,借多久取决于 OpenAI 赚钱的速度。
03
与微软现状相反是谷歌。
市场分析认为,对微软来说,与OpenAI深度结盟更大的收获可能在于搜索业务,而受冲击最大的便是搜索龙头――谷歌。
谷歌目前在搜索市场占据主导地位,全球市场份额超过 90%。
不过,不久前,谷歌刚刚收购了一家总部位于伦敦的神经网络初创公司DeepMind。
DeepMind这家公司在科技业内部人士看来,这是首家最有可能率先开发 AGI 的公司。
此外,ChatGPT爆红后,谷歌CEO 孙达尔・皮柴(Sundar Pichai) 在一篇博文中宣布,谷歌正在开发那个名为Bard的“实验性对话式人工智能服务”。
这个产品基于谷歌开发的对话模型LaMDA,可以向其提问并获得类似ChatGPT的详细答案。
2021年,OpenAI前研究副总裁达里奥・阿莫代(Dario Amodei)带着10名员工单出走,成立了新的人工智能企业Anthropic。
而这家公司刚成立不久就宣布获得1.24亿美元融资,其中便有谷歌的身影,对Anthropic的投资则是由谷歌的云部门进行。
目前正在开发自己的通用人工智能聊天机器人Claude,被业界视为OpenAI 的ChatGPT的潜在竞争对手。
作为国内市场最大的搜索引擎,百度最近对外证实了其正在研发类似ChatGPT项目,官宣项目名为“文心一言”(ERNIE Bot)
百度表示目前该产品在做上线前的冲刺准备工作,预计三月份完成内测,面向公众开放。
如今,人工智能技术的突破,或再一次重新点燃沉寂多年的搜索“世纪大战”。
chatGPT如何学习 chatgpt拒绝访问怎么解决
chatgpt,chatgpt是什么意思,chatgpt怎么下载,chatgpt怎么用chatgpt
的轻量化训练方法
ChatGPT
是一种基于
GPT-2
的开源聊天机器人框架,可以让我们
轻松地构建一个自己的聊天机器人。尽管
GPT-2
是一个非常强大的模
型,但它需要大量的计算资源和大量的训练数据,这使得训练一个
GPT-2
模型成为一项相当困难的任务。为了解决这个问题,
ChatGPT
提
出了一种轻量级训练方法,使得我们可以用较少的计算资源和训练数
据来训练一个聊天机器人模型。
以下是
ChatGPT
轻量化训练方法的步骤:
1.
准备数据集
首先,我们需要准备一个用于训练
ChatGPT
的数据集。这个数据
集应该是聊天对话的集合,每个聊天对话应是一个文本文件,其中包
含若干行对话。我们可以使用如下的方法准备数据集:
(
1
)从互联网上抓取聊天记录,如微博,微信等应用上的聊天
记录。
(
2
)使用已经存在的
ChatGPT
模型生成聊天数据,然后自定义
进一步聊天数据,这样可以生成大量的聊天内容,从而增大我们的数
据集。
2.
数据预处理
一旦我们有了数据集,下一步就是进行预处理。具体来说,我们
需要将所有的聊天对话合并成一个文本文件,并将其转换为二进制格
式,以免出现编码问题。然后,我们需要用
tokenizer
对数据进行编
码,这是因为
ChatGPT
使用了
GPT-2
的编码风格,即
tokenized
格式,
我们需要将对话数据转化成
tokenized
格式才能进一步处理。
3.
模型训练
在数据预处理完毕后,我们就可以开始训练模型了。和传统的训
练过程不同,
ChatGPT
采用了增量训练的方式来训练模型。这意味着我
们不需要一次性训练整个模型,而是可以每次只训练一小部分数据,
并将其与之前的训练结果相加。这样一来,我们就可以在较短的时间