比亚迪2022重磅战略规划 比亚迪几号公布销量
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
3月28日晚间,国内新能源汽车“一哥”比亚迪交出一份超预期成绩单。财报显示,该公司去年实现营收达4240.61亿元,平均日收11.62亿元。而其扣非归母净利润更是达到156.38亿元,同比增长超11倍。
令人感到意外的是,这家市占率达到27%的新能源车企,在原材料碳酸锂价格飙升的背景下,仍然逆势实现了毛利率提升。去年比亚迪汽车业务毛利率已经达到20.39%,迅速向竞争对手特斯拉同类业务的26.2%靠近。而上一年,双方毛利率差距为9.15个百分点。
在业内看来,比亚迪不断技术创新使产品持续领先、成本逐步降低,实现盈利的持续向上。而且,随着总量以及收入扩张,单车折旧摊销、费用率持续下行,进而实现较高的盈利弹性。
毛利率逆势提升
该公司去年营业收入为4240.61亿元,同比增长96.20%。该公司去年实现归母净利润为166.22亿元,同比增长达到445.86%。而扣非归母净利润为156.38亿元,同比增长达到1146.42%。不仅如此,从经营活动现金流净额来看,比亚迪去年达到1408.38亿元,同比增长115.13%。
实际上,这得益于比亚迪第四季度的业绩增长。单从四季度来看,比亚迪实现营收1563.73亿元,同比增长120.4%,归母净利润为73.11亿元,同比增长1114.5%。
数据显示,比亚迪2022年ROE达到了16.13%,较2021年的4.01%大幅提升。而拉动ROE的动力并非来自杠杆提升,而是其销售净利润从2021年的1.41%提升至3.92%,而且资产周转率从上一年的0.87次提升至1.07次。
从细分业务看来,比亚迪汽车以及相关业务的收入约3246.91亿元,同比增长151.78%;手机部件、组装及其他产品业务的收入约988.15亿元,同比增长14.3%。上述两项业务占公司总收入的比例分别为76.57%和23.3%。
从毛利率方面看,比亚迪2022年整体销售毛利率已经达到17.04%,而在上一年这一比例为13.02%。而需要注意的是,比亚迪汽车业务的毛利率达到20.39%,这一指标在2021年为17.39%。
众所周知,新能源汽车行业在2022年经历了碳酸锂价格飙升以及上半年的“缺芯”问题,令车企盈利能力在一定程度下承压。在这一背景下,比亚迪能够压低毛利率,颇为令人意外。
相比之下比亚迪的直接竞争对手特斯拉2022年的汽车业务毛利率为26.2%,两家差距在5.81个百分点;而在2021年,这一差距为9.15个百分点。不难看出,凭借规模化效应,比亚迪在降本方面已经初显成效。
市占率提升10个百分点
安信证券此前一份研报表示,三大要素有望持续驱动比亚迪业绩高成长。第一,公司持续通过高价格产品和精准营销、服务等措施来实现品牌力的续向上,汉、海豹等车型已经站稳脚跟,腾势、仰望等高端品牌陆续发布,长期有助形成明显产品溢价;第二,比亚迪不断技术创新使产品持续领先、成本逐步降低,实现盈利的持续向上;第三,随着总量以及收入扩张,单车折旧摊销、费用率有望持续下行,进而实现较高的盈利弹性。
根据中汽协数据,比亚迪新能源汽车市占率达27%,同比2021年增长近10个百分点。2022年,比亚迪全年新能源汽车销量达到186.35万辆,同比增长208.64%。从全年销量来看,比亚迪轻松迈过百万销量门槛,而在2021年其销量为73万辆。
实际上,比亚迪汽车销量在这一年也超越特斯拉131万辆的销量,成为全球新能源汽车“销冠”。
而在今年,比亚迪仍然实现高速增长。其2月新能源汽车销量达到19.37万辆,再度逼近20万大关,其上年同期销量为8.83万辆。其中,其新能源乘用车销量为19.17万辆,环比增长28%,同比增长119%,依旧坐稳新能源汽车“一哥”位置。今年前两月,比亚迪累计新能源汽车销量已经达到34.5万辆,同比增长90%。
据乘联会统计的数据,2月国内狭义乘用车零售销量预计135.0万辆,同比增长7.2%,环比增长4.3%。其中新能源零售销量预计40万辆,同比增长46.6%,环比增长20.3%,渗透率29.6%。以此计算,比亚迪2月新能源乘用车在国内整体销量中,占比达到47.93%,几乎占据了半壁江山。
中邮证券在一份研报中预测,2023年比亚迪全年汽车销量有望突破250万辆,年内比亚迪还将推出海鸥、海狮、护卫舰05、驱逐舰07、仰望U8、F品牌首款车型等多款新品,有望为该公司贡献持续增量。
近200亿研发投入
在研发投入方面,比亚迪去年研发费用达到186.54亿元,较去年同期的79.91亿元,增长133.44%。其2022年研发费用占整体营收比例为约4.4%,这一比例在去年约为3.7%。
年报显示,其研发投入项目主要包括:刀片电池技术、CTB电池车身一体化技术、魔方储能系统、DMi超级混动技术、DiLink 4.0以及易四方技术。
值得注意的是,比亚迪在光伏领域也有布局,涉及技术包括N型高效电池及组件技术和大尺寸半片光伏组件技术,根据比亚迪方面透露,前者的电池中试线效率大于24.7%,相关在研技术还将陆续迭代上线,电池性能提升中;而后者166,182半片组件于2021年量产,210半片组件于2022年实现量产,已与美国,巴西等国签署订单。
另外,比亚迪在车规级半导体方面进展颇多。该公司在2020年推出首款1200V 840A/700A 三相全桥SiC功率模块,并已实现在新能源汽车高端车型电机驱动控制器中的规模化应用。
而在近期,公司全新推出1200V 1040A的更高功率SiC模块,在不改变原有模块封装尺寸的基础上将模块功率大幅提升了近30%,成功实现高温封装材料、高寿命互连设计、高散热设计及车规级验证。财通证券一份研报显示,2022年前三季度比亚迪半导体功率模块装机量市场份额达21.1%,接近赛道龙头英飞凌的市场份额25.7%。
王传福薪酬未入前三
在分红方面,比亚迪计划2022年以29.11亿股为基数,向全体股东每10股派发现金红利11.42元(含税),送红股0股(含税),不以公积金转增股本。
以此计算,比亚迪此次分红金额为33.23亿元,约占去年归母净利润的两成。
另外,值得注意的是,王传福虽为比亚迪公司董事长,但其薪酬尚未排入高级管理层前三位。
据年报显示,2022年王传福税前报酬总额为614.7万元。公司中薪酬最高的为执行副总裁李柯,其税前报酬为960.20万元,高级副总裁何龙以877.40万元排名第二,高级副总裁罗红斌薪酬877万元排名第三。薪酬高于王传福的还有执行副总裁廉玉波,薪酬882.50万元,高级副总裁何志奇薪酬739.70万元。
科学家和企业家的贡献 所有科学家和企业家的故事
科学家和企业家哪个伟大,科学家和企业家哪个厉害,科学家和企业家谁地位高,科学家和企业家哪个地位高即将举办的2023中国绿公司论坛将通过“开启AI普及应用时代”、“人工智能与产业机遇”、“人工智能的应用式创新”、“AI机器人及产业互联网”等议题,开放企业家和学研界人士研讨人工智能的发展趋势、业界困局和解决方案。
所有走出实验室,投身产业界的科学家们,都梦想过用钻研多年的科学技术改变世界的那一天。就像OpenAI 首席科学家伊尔亚・苏茨克维这样。主场的黄仁勋,比起身价千亿的商业巨子,更像是一个谦逊的学生。面对面前这位比他年轻二十多岁的科学家,他提问、请教,为一些共同的记忆面露欣喜。伊尔亚本人也是一样,回顾技术迭代的历史,他像翻开了家谱,细说自己在Hinton门下的收获,三言两语带出一长串为深度学习做出贡献的前辈和同僚们。这是一场值得每一个关注当下这场 AI 革命的人都认真阅读的访谈,以下是访谈内容:
来源 |?founder park
英伟达 CEO 黄仁勋采访 OpenAI 首席科学家:谈人工智能的未来 完整视频 | 来源:腾讯视频
1
直觉告诉我,AI 一定会带来巨大影响力
黄仁勋:从我认识你以来,你做了很多开创性的工作。从多伦多大学开始,你与 Alex (Krizhevsky)和 【【微信】】 一起共同发明了 AlexNet,这带来了现代 AI 的大爆炸。你的职业生涯也把你带到了美国湾区,完成了OpenAI 的创立,创造了GPT-1,2,3。当然了,还有让 AI 风靡全世界的 ChatGPT。
真是青年科学家的卓越履历,让整个行业都对你的成就由衷地敬佩。
我还是追溯一下吧,来问问你,关于深度学习的一些问题。你对深度学习是什么认识?为什么你知道它会发挥作用?你心中就一定认为深度学习会取得如此成就吗?
伊尔亚:我个人对人工智能的兴趣有很多原因,出发点就是对 AI 巨大影响力的直觉性认识。同时,我也对究竟什么是意识充满了好奇,究竟什么是人类的体验?我觉得 AI 的发展能帮着我去理解这些。
2002 - 2003 年,那个时候「学习」是一件只有人类,或普通人就能做的事情,计算机完全办不到。那时,计算机还不会学习任何东西,甚至在理论上是否可行都不太清楚。所以我想如果能在智能学习或者机器学习方面做出一些成果,将很有可能成为 AI 领域的最大进步。
我开始在这个领域做一些探索,一开始还没有那么乐观。但幸运的是,【【微信】】 在我念书的大学任教,我得以联系到他。他的研究方向就是神经网络,这就是我想要的。因为神经网络能够缔造一种可以学习、可以自动编程的并行计算机。那个时候并行计算机还很小,但是希望在于,如果你弄明白学习和神经网络的工作原理,那你就可以从数据中去编程小的并行计算机,而它与大脑的工作原理是相似的。
所以,就好像有了几个理由可以支撑你继续走下去,但是还不太清楚如何让它起作用。然而基于已有的所有东西,似乎表明它的前景是最光明的。
2
最初没搞明白 GPU 怎么用
黄仁勋:你们是怎么发现 GPU 对你训练的神经网络模型很有帮助的?
伊尔亚:这件事应该感谢 【【微信】】)。他说我们应该试试 GPU,(于是)我们开始尝试它们。这个过程很有意思,但我们也没有完全搞懂它们真正的用途在哪里、怎么样才能让它们发挥作用。
可是接下来我们就发现,随着 ImageNet* 数据集的出现,卷积神经网络非常适合 GPU 的模型,有可能把它变得非常快,能做规模远超以前的训练。事情就这么发生了。
非常幸运的是亚历克斯 ・ 克里热夫斯基(Alex Krizhevsky)真的很喜欢 GPU 编程,他能够去编程开发非常快的卷积核函数,然后去训练神经网络,用的是 ImageNet 数据集,并最终得到了结果。
黄仁勋:结果就是震惊了世界,大幅打破了计算机视觉的纪录,这是非常明显的突破性进展。
伊尔亚:对,它并不是之前方法的延续,并不是像常规比赛那样的打破纪录。关键点在于这个数据集是超级难的,是远远超出一般范围的。其他人可以用经典的方法取得一点进展,但是这件事在数据集上要好多了。如果能做好,那将是惊人的 AI 大爆炸。
*ImageNet:一个大型的可视化数据库,设计用于视觉对象识别软件的研究,由华人 AI 研究员李飞飞构建。伊尔亚和克里热夫斯基主导设计的 AlexNet 卷积神经网络获得了 2015 年 ImageNet 大赛冠军。
3
当初无法解决的,当初没人重视的
黄仁勋:AI 技术大爆炸,快进到今天,你来到硅谷,和朋友们一起创办了 OpenAI,担任首席科学家的角色。最开始做 OpenAI 的想法是什么?你们做过很多事,我们能看到,那些早期的工作最终为我们带来了 ChatGPT 的时刻。那么最早创立 OpenAI 的源动力是什么?
伊尔亚:是的,显然当我们开始的时候,并不是 100%清楚如何推动。而且这个领域与现在非常不同,当然我们现在习惯了用这些惊人的神经网络来做很棒的事情,每个人都很兴奋。
但是回到 2015 年-2016 年,当我们开始创业时,看起来很疯狂。研究人员要少得多,可能比现在少 100-1000 倍。
在那时我们只有 100 个人,他们中的大多数人在 Google / DeepMind 工作。
然后有人开始学习这些技能,但仍然非常稀缺。在 OpenAI 开始的时候,我们有两个关键的最初想法,这些想法一直推动我们到今天。
一个是通过压缩进行无监督学习。今天,我们想当然地认为无监督学习易如反掌,你只需对所有事情进行预先训练,而且一切都完全按照你的预期进行。但在 2016 年,无监督学习是机器学习中一个尚未解决的问题,没有人知道该怎么做。Yann LeCun* 到处演讲,说监督学习是个巨大的挑战,我真的相信好的数据压缩将产生无监督学习。
当然,直到最近,突然之间,很多人了解 GPT 实际上压缩了训练数据,特德・姜* 在《纽约客》上的文章也提到这一点。但是从数学意义上讲,训练这些自回归生成模型可以压缩数据,并且直观上,你可以看到它们为什么应该起作用。如果你将数据压缩得非常好,你就必须能够提取其中存在的所有隐藏信息,所以这才是关键。
接着就要说到 OpenAI 在情绪神经元领域的研究。
这项研究在机器学习领域不被太多人关注,但实际上,它很有影响力,特别是我们的思路。这项工作的结果是神经网络。但它并不是 Transformer*,而是在 Transformer 之前的模型――小型循环神经网络 LSTM,完成一些序列到序列的工作。
我们用相同的 LSTM 稍微调整一下,来预测 Amazon 上评论的下一个字符。我们发现,如果你预测下一个字符足够好,就会有一个神经元在 LSTM 内对应于它的情绪。
这是一件很酷的事。因为它展示了无监督学习的一些效果,并验证了良好的下一个字符预测、下一个预测的想法,压缩具有发现数据中的秘密的特性,这就是我们在 GPT 模型中看到的。
*Yann LeCun,杨立昆:法国计算机科学家,卷积神经网络的创始人之一,于 2018 年获图灵奖。
*特德・姜:华裔美国科幻小说作家,《降临》原著作者,曾获得四项星云奖、四项雨果奖。
*Transformer:由谷歌在 2017 年推出的采用自注意力机制的深度学习模型,可以按输入数据各部分重要性的不同而分配不同的权重,现已逐步取代 LSTM 等 RNN 模型成为了 NLP 问题的首选模型。
3
先让 AI 打游戏,再有 GPT
伊尔亚:OpenAI 完成的第一个真正的大型项目是让 AI 体验一款实时战略游戏。实时战略游戏本质是一项竞技运动,你需要聪明,需要更快,需要快速反应和团队合作。因为你正在与另一个团队竞争,这是非常、非常复杂的。这个游戏有一个完整的联赛,这个游戏就是 Dota 2。
我们训练了一个强化学习 agent 来与自己对抗,目标是达到一定水平,可以与世界上最好的玩家竞争。这是一个重大的项目,它是一个非常不同的工作方向――强化学习。
黄仁勋:很多人觉得 OpenAI 做了很多类似这样的工作,有些看起来像是走了弯路,但事实上,它们可能真正导致了我们现在正在讨论的事情――ChatGPT的诞生。
伊尔亚:是的,它们已经真正开始闭环了。GPT 产生了技术基座,从 Dota 的强化学习转变到人类反馈的强化学习,这种组合又产生了 ChatGPT。
4
ChatGPT 是如何理解这个世界的?
黄仁勋:有一种误解,认为 ChatGPT 只是一个巨大的语言模型,但事实上围绕着它有一个相当复杂的系统。你能为我们简单解释一下吗?
伊尔亚:当我们训练一个大型神经网络来预测互联网上许多不同文本中的下一个词时,我们所做的是学习一个「世界的模型」。表面上看起来我们只是在学习文本中的统计相关性,但实际上只是去学习文本中的统计相关性就可以把这些知识压缩得非常好。
神经网络所真正学习的,是生成文本的过程中的一些表述――文本实际上是这个世界的一个映射。因此,神经网络正在学习从越来越多的角度去看待这个世界,看待人类和社会,看人们的希望、梦想、动机、交互和所处情境。此外,你对下一个词的预测越准确,还原度越高,在这个过程中你得到的世界的分辨率就越高。
这就是预训练阶段的作用。
但是这并不能让神经网络表现出我们希望它能够表现出的行为。一个语言模型真正要做的是回答以下问题:如果我在互联网上有一些随机的文本,以一些前缀、一些提示开始,它将补全什么内容呢?可能(AI)只是随机地用互联网上的一些文本来补全它。
但一个真实的、有帮助的,遵循某些规则的助手,是需要额外的训练的。这就是微调和来自于人类老师的强化学习以及其他形式的人工智能协助可以发挥作用的地方。人类老师与 AI 一起合作去教导我们的 AI 模型,但不是教它新的知识,而是与它交流和传达:我们希望它成为什么样。
这就是第二阶段(强化学习)。这个过程做得越好,神经网络就越有用、越可靠,所以第二阶段也是极其重要的。
5
ChatGPT 和 GPT-4 之间的主要区别是什么?
伊尔亚:两者之间最重要的区别,就是 GPT-4预测下一个单词具有更高的准确度。
这是非常重要的,因为神经网络越能预测文本中的下一个词,它就越能理解它。这种说法现在也许已经被很多人接受了,但它可能仍然不直观,或者说不完全直观。我举个例子。假设你读了一本侦探小说,有复杂的故事情节、不同的人物、许多事件、还不清楚的神秘线索……然后在书的最后一页,侦探收集了所有的线索,召集了所有人,说:「我将揭示谁犯了罪,那个罪犯的名字是――」
这就是预测下一个词。
现在有许多不同的词,但是通过预测这些词可以让模型越来越好地理解文本。随着对文本的理解不断增加,GPT-4 预测下一个词的能力也变得更好。
黄仁勋:GPT-4 有检索能力吗?
伊尔亚:我肯定有人会尝试使用 GPT-4 做查询,并把回答代入到上下文中。
但 GPT-4 并没有内置检索功能,它只是一个非常好的预测下一个词的工具。
但它具备这个能力,(在未来)它也将通过检索变得更好。
7
AI 的可靠性是最重要的
黄仁勋:GPT-4 表现出的哪个能力连你都很惊讶?
伊尔亚:简短的回答是,它的可靠性令人惊讶。如果你问之前的神经网络一个问题,它可能会以一种近乎愚蠢的方式回答。然而 GPT-4 不会让这种事发生。
它解决数学问题的能力变得更强大,你可以认为它真的进行了推导――长篇且负责的推导,并且还转换了单位等等。
就像许多人类一样,它是通过一步步的证明来工作的。虽然不是所有的证明都是那么自然的,但起码有很大一部分是。就像许多人注意到它可以用同一个字母开头的单词写诗,每个单词都很清晰地遵循着指令。虽然仍不完美,但是已经非常好了。
在视觉方面,我真的很喜欢它对网络梗图的解释。你给它看一个梗图并询问它这个为什么好笑,它会告诉你原因并且它说的还是对的,就像它真的可以看到那些图。
当你能用一些复杂的图像或图表来追问它问题并得到得到一个解释时,这真的太棒了。
GPT-4 识别出了这张图:这张图片中的幽默来自将过时的大型 VGA 连接器插入小型现代智能手机充电端口的荒谬做法。| 来源:GPT-4 发布会
8
多模态的意义――从图像中获取知识
黄仁勋:多模态*为什么如此重要,重大突破是什么,以及由此产生的特征差异是什么?
伊尔亚:多模态有两个维度让它如此有趣。
第一个原因有点谦虚――多模态是有用的,它对神经网络很有用,尤其是视觉。因为这个世界是非常视觉化的,人类是视觉动物,人类大脑皮层的三分之一都用于视觉。由于没有视觉,神经网络的用处虽然相当大,但并没有达到预期。而 GPT-4 可以「看」得很好。
第二个原因,除了从文本学习外,我们还可以从图像中学习这个世界的知识。
神经网络原本要从几十亿的文本中认知世界,现在这会变得更容易,甚至从数万亿的文本中学习就可以了。举个例子,比如颜色。人需要看到颜色才能理解颜色,但是神经网络在「一生中」从没有「看」过一张照片。如果你问它们哪些颜色更接近,它知道红色比蓝色更接近橙色,它也知道蓝色比黄色更接近紫色。这是怎么实现的?
答案是,这个世界的信息,甚至是视觉的信息会慢慢通过文本传播出去,但是非常缓慢。当你加入视觉信息并从视觉中学习知识,你就会额外学到这些无法通过文本获得的知识。
黄仁勋:从你们的数据来看,有哪些测试 GPT-3 表现得更好,哪些测试 GPT-4 表现得更好?多模态在这些测试中起了多少作用?
伊尔亚:一些数学竞赛中有很多图表,GPT-3.5 在测试中表现得相当差,只有文字模态的 GPT-4 大概是 2%-20% 的准确率,但当你添加视觉模态时,它会提升到 40% 的准确率。
*多模态:每一种信息的来源或者形式,都可以成为一种模态。例如人的听觉、视觉、嗅觉;信息的媒介,语音、视频、文字等。
9
AI 的终极目标是信任,人类的信任
黄仁勋:你认为大语言模型领域最终会去向何处?
伊尔亚:预测是困难的,尤其是对于太具体的事情,但我们有理由认为这个领域会持续进步,我们将继续看到 AI 在它的能力边界内继续震惊人类。
此外,AI 的可靠性是由是否可以被信任决定的,未来肯定会达到可被完全信赖的程度。如果它不能完全理解(问题),它也会通过提问来弄清楚。它会告诉你自己不知道,但同时会说它需要更多的信息。我认为这些是目前 AI 可用性影响最大的领域,也是未来会有最大的进步的领域。
因为现在,我们就面临着一个挑战:你想让一个神经网络去总结长的文档,获取摘要,挑战就是,能确定重要的细节没被忽略吗?
但是当你知道,所有的要点都被涵盖了,尤其是所有人都认为很重要的点被涵盖的时候,我们就会承认神经网络总结内容是很可靠的。对于内容生产也一样,它是否清楚地遵循用户的意图(这也会成为衡量可靠性的标准)。
未来两年,我们会看到很多这样的技术。
10
AI 终于不再渺小了
伊尔亚:我已经从事这项工作很长时间了,实际上几乎整整 20 年了。最让我感到惊讶的是它是真的有效,它似乎一直以来(对人们来说)都是个小事儿,但它现在不再渺小,变得更重要、更强烈。
它还是那个神经网络,只是变得更大,在更大的数据集上以不同的方式训练,但训练的基础算法都是一样的,这是最令我惊讶的!
每当我后退一步,我就会想,这些想法,这些概念性想法怎么可能呢?大脑有神经元,所以也许人工神经元也一样好,所以也许我们只需要用一些学习算法以某种方式来训练这些神经元,来将它们的参数调节到如此难以置信的正确,这本身就会是最大的惊喜。
12