庆云古诗词

庆云古诗词

未来5年ai产业前景分析 2017中国ai产业报告

互联资讯 0

淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】


(一)AI 产业历经 70 年发展,终将迎来第四次工业革命

AI 历史发展余 70 年,经历多发展阶段,最早可追溯至上世纪初期。AI 目前已渗透至日 常生活方方面面,在医疗保健、汽车、金融、游戏、环境监测、农业、体育、能源管理、安全 等各个领域的大量应用正在改变人类的生活、工作和娱乐方式。这些技术的进一步发展将迎来 第四次工业革命。,造成这一现象的原因包括计算机技术的进步(高性能计算、网格和云计算)、 代码共享度提高(GitHub、GitLab、BitBucket 等服务)以及大量开源软件。AI 将为企业和国 家经济系统提供革命改变,商业领域,人工智能带来的优势包括:快速揭示大数据中的模式、 快速进行可视化和分析、改进产品设计等等,并进一步有望提升服务水平、增加利润、扩大业 务、提高效率和成本结构。

当前正处于第四次工业革命的风口浪尖,正处于新一轮产业变革制高点。当下全球正在发 生的第四次工业革命是人工智能、智*联时代,以超大数据、超强算力、超强算法的人工智 能为核心技术,以智能家居、智能音箱、智慧城市、智能汽车和手机为数据入口的智能终端产 品正加速 AI 时代的进化。

(二)产业规模扩容厂商竞入新蓝海,国家政策 AI 发展

全球 AI 产业规模预计 2030 年将达到 1500 亿,未来 8 年复合增速约 40%。目前全球人工 智能企业的数量迅速增长,2022 年,全球人工智能(AI)市场规模估计为 197.8 亿美元,预计 到 2030 年将达到 1591.03 亿美元,从 2022 年到 2030 年,复合年增长率为 38.1%。 从地区上来看,美中欧暂时领先,格局仍未确定。其中 AI 市场美国领先,中国和欧盟并 驾齐驱。截至 2017 年,全球人工智能企业主要集中在美国(2905 家)、中国(670 家)和欧盟 (657 家),合计份额为 70.01%。目前,美国仍是人工智能的核心发源地之一,其 他国家也在迅速跟进人工智能的研发。国内北京人工智能发展领跑全国,上海、广东、江苏、 浙江等地发展逐渐加快。

2022 年中国人工智能产业规模达 1958 亿元,年增长率 7.8%,整体稳健增长。而从应用 格局来看,机器视觉、智能语音和自然语言处理是中国人工智能市场规模最大的三个应用方向。 根据清华大学数据显示,三者占比分别为 34.9%、24.8%和 21%。一方面,政策推动下国内应 用场景不断开放,各行业积累的大量数据为技术落地和优化提供了基础条件。另一方面,以百 度、阿里、腾讯和华为为代表的头部互联网和科技企业加快在三大核心技术领域布局,同时一 系列创新型独角兽企业在垂直领域快速发展,庞大的商业化潜力推动核心技术创新。

AI 场景丰富,多垂直细分领域均有应用。 科技的持续研究和创新正在推动人工智能技术在行业垂直领域的应用,如汽车、医疗、零 售、金融和制造业。例如,2020 年 11 月,英特尔公司收购了 Cnvrg.io,为数据科学家建立和 运行机器学习模型开发和运营平台,以促进其人工智能业务。深度学习和 ANN(人工神经网 络)的进步也推动了人工智能在航空航天、医疗保健、制造和汽车等多个行业的应用,Google 一直在采用 ANN 来改善路线,并处理使用 ANN 收到的反馈。计算机视觉技术的最新进步, 如 GAN(Generati【【微信】】s)和 SSD(Single Shot MultiBox Detector),已经促成 了数字图像处理技术的诞生,这些技术可以使在低光或低分辨率下拍摄的图像和视频转换为 高清质量,计算机视觉的持续研究为安全与监控、医疗保健和运输等部门的数字图像处理奠定 了基础。

在人工智能不同的垂直应用领域中,广告和媒体部门引领市场在 2022 年占全球收入份额 的 19.5%以上,这一高份额归因于人工智能营销应用程序不断地增长。预计到 2030 年,医疗 保健部门将获得最大份额。基于机器人辅助手术、减少剂量错误、虚拟护理助理、临床试验参 与者标识符、医院工作流程管理、初步诊断和自动图像诊断等用例,医疗保健部门已独树一帜。

在国内,机器视觉领域是人工智能应用最多最广的板块。2022 年机器视觉 相关投融资浪潮高企,工业、泛安防、能源赛道热度高涨,持续受到资本青睐。 近两年来是 AI 产业上市最火爆的细分赛道,涌现了商汤科技、格灵深瞳、云从 科技、奥比中光等 IPO 企业, 2022 年我国机器视觉产品的市场规模达到 830 亿 元。同时,庞大的市场牵引科技研发,我国在全球机器视觉技术创新上已位居世 界前列。截至 2021 年 8 月,中国机器视觉专利申请量占全球机器视觉专利总申 请量的 78.7%;其次是美国,占比为 14.2%。

国家政策不断发力,助力中国 AI 成长。近年来,人工智能产业发展受到国家层面的重视, 相关政策频出。2017 年,国务院出台《新一代人工智能发展规划》,成为中国人工智能发展的 指导性文件;国家发改委、中央网信办、工信部等部门陆续发布人工智能相关细则,部署人工智能发展计划。近五年来,中国政府凭借在人工智能产业发展中强有力的领导地位,发挥资源 聚集的制度优势。国家坚持“市场导向”,秉持开源开放原则,在推动产学研用多主体共享成 果的同时还加强军民深度融合,实现创新资源共享和科技成果双向转化,不断通过政策更好地 引导人工智能产业全方位快速发展。

(三)人工智能发展三驾马车——模型、数据和算力

人工智能产业链按照上下游可以分为人工智能基础层、人工智能技术层、人工智能应用层。 其中,上游人工智能基础层将 AI 分为模型、算力和数据三大要素。AI 模型生产工具包括 AI 算法框架、AI 开放平台、AI 开发平台和预训练模型;AI 算力基础领域包括 AI 芯片、智能服 务器和云服务;AI 数据资源包括 AI 基础数据服务和数据治理。人工智能技术层包括计算机视 觉、智能语音、自然语言处理、知识图谱、机器学习。人工智能应用层则很广泛,涵盖“AI+ 泛安防”、“AI+泛互联网”、人机交互、自主无人系统、“AI+媒体”、“AI+金融”、“AI+医疗”、 “AI+工业”、“AI+零售”、“AI+政务”等应用,涉及经济社会运行的方方面面。

1、模型

人工智能框架一直在蓬勃发展,各种框架在开发者的不断开发和自然选择的基础上不断 迭代。经过激烈的竞争,最终出现了双雄并立的 TensorFlow 和 PyTorch 的两大阵营。随后,迁 移学习(Transfer learning)成为开发大规模人工智能模型的流行技术,使研究人员能够利用预 先训练的模型来提高新任务的性能。在此期间,注意力机制(Attention mechanisms)也出现了, 允许模型有选择地关注输入数据的某些部分。 2017 年,Transformer 模型的引入标志着自然语言处理的重大突破,使模型能够大规模地 生成类似人类的语言。预训练大模型的基本原理是充分利用大规模的数据,以挖掘数据中的知 识和规律,类似接受人类的通识教育。再针对特定的任务,进行参数微调,可以达到智能对话、 智能问答、智能创作、人脸识别等功能,并且进入可大规模、可复制的大工业落地阶段。在算 法模型层面,超大规模模型成为近几年来最热门的发展之一。

2018 年 OpenAI 推出了非常强大的预训练语言模型 Generati【【微信】】rmer (GPT),结果表明这一模型可以在非常复杂的 NLP 任务中取得非常惊艳的效果,而且并不需 要有监督学习进行模型微调。同年,谷歌的雅各布·德夫林和同事创建并发布了 BERT (Bidirectional Encoder Representations from Transformers)。BERT是一个双向transformer模型, 用于对大量未标记的文本数据进行预训练,以学习一种语言表示形式,这种语言表示形式可用 于对特定机器学习任务进行微调。虽然 BERT 在几项任务中的表现都优于 NLP 领域沿用过的 最先进的技术,但其性能的提高还是归功于双向 transformer、掩蔽语言模型对任务的训练以及 结构预测功能,还包括大量的数据和谷歌的计算能力。此后,基于 BERT 的改进模型包括 DistillBERT、XLNet、RoBERTa、T5 等大量新式预训练语言模型不断涌现。

2019 年,OpenAI 继续推出了带有 15 亿参数的 GPT-2,这一改进后的模型能够生成连贯 的文本段落,做到初步的阅读理解、机器翻译等。接着,英伟达推出了具有 83 亿参数的 Megatron-LM,谷歌继续推出了具有 110 亿参数的 T5 模型,微软推出了 170 亿参数的图灵 Turing-NLG。 2020 年,OpenAI 又推出了超大规模的语言训练模型 GPT-3,参数量达到了 1750 亿之高, 实现了模型参数从亿级到上千亿的跨越。此后,谷歌、华为、阿里巴巴和北京智源等企业和研 究机构纷纷推出超大规模的预训练模型,包括 MT-NLG、Switch Transformer、盘古和悟道 2.0 等。预训练的模型参数数量和训练数据量正以每年 300倍的趋势增长,通过增加模型参数和训 练数据仍是短期内的发展方向。

2022 年 11 月,OpenAI 推出建立在 GPT-3 系列大型语言模型之上的 ChatGPT,并使用监 督和强化学习技术进行微调。ChatGPT 在技术路径上采用“大数据+大算力+强算法=大模型” 的战略,又在“基础大模型+指令微调”方向探索出新道路,基础大模型类似人类的大脑,通 过指令微调进行交互训练,结合实现近似人类的语言智能。ChatGPT 的问世不仅是新一代聊天 机器人的突破,还将为人工智能和整个信息产业带来一场革命。

2、数据

在算法模型发展的同时,对于数据规模和质量的要求也在不断提高。以 GPT 的发展历程 来看,用以训练模型的数据集的广度和深度都在不断加强,使得模型的回答具有更高的准确性 和质量,实现模型的不断优化。 GPT 使用 BooksCorpus 数据集来训练语言模型。BooksCorpus 有大约 7000 本未出版的书 籍,有助于在未见过的数据上训练语言模型。另外,这个语料库有大量的连续文本,有助于模 型大范围地学习依赖关系。GPT-2 使用的训练数据集名为 WebText,具有来自 800 多万份文件 的文本数据,总规模为 40GB,与用于训练 GPT-1 模型的图书语料库数据集相比是巨大的。 GPT-3 是在五个不同的语料库中混合训练的,每个语料库都有一定的权重。其中高质量的数据 集被更频繁地取样,并且不止被训练过一个 epoch。使用的五个数据集是 Common Crawl, WebText2, Books1, Books2 和 Wikipedia。用于训练 ChatGPT 的具体数据集没有公开披露,但仍 然是几个大型语料库的组合,并且数据规模比 GPT-3 进一步增大。

3、算力

自从进入互联网时代,人类所能获取和利用的数据呈现爆发式地增长,各行业、各场景的海量数据为人工智能的自主学习和模型训练提供了数据基础。而自人工智能的概念兴起,算法 模型一直在不断优化,从决策树到神经网络,从机器学习到深度学习,并且已在不同的领域中 得到应用。算力是基于芯片的人工智能发展的硬件基础和平台,随着海量数据的产生和算法模 型的不断优化和发展,算力的发展成为了人工智能系统快速发展的核心要素。从 1956-2020 年, 计算机处理能力的 FLOPS 增加了一万亿倍。

近几年,大量复杂的数据的收集和处理都需要硬件能力的相应增长,以应对人工智能发展 的需求。基本上,计算能力是计算机以速度和准确性执行某种任务的能力。正如 OpenAI 的研 究表明,训练最大的人工智能模型所需的计算能力,自 2012 年以来平均以每 3.4 个月翻一倍 的速度增长。而在 2012 年之前的情况并非如此,当时计算能力平均以 2 年的速度翻倍。这意 味着,今天使用的资源正以比以前快七倍的速度翻倍。从另一个角度而言,在线性尺度上,计 算用量在 2019 年之前就增加了 30万倍,表明对人工智能特定硬件的需求呈指数级增长。

(四)互联网行业巨头积极布局,AI 竞赛压力不减

1、微软——投资 OpenAI,探索 AI 在在多场景落地

14 年起推动 AI 领域布局,逐步探索 AI 商业模式落地。作为互联网行业的领先者,微软 过去专注于继续开发 Windows 和 Office 应用程序。2014年,随着首席执行官 Satya Nadalla 的 任命,微软开始向人工智能战略转变,推动微软在人工智能创新方面的发展。2016 年,微软成 立了人工智能实验室,致力于推广和开发基于人工智能的应用程序。2017 年,微软宣布收购 于以深度学习为研究重点的初创公司 Maluuba,并将人工智能的运用延伸到空中。同年,微软 和亚马逊宣布建立合作伙伴关系,意味着微软人工智能开发的工具和服务,如 Cortana,Office 365 将与 Alexa 等亚马逊服务交互。2018 年,微软又相继收购多个 AI 公司,探索深度学习的 商业化模式。

多次投资 OpenAI,在人工智能领域探索更进一步。 2019 年,在微软于首次向 OpenAI 注资后,两家公司开始在微软的 Azure 云计算服务上 合作开发 AI 超级计算技术,同时,OpenAI 也逐步将其云服务从谷歌云迁移到 Azure。有了微 软的算力支持,OpenAI 在 2020 年推出了突破性的成果 GPT-3。同样在 2020 年,微软买断了 GPT-3 基础技术的授权,在 Office、搜索引擎 Bing 和设计应用 【【淘密令】】 等产品中使用 GPT-3,以优化现有产品。 2021 年,微软再次投资,双方合作正式进入第二阶段。一方面,作为 OpenAI 的云服务 商,微软在 Azure 中集中部署 GPT、DALLE、Codex 等 OpenAI 开发的各类工具。这也形成了 OpenAI 最早的收入来源,即通过 Azure 向企业提供付费 API 和 AI 工具。同时,在获得 OpenAI 新技术商业化许可的情况下,微软开始将 OpenAI 工具与自己的产品深度整合,并推出相应的 产品。2021 年 6 月,微软与 OpenAI 和 GitHub 合作,推出了基于 Codex 的 AI 代码补充工具 GitHub Copilot,于次年 6 月上线。2023 年,微软向 OpenAI 追加投资数十亿美元,彻底拉开了人工智能军备竞赛的帷幕,同时微软将 ChatGPT 整合到其搜索引擎中,标志着 OpenAI 新 技术的商业化进入新阶段。

在 2023 年 3 月,OpenAI 又推出了 ChatGPT 的升级版——GPT-4,迭代速度极快。其包 含的重大升级是支持图像和文本的输入,并且在 GPT-3 原来欠缺的专业和学术能力上得到重 大突破,它通过了美国律师法律考试,并且打败了 90%的应试者。在各种类型考试中,GPT-4 的表现都优于 GPT-3。

2、谷歌——引领人工智能驱动商业化创新

谷歌是人工智能发展中最重要的公司之一。2010 年谷歌推出其第一个人工智能驱动的搜 索引擎算法,称为 【【淘密令】】。2012 年,谷歌推出知识图谱,首次使用人工智能来理解不 同实体之间的关系。2015 年,谷歌推出了 TensorFlow,用于机器学习的开源软件库。2016 年, 谷歌 DeepMind 的 AlphaGo 程序在围棋比赛中击败了世界冠军李世石。2017 年,谷歌推出了 谷歌助理,一个可用于智能手机和智能家居设备的对话式人工智能助理。 自 2017 年,谷歌发布 Transformer 以来,NLP 领域的技术发展得到了质的飞跃,基于谷歌 的成果,OpenAI 在 2018 年发布了 GPT 生成式预训练模型,也就是基于 Transformer Decoder 的 GPT-1,带有 1.1 亿参数,通过大规模、无监督的预训练+有监督的微调,在大型数据集上进 行训练而建立的模型。与此同时,在 2018 年 10 月,谷歌推出了具有开创性的 BERT 模型,具 有 3.4 亿个参数,比 GPT 大四倍并几乎在所有性能方面都超越 GPT。

3、百度——All in AI,十年布局长跑

All in AI,十年布局长跑。百度在 AI 领域的布局早在 2010 年前就开始了。百度早在 2010 年代初就开始投资于人工智能技术。2014 年,百度成立了深度学习研究院(IDL),专注于开 发深度学习算法和其他 AI 技术。2015 年,百度的语音识别软件实现了 5.5%的最低单词错误 率(WER)记录。这是语音识别技术发展的一个重要里程碑,确立了百度在该领域的领先地 位。在 2016 年 9 月的百度世界大会上,整合了视觉、语音、自然语言处理、知识图谱、深度 学习等技术的百度大脑正式对外开放。2017 年,百度推出了阿波罗自动驾驶汽车平台。该平 台为开发者提供一系列工具和资源,以建立自动驾驶系统。2018 年,百度推出了名为百度健 康的医疗部门。该部门专注于使用人工智能来改善医疗诊断、药物开发和医疗保健的其他方面。 2018 年,百度发布了其 AI 芯片“昆仑芯”,该芯片旨在用于人工智能应用,如自动驾驶和语 音识别。

百度在 AGCI 中的全栈布局:算法、算力、数据、应用。百度官方宣布:文心一言云服务 于 2022 年 3 月 27 举行新品发布会。官方展示了文心一言在文学创作、商业文案创作、数理 推算、中文理解、多模态生成五个使用场景中的综合能力。在文心一言的背后,是经过四年迭 代的文心大模型。文心 ERNIE 自 2019 年诞生至今,在语言理解、文本生成、跨模态语义理解 等领域取得多项技术突破,在公开权威语义评测中斩获了十余项世界冠军。文心模型的训练是 基于百度飞浆的框架,在飞浆技术不断迭代的基础上,文新大模型一次性发布了 11 个大模型, 涵盖了基础大模型、任务大模型和行业大模型三个层次的体系,充分满足了行业的应用需求。 例如用于语言生成的 ERNIE 3.0 Titan,用于文本和图像生成的 ERNIE-ViLG 模型。目前,百 度飞桨凝聚了 265 万开发者、服务了 10 万家企业、创建了超过 34 万个模型。

百度自行研发的 AI 芯片,单卡算力达到 128TFLOPS。昆仑芯是基于百度在人工智能领 域多年的产业实践,自主研发的一款人工智能通用处理器芯片。新发布的 R200 人工智能加速 卡基于第二代昆仑芯,采用领先的 7nm 工艺,基于先进的芯片架构,专为深度学习和机器学 习算法的云端和边缘计算设计。与上一代产品相比,R200 全面提升了计算机视觉、自然语言 处理、大规模语音识别、大规模推荐等应用的人工智能负载的运行效率。

在数据层面,百度基于其搜索引擎业务,积累了大量的真实用户数据。这些大规模的数据, 使文心一言形成自身优势,为文心大模型的训练提供数据基础。产品中文心一格和文心百中已 成功落地。文心一格是一个 AI 艺术和创意辅助平台,文心百中是大模型驱动的产业级搜索系 统。

AIGC 的全球巨头争夺战已经开始,深耕 AI 和搜索领域多年的百度正站在一个新的历史 舞台上,将于 2019 年 3 月推出的文心一言模型,是中国科技力量参与全球 AIGC 竞赛的主要代 表。

Navida 召开 GTC 发布会,展示算力芯片在多领域的突破进展。2023 年 3 月 21 日 ,英 伟达召开 GTC ,CEO 黄仁勋进行了主题演讲,展示英伟达算力芯片咋 AI 应用、加速卡领域 取得进展,目前已成为自然科学、化学制药、视觉解析、数据处理、 机器学习和大模型领域 成为不可或缺的一环。

AI 产业迎来“【【微信】】”时刻,英伟达 DGX 计算机已成 AI 核心处理器。目前英伟达已向 OpenAI 交付首台 DGX AI 超级计算机,用于加速深度学习、人工智能应用,《财富》100 强企 业中已有一半以上企业开始使用 DGX,例如:BMW 应用 DGX 被用于加速 BMW 汽车自动驾 驶系统的开发和训练;Tencent 应用 DGX 被用于加速腾讯云的人工智能服务的开发和运营;美 国国家航空航天局利用 DGX 被用于加速 NASA 进行气象和环境数据的分析和预测。 从参数上来看,DGX 具备满足高性能计算和 AI 学习的需求。GPU 采用 8 片英伟达 A100 Tensor Core GPU,共有 6912 个 CUDA 核心和 432 个 Tensor Core, 单精度计算性能为 320TFlops.CPU 采用两颗英特尔 Xeon Platinum 8280L 处理器,共有 56 个核心;每个 DGX 系 统配备 1.5TB 的 DDR4 内存;每个 DGX 系统配备 15TB 的 NVMe 存储器,同时支持 100Gb Ethernet 和 Infiniband HDR 网络。DGX 具有强大的计算性能、高效的数据传输速度、大容量的 存储空间和稳定的供电系统,能够满足各种深度学习和人工智能应用的需求。

英伟达推出 AI Foundations 云服务,从 NEMO、PICASSO、BIONEMO 三方面渗透 AI场景。AI Foundations 一站式云服务,从模型的构建到生成应用上线,,协助客户快速构建、优 化和运营大模型,把制造大模型的能力传递到每一个用户。

N【【微信】】 是一个基于 PyTorch 的开源工具包,用于自然语言文本的生成式模型。 提供 80 亿、430 亿、5300 亿参数的 GPT 模型,客户也可以引入自己想要的模型。Nemo 会 定期更新额外的训练数据,可以帮助企业为客服、企业搜索、文档处理、市场分析等场景定制 生产生成式 AI 模型。

PICASSO (Parallel-n-Core Architecture Simulator for Scalable Oltp) 是一个用于模拟大 规模多核处理器架构的开源模拟器,用于训练能够生成图像、视频和 3D 素材的模型。NVIDIA 与 Adobe 宣布扩展双方的长期研究和开发合作关系,共同推动下一代生成式 AI 模型,为加快 优秀创作者和营销人员的工作流程,其中一些模型将采取联合开发的方式,并 N【【微信】】 进入市场。同时,NVIDIA 正与 【【微信】】 联合训练负责任授权的生成式文本转图像以及文 本转视频基础模型,这些模型将使用简单的文本提示创建图像和视频,并将在 【【微信】】 完 全授权的资产上进行训练。

BioNeMo 服务提供用于化学和生物学的 LLM。N【【微信】】 框架用于训练和部署超 算规模的大型生物分子语言模型,帮助科学家更好地了解疾病,并为患者找到治疗方法。该大 型语言模型(LLM)框架将支持化学、蛋白质、DNA 和 RNA 数据格式。

发布 H100 NVL 服务器,相比 【【微信】】 提供 10 倍的计算速度。GTC2023 同时发布 H100 NVLINK,这款 【【微信】】 启用了基本完全的 94GB HBM 显存堆栈。最大区别在于,双 GPU 结构,顶部使用 3 个 NV Link 连接器进行互联,因此可以提供多达 188GB 显存,显存带宽也 不止翻倍,每个 GPU 带宽提供 3.9TB/s,而 H100 SXM为 3.35TB/s,H100 PCIe 为 2TB/s。H100 NVL 综合性能可以达到 H100 SXM 的两倍。

(二)大算力场景下,多项技术瓶颈期待突破

大算力背景下,存算性能呈现剪刀差,存储器件性能远弱于算力性能提升。随着 AI 算力 需求的不断提升,传统存储器件也到达了尺寸的极限。依靠先进制程工艺不断缩小器件面积、 同时提升算力的方式似乎已经走入死路。我们突破 AI 算力困境的方式,有着两条清晰的路线: 架构创新与存储器件创新。“存”“算”之间性能失配,从而导致了访存和成本优化,带宽低、 时延长、功耗高等问题,即通常所说的“存储墙”和“功耗墙访存愈密集,“墙”的问题愈严 重算力提升愈困难。随着以人工智能为代表的访存密集型应用快速崛起访存时延和功耗开销 无法忽视,计算架构的变革显得尤为迫切。

冯诺依曼架构,导致数据传输的 90%功率消耗都在数据传输上,99%的时间都消耗在存 储器读写

用chatgpt会被警告吗 使用chatgpt会被警告吗

用chegg会被发现吗

据德新社报道,欧洲*组织当地时间3月27日说,ChatGPT(聊天生成预训练转换器)等人工智能聊天机器人有“阴暗面”,很可能被犯罪分子滥用。

欧洲*组织说,针对公众给予ChatGPT越来越多的关注,该组织的创新实验室已经组织了多次研讨会,探讨犯罪分子可以怎样滥用大型语言模式和协助调查人员展开工作。

报道称,这个总部设在海牙的机构说,在许多值得关切的领域中,该组织正集中关注三个犯罪领域:欺诈、社会工程和虚假信息以及网络犯罪。

就第一个领域而言,该组织说:“ChatGPT撰写高度逼真文章的能力使它成为网络钓鱼的有用工具。”欧洲*组织说,它模拟言语模式的能力可以用于模仿特定个人或组织的语言风格。

报道称,在虚假信息方面,该组织说,ChatGPT“擅于快速和大量制造听起来真实的文章”,这使它成为宣传和制造虚假信息等方面的理想模型。

在网络犯罪方面,欧洲*组织指出,ChatGPT可以用许多编程语言制造代码。该组织说:“对一个没有多少技术知识的潜在罪犯来说,这是一个制造恶意代码的极其有用的资源。”

(编译/杨新鹏)