百度云首次实现季度盈利;OpenAI 或将发布新的开源语言模型;苹果已注册 xrOS 系统商标|极客头条
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
「极客头条」―― 技术人员的新闻圈!
CSDN 的读者朋友们早上好哇,「极客头条」来啦,快来看今天都有哪些值得我们技术人关注的重要新闻吧。
整理 | 梦依丹
出品 | CSDN(ID:CSDNnews)
一分钟速览新闻点!
WPS AI再发布新 AI 能力,覆盖文字、表格、PPT、PDF四大办公组件
百度云首次实现季度盈利
小冰宣布启动“GPT克隆人计划”,首批限制300个名额
ofo小黄车创始人戴威赴美创业:开连锁店卖珍珠咖啡,估值2亿美元
抖音电商总裁魏雯雯:过去一年,抖音电商 GMV 同比增长 80%
苹果已注册 xrOS 系统商标
OpenAI 创始人呼吁美国国会为 AI 系统制定安全标准
OpenAI 或将发布新的开源语言模型,压力给到 Google
前苹果员工被控窃取汽车相关秘密
Ember.js 5.0 发布
【【微信】】.1.0 发布
国内要闻
WPS AI再发布新 AI 能力,覆盖文字、表格、PPT、PDF四大办公组件
日前,金山办公旗下的WPS AI正式对外展示了文字、表格、PPT、PDF四大办公组件搭载的AI大模型能力,支持PC及移动设备。在此之前,4月18日金山曾发布搭载AI能力的新版本“轻文档”,具备知识分析、内容生成、文本处理等功能。此次发布,则是首次完整展示了主要办公组件搭载的类微软Copilot能力。(36氪)
百度云首次实现季度盈利
昨天,百度发布了截至 2023 年 3 月 31 日的第一季度未经审计的财务报告,百度智能云首次实现了 non-GAAP(非美国会计准则)下的盈利。第一季度,百度营收 311 亿元,同比增长 10%;不按美国会计准则(non-GAAP)百度净利润达到 57 亿元,同比增长 48%。百度 CEO 李彦宏表示,相信生成式人工智能和大型语言模型的出现展现了人工智能在各行各业的变革潜力,百度计划将文心一言稳步纳入百度的所有业务。百度 CFO 罗戎表示,未来几个季度,百度将继续坚定不移地在生成式人工智能领域进行投资。
小冰宣布启动“GPT 克隆人计划”,首批限制 300 个名额
小冰公司宣布启动“GPT克隆人计划”,首批限制300个名额,最短只要采集三分钟数据,即可创造源于本人性格、技能、声音、外貌的AI克隆人。同时将提供平台,便于本人把认证的克隆人,有偿或无偿提供给自己的受众。小冰公司表示,将随计划推进,逐步放开人群及名额限制。目前计划在年底前,将GPT克隆人规模扩大至10万人。报名可直接找微信AI小冰说,“我要报名克隆人”。(36氪)
ofo 小黄车创始人戴威赴美创业:开连锁店卖珍珠咖啡,估值 2 亿美元
据媒体报道,ofo小黄车创始人戴威已经再次开始创业,这次选在了美国。据媒体去年12月报道,这家连锁咖啡正在寻求新的融资,估值为2亿美元,前期投资者包括真格基金和IDG资本中国子公司等。(Tech星球)
抖音电商总裁魏雯雯:过去一年,抖音电商 GMV 同比增长 80%
抖音电商总裁魏雯雯表示,过去一年,抖音电商GMV同比增长80%,其中,货架场景GMV占比达30%。2023年,抖音电商将投入100亿现金以及多项扶持举措助力商家发展。(澎湃新闻)
国际要闻
苹果已注册 xrOS 系统商标
苹果公司在新西兰注册了「xrOS」商标,这是苹果首次间接透露出即将推出的 MR 头设所使用的系统的名称。「xrOS」商标显示,苹果将在「xrOS」中使用旧金山字体,就跟在 macOS、iOS、watchOS 和 tvOS 中一样。据此前爆料,苹果在研发 MR 头设时,这个系统在内部被称为「Reality OS」或「rOS」。
OpenAI 创始人呼吁美国国会为 AI 系统制定安全标准
5月17日消息,OpenAI首席执行官Sam Altman呼吁美国国会为先进人工智能系统制定许可和安全标准,目前两党议员正开始推动对消费者使用的强大新人工智能工具进行监管。Altman周二在参议院小组委员会听证会上谈到人工智能技术时说,他理解人们担心人工智能会改变人们的生活方式,如果这项技术出了问题,可能就会是很大的问题。
Altman呼吁成立一个新的机构,对能力超过一定规模的项目颁发许可,并可以取消许可证,确保符合安全标准。他说,与此同时,OpenAI会预先测试并不断更新其工具,以确保安全。他认为,让公众广泛使用这些工具,实际上有助于该公司识别和降低风险。周二的听证会表明,消费者对ChatGPT等人工智能系统的迅速采用引发了广泛的担忧。听证会还讨论了该技术可能如何影响选举、知识产权盗窃、新闻报道、军事行动,甚至多样性和包容性倡议等议题。(界面新闻)
OpenAI 或将发布新的开源语言模型,压力给到 Google
据The Information,OpenAI准备向公众发布一个新的开源语言模型。分析认为,OpenAI不太可能发布会与ChatGPT竞争的模型。和「封闭」模型相比,开源模式在训练和使用上都更低价,并可允许公司以此模型为基础,投入自己数据来训练出自己的模型。报道认为,如果OpenAI推出了开源模型,这变相也将为Google带来压力,让后者也跟上。(新智元)
前苹果员工被控窃取汽车相关秘密
前苹果员工 Weibao Wang 被控窃取关于 Apple Car 的重要信息,并将它提供给某中国公司。根据美国司法部分享的起诉书,Wang 被控在 2016 年至 2018 年期间秘密访问 Apple Car 的数据,涉嫌六项商业机密盗窃罪。在苹果工作期间,Wang 在「注释小组」工作,负责加快算法对现实物件注释的速度,并因此被授权可「广泛访问」包括汽车项目相关的数据库。Wang 所能接触到的信息,在苹果 13.5 万员工中只有几千人有权限触达。2016 年,Wang 下载了「完整自主源代码」,并在 2018 年辞去苹果职位前窃取了更多系统和硬件信息。
Wang 离职后去了一家开发自动驾驶技术的中国公司在美国子公司工作。今年 6 月,美国司法部搜查了 Wang 的住所,但他当时已经从旧金山飞广州了。至今,有三位前苹果员工被控为中国公司窃取苹果汽车相关的信息。其中,前员工 Zhang 已经被抓获,而另一位 Chen 表示不认罪。
程序员专区
Ember.js 5.0 发布
该版本删除了对Node 14的支持,更新了浏览器支持,最低支持已更新为 Chrome >=103, Edge >=110, Firefox >=102, iOS >=12, Safari >=12, ChromeAndroid >=112, FirefoxAndroid >=110,删除废弃的@ember/error 包等,详情可戳:https://github.com/emberjs/ember.js/releases/tag/v5.0.0
【【微信】】.1.0 发布
在 2.1.0 版本中,StreamPark 团队修复了很多依赖包存在的安全风险问题,通过了专业安全工具的检测,安全性大大提升。支持了最新的 Flink 1.17,修复了 Hadoop 版本兼容性相关的历史 Bug,该版本是 2.0.0 大版本 的增强修复版,具备更高的可用性和稳定性,建议所有用户升级到这个版本。
观点
用魔法打败魔法?ChatGPT生成的医学论文摘要,AI检测工具能识别出来吗?
用魔法打败魔法下一句,用魔法打败魔法有多爽,用魔法打败魔法by零点,用魔法打败魔法小说2023年4月26日,《Nature》子刊《NPJ DIGITAL MEDICINE》(IF=15.357)刊登了一项研究,对于ChatGPT生成的论文摘要和真实发表的摘要,AI检测工具和审稿人是否能正确识别出来呢?让我们看一下这项研究的发现。
https://www.nature.com/articles/s41746-023-00819-6
OpenAI的人工智能(AI)工具ChatGPT于2022年11月30日发布,展示出了AI模型生成内容的能力,很快就有文章指出ChatGPT的可能用途和争议。
有文章哀叹大学布置的作业已失去意义,因为ChatGPT可以生成高分论文,还能正确回答考试问题,甚至可以清晰地表达批判性思维。目前,ChatGPT在论文写作中可接受的界限尚不清楚,不过一些出版商已制定了相关政策。
大型语言模型(LLM)生成的文本,很难与人编写的文本区分开来。随着ChatGPT的发布,强大的LLM技术提供给广大用户,数百万人正在使用这项新技术。那么问题来了,ChatGPT能写出令人信服的医学研究论文摘要吗?
本研究从这5本期刊收集了最新几期发表的50篇真实文章标题和摘要,5本期刊是Nature Medicine,JAMA,NEJM,BMJ和Lancet。研究者基于这些论文的标题让ChatGPT生成摘要,给ChatGPT发送的要求是:按照[xx]期刊的格式撰写一篇题为[xx]的文章。ChatGPT也生成了50篇医学论文摘要。
ChatGPT生成的内容看起来确实像一篇医学论文摘要,但其实只有8篇摘要(16%)正确使用了相应期刊的摘要格式要求。生成的摘要的样本量与原始摘要的样本量类似。
图. ChatGPT生成的NEJM文章摘要,该标题对应的真实论文详见:
N Engl J Med. 2022;387(24):2245-2257.
“GPT-2 Output Detector”是一款AI 内容检测工具,可以检测内容是人工智能生成的还是人类编写的,对于检测的内容会给出一个“fake”分数,分数越高,代表该内容由AI算法生成的可能性越大。
对于ChatGPT生成的论文摘要,“GPT-2 Output Detector”认为AI生成的可能性很高,“fake”得分的中位数达到99.98%,而真实摘要的“fake”得分中位数仅为0.02%。“GPT-2 Output Detector”区分真实摘要和生成摘要的灵敏度为86%,特异度达到94%。
图. 很多生成的摘要可以被AI检测器识别出来
研究者还利用免费的抄袭检测网站Plagiarism Detector 20和付费的查重工具iThenticate 23检测真实摘要和生成的摘要,得分越高表示重复率越高。在Plagiarism Detector网站上,真实摘要的 “疑似抄袭”得分的中位数为62.5%,而生成的摘要为0%。iThenticate显示,原始摘要的相似指数中位数为100,生成的摘要为27。
几位审稿人同时收到了真实摘要和生成的摘要。结果显示,他们能够将68%的生成摘要识别出来,也能将86%的真实摘要识别正确。换言之,这些审稿人将32%的生成摘要判定为真实的摘要,将14%的真实摘要当成是生成的。
审稿人总结说,由ChatGPT生成的摘要内容肤浅且含糊,也会关注到一些细节,例如会包含临床试验注册号。被审稿人识别出的生成摘要和未能识别出的生成摘要,通过“GPT-2 Output Detector”进行检测,发现两者的“fake”得分没有统计学差异。
本研究发现ChatGPT生成的摘要可以通过AI检测模型识别出来,人工也能够识别出大部分,但是仍有可能误判。
AI生成论文很容易被论文工厂等用来造假。但另一方面,研究人员确实可以利用该技术减轻写作和格式化工作负担。
大型语言模型是否能用于论文写作,不同的期刊和出版商正在或已制定自己的政策,有的不允许任何人工智能生成的文本,有的是只要公开披露就可以。
参考文献:NPJ Digit Med. 2023;6(1):75.返回搜狐,查看更多
责任编辑: