奇安信齐向东:ChatGPT将壮大网络攻击者的队伍
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
界面新闻记者 | 姜菁玲
随着ChatGPT在各行业的快速落地,人工智能技术带来的安全风险正在引发新的担忧。网络安全研究机构Check Point Research对地下黑客社区活动的分析显示,网络犯罪分子当前已经在使用ChatGPT开发恶意工具,撰写病毒脚本或者钓鱼邮件,从而实施网络攻击。
近日,奇安信集团董事长齐向东在接受界面新闻采访时也提到,如今ChatGPT正在带来三方面的网络安全挑战:
首先,降低了网络犯罪门槛,加剧了数据遭遇外部攻击的风险。过去,高水平的黑客只是一小部分,而ChatGPT既能挖漏洞、写代码,还能教人怎么做网络攻击者。借助ChatGPT,初级网络攻击者可以快速达到中级,甚至高级水平。恶意攻击代码和钓鱼攻击变得“唾手可得”,加大了数据安全风险。
其次,增加了数据泄露途径,会让数据在使用中“被动”泄露。数据安全供应商Cyberhaven近期发布的一份研究显示,在2023年初的一周内,每十万名员工中机密业务数据被输入ChatGPT199次。用户可能没有意识到,ChatGPT的公开版本并没有将他们的输入保密,而是使用它来学习和响应未来的请求。
最后,深度伪造技术让信息识别成为难题。利用人工智能技术,犯罪分子不仅可以编写出更贴近受害人的工作环境的钓鱼邮件,人工智能的重要技术分支深度合成可能也会被犯罪分子用来伪造声音、图像、视频和其他证据等。
“如果人工智能变成一个像水、电、煤气一样的基础设施,那么该基础设施一旦出现问题,后果可想而知。”齐向东说。
由于GPT带来的安全性风险仍然充满未知,许多公司对GPT相关的技术表现出相当保守的态度。美国运营商【【微信】】以高管对ChatGPT安全风险的担忧为由,阻止其员工在工作时访问该程序。摩根大通、亚马逊、美国银行、花旗集团、德意志银行、高盛和富国银行也纷纷效仿限制员工使用ChatGPT。
齐向东表示,对于GPT带来的安全性挑战,企业需要提高数据使用敏感度,“给GPT喂数据时,需要对数据进行一些处理,或寻求专业的安全公司,避免在GPT发展过程中出现比较重大的数据泄露事件。”
对于网络安全公司本身而言,齐向东称,人工智能技术将会提升网络安全防御上的效率,在威胁检测、漏洞挖掘、安全软件开发等方面会更高效。比如在数据全链条安全检测上,人工智能可以大大提高监督的效率,让以往不可能做到的事情成为可能。
据他透露,目前奇安信正在训练专有的类ChatGPT安全大模型,并且在人才培养上进行了布局,通过“人+机器”的配合来应对未来的安全挑战。
(文章来源:界面新闻)
复旦教授:若ChatGPT在托勒密时代出现,日心说恐怕永远被判错误答案
复旦 教授,上海复旦教授是讲什么的,复旦之耻的教授,复旦大学教授讲话今天下午,复旦大学庆祝建校118周年相辉校庆系列学术报告第一场在相辉堂南堂拉开帷幕,复旦大学哲学学院教授徐英瑾以“从人工智能哲学的角度看ChatGPT”为题开讲。
面对时下热门的人工智能话题,徐英瑾带领听众回顾了人工智能的前世今生和ChatGPT技术的发展路径,并从哲学角度分析这一技术的主要弊端――将“常人”的意见予以全面的机械化复制,从而加剧人类“自欺”现象的泛滥。
【运用人类语言顺畅聊天,并非认定智能的必要条件】
在史蒂文・斯皮尔伯格导演的电影《人工智能》中,一对因车祸痛失爱子的夫妻收养了人工智能“大卫”。在被人类养育的过程中,大卫渐渐产生了“我到底是一个机器,还是一个人”的困惑。
这背后隐含了一个深刻的哲学问题――机器能够思考吗?正是这个疑问,当年引发了徐英瑾对人工智能的学术兴趣。
哲学如空气般无处不在,哲学家的使命就是带着历史与辨证的眼光,将不同的学科体系打通,寻找它们背后隐藏的普遍规律。“哲学的一大特点是思考大问题、澄清大问题。”徐英瑾将哲学形象地比作“爬山虎”,认为哲学可通过“X+”的方式附着在数学、物理学等诸多学科上,通过提供反思获得养料,但究其根本,哲学仍需要回到形而上学,接受哲学“本部”的指令。
探讨和理解人工智能,首先要回归对于“智能”这一概念的辨析。徐英瑾从输入与输出之间的映射关系切入,介绍了人工智能之父阿兰・图灵提出的行为主义标准。判断一物是否有言语行为从而认定其是否智能,这便是著名的图灵测试原理。
没有通过图灵测验,是否仍有可能被认定为人工智能?徐英瑾以不通现代语言的土著、善于筑巢的鸟类以及设想中的外星人为例,阐释了与人类顺畅沟通的言语行为并非认定智能的必要条件,而只是充分条件。
对于人工智能的发展,社会各界的观点目前可大致分为乐观论、悲观论和泡沫论三类。支持“泡沫论”的华裔科学家、斯坦福大学教授李飞飞曾说,不要高估现在人工智能的发展水平,从物理学角度看人工智能,它目前还处于前伽利略阶段,徐英瑾对此表示赞成。
【真正识别人类精神内核,人工智能仍在路上】
“理解ChatGPT的本质并不困难。”徐英瑾介绍,ChatGPT的英文全称是Chat Generati【【微信】】rmer(聊天生成型预训练转换模型),其中Chat(聊天)一词,在人工智能领域地位特殊,这源于图灵测验的一项发明――早已出现的“聊天盒(chatbox)”技术。而ChatGPT作为一种大型语言模型,是“传统神经元网络技术+深度学习技术”的进阶版,通俗来说,就是通过数学建模建造出一个简易的人工神经元网络结构。
尽管ChatGPT的语言通顺程度和机器翻译水平令人赞叹,但谈到这种模型与人类的根本区别,徐英瑾指出,人工智能的进步,实际上是统计学意义上的进步,是通过不断迭代的大规模数据集和人工语料训练后“野蛮投入”的结果,因此,纵使ChatGPT看到“路遥知马力”能接上“日久见人心”,但它并不能真正理解中文诗词的精妙内涵。
从海德格尔哲学的角度看,这种人工智能系统训练方式将不得不把“常人”的意见加以建制化与机械化,由此使得社会意识形态的板结现象变得更为严重。换言之,从机器的视角看,一个正确的意见就是被大多数人所认可的意见,因此,少数“异类”提出的“离经叛道”之说在技术上就会被过滤掉。
“这需要我们的高度警惕,”徐英瑾强调,“假若ChatGPT技术在托勒密的时代就出现,哥白尼的‘日心说’恐怕会永远被判定为错误答案。”
而由于人工智能训练与当下总是存在时间差,无法面对未来,是ChatGPT这类人工智能的最大瓶颈所在。徐英瑾表示,过度依赖ChatGPT,可能会让人丧失反思力与对未来的把握能力,陷入过度“自欺”的状态。
人工智能未来到底走向何处?在他看来,要想真正走通人工智能道路,需要在结合节俭性算法与推理引擎的基础上,兼顾哲学思维带来的“破”与“立”。技术的跨越必然需要带来应用场景中的深入观察,无论人工智能变得多聪明,适应与满足人类发展的需要是根本指向。大数据的训练很难让机器对语境形成精准识别,如何突破语料的伪装,真正识别人类的精神内核,人工智能仍在路上。