chatgpt会加速元宇宙吗 元宇宙和chatgpt的差别
淘宝搜:【天降红包222】领超级红包,京东搜:【天降红包222】
淘宝互助,淘宝双11微信互助群关注公众号 【淘姐妹】
这是一读EDU2023年的第6期会议机会集锦
全文2755字,您将读到5条会议信息
预计阅读时间5分钟
作为专注于高等教育的研究性自媒体,一读EDU深耕高教领域,持续为您提供新鲜实用的信息和科学深入的分析,始终致力于做高等教育优质资讯的产出者和提供者。如果您是高校管理人员、高等教育领域的教学科研人员和学生,或对 高教领域会议、讲座、活动等感兴趣,欢迎您关注“一期一会”栏目,“一读君”每周将为您更新最新有关高等教育的各类学术研讨会、论坛等会议。如果您是相关高教会议的主办方,希望得到专业媒体支持,欢迎添加“一读君”(id:edu_yidu)详聊。
01
中国历史上的改革成效
讲座时间
2023年3月12日(周日)20时
主讲
王裕华 教授 (哈佛大学政府系)
主持人
周黎安 教授(北京大学光华管理学院)
黄宗智 教授(加利福尼亚大学洛杉矶校区历史系)
与谈人
杨念群 教授(中国人民大学清史所)
罗t楠 助理教授(北京大学政府管理学院)
直播地址
主办单位
中国人民大学历史与社会高等研究所
02
ChatGPT如何影响元宇宙?
讲座时间
2023年3月12日 20:00-22:30
讨论嘉宾
蒋程宇(技术观察者、指数深空创始人)
主办
服务器艺术
参会方式
扫码观看
03 ??
高等教育组织和治理的变迁
讲座时间
2022年3月14日(周二)下午19:00 - 20:30
主讲
Peter Maassen(挪威奥斯陆大学教育科学学院高等教育研究领域教授)
主办
北京大学教育学院、芬兰坦佩雷大学管理学院
内容
如何理解高等教育中的组织与治理?
主持人简介
张华峰博士,上海师范大学国际与比较教育研究院副教授,联合国教科文组织教师教育中心研究人员。
报名方式
https://tuni.zoom.us/meeting/register/u50lc-G【【微信】】dIi3QsWOn
04 ??
天赋、教育与国家:
美国英才教育正当性争议
讲座时间
2023年3月15日(周三)下午2:00 - 4:00
地点
上海市桂林路55号联合国教科文组织教师教育中心二楼明远厅
主讲人简介
陆一博士,复旦大学研究员、博士生导师,现任复旦大学高等教育研究所副所长、《复旦教育论坛》副主编。长期关注中国高等教育及教育与社会系统中的枢纽性问题,在“拔尖创新人才培养”“考试与中国社会”“大学通识教育”等主题领域开展持续的研究。曾出版专著《教养与文明――日本通识教育小史》,在《教育研究》《高等教育研究》等重要教育学期刊发表论文数十篇,多次获得国家级学术成果奖。
与谈人简介
黄海涛博士,上海师范大学教授、博士生导师,美国丹佛大学访问学者。现任上海师范大学教育学院副院长、高等教育学学科点负责人,兼任中国高等教育学会高等教育学专业委员会常务理事,上海高等教育督导评价专家委员会委员。
主持人简介
张华峰博士,上海师范大学国际与比较教育研究院副教授,联合国教科文组织教师教育中心研究人员。
报名方式
05 ??
历史教育与历史教育测量
讲座时间
2023年3月15日(周三)15:00-17:00
主讲
刘M(教育部考试中心)
主办
首都师范大学历史学院
地点
首都师范大学文科楼401会议室
温馨提示:近期,微信公众号信息流改版。每个用户可以设置 常读订阅号,这些订阅号将以大卡片的形式展示。因此,如果不想错过“一读EDU”的文章,你一定要进行以下操作:进入“一读EDU”公众号 → 点击右上角的 ・・・ 菜单 → 选择「设为星标」
文章不错,分享给更多人吧!返回搜狐,查看更多
责任编辑:
人工智能chatgpt可以为我们做什么 chatgpt是人工智能的里程碑
人工智能 bt,人工智能cs,人工智能 f1,人工智能hi人工智能(AI)是推动科技跨越发展、产业优化升级、生产力整体跃升的关键驱动力量。最近,ChatGPT再次引发全球对新一代AI的广泛关注,主要经济体竞相加快AI技术创新和产业布局。但如何应对AI快速发展带来的治理和监管挑战,也是当今世界各国面对的共同问题,探索解决AI治理问题迫在眉睫。
以ChatGPT为代表的生成式AI带来监管治理新挑战
2022年11月底,OpenAI发布了ChatGPT,把AI应用拓展到新水平。ChatGPT属于机器学习大类,是典型的生成式AI。生成式AI是指可用于创建音频、代码、图像、文本、模拟和视频等新内容的算法,除ChatGPT外,比较典型的还有DALL-E(可生成图像的AI工具)。伴随生成式AI越来越多地无缝融入商业、社会和个人生活,一系列新的风险挑战也逐渐凸显。
一是商业应用面临潜在风险隐患。一方面,应用门槛降低。“低代码”和“无代码”AI工具使得集成、构建和部署AI应用程序变得便宜而容易。这意味着小微企业甚至个人,就可以使用AI和机器学习技术。另一方面,信息不对称加剧。开发生成式AI模型的“上游开发人员”,无法预估应用该模型的全部场景。而未参与原始模型开发的“下游开发人员”,又可能会调整模型并将其输出集成到更广泛的软件系统中,开发出新的应用场景。由于上游和下游开发人员均无法全面了解、完全控制整个AI系统,商业应用中出现错误和意外的可能性大大增加。
二是恶意使用带来安全伦理问题。一方面,生成式AI模型可能创建未经同意的内容,包括自动生成仇恨言论、有针对性的骚扰或虚假信息等。此类模型已经被用于设计更具说服力的骗局,例如帮助欺诈者模仿CEO的声音以获得汇款。虽然在数字生态系统中,上述情况屡见不鲜,但是生成式AI的扩散可能会使情况变得更糟。另一方面,隐私保护面临空前严峻的挑战。据美联社3月9日报道,美国政府工作人员的健康保险出现安全漏洞,数百名国会议员及其家人的敏感信息被盗。生成式AI需要大量训练数据作为支撑,其中可能包括涉及企业机密和个人隐私的敏感数据,社会公众倾向于认为设备供应商可能在机器上设置“后门”,用来远程控制系统或窃取信息。
三是算法偏见加剧弱势群体歧视。一方面,算法偏见存在于不同人群之间,弱势群体容易被算法忽视。算法开发和应用常常忽略性别、年龄等方面的弱势群体,甚至可能诱导不道德活动或犯罪活动,这些弱势群体因此可能受到不同程度的伤害。特别是一些未被发现和未被处理的潜在偏见,可能会使决策结果缺乏准确性和公平性,还可能使系统开发人员和用户因违背反歧视法而承担法律责任。另一方面,一些历史偏见常常在不知不觉中“镶嵌”入算法之中。
美欧尝试在AI监管规范性和灵活性之间取得平衡
近年来,美欧等主要经济体争相推进AI治理探索。美欧治理模式有较大差别,虽然两者的AI治理都不是纯粹的“横向”或“纵向”,但相比之下,欧盟的AI治理思路更偏“横向”,力求通过一个总的法案约束所有领域、所有类型的AI;而美国的治理则更偏“纵向”,不同领域、不同系统分别制定了具有约束力的AI治理指南。
欧盟治理模式。2021年4月,欧盟委员会发布了拟议的《AI法案(草案)》,力求建立一个基于分层风险类别的AI开发、部署和应用的安全框架。该法案的核心是将 AI 应用程序分为不可接受的风险、高风险和其他风险等类别,每个类别都由一组预定义的监管工具进行管理。该 AI法案模糊地定义了每个风险等级的“基本要求”,对每个类别施加了不同限制。
该法案的特点在于:一是力求通过“横向”立法,使用一部单一法案监管几乎所有AI使用,该法案成为全球首个应对AI风险的法律框架。AI法案确定了要监管的AI应用范围,同时允许具体领域的机构确定确切的参数和合规策略。该框架在提供可预测性和跟上AI发展步伐的双重要求之间取得了平衡。二是该法案使用基于风险等级的监管方案,允许监管机构随着AI用途的发展,将新的应用领域划入已有的风险类别,从而在监管规范性和灵活性之间取得平衡。同时,该法案模糊化定义风险等级边界,也缓解了纯横向立法带来的“过于死板”的“一刀切”问题。但是也要看到,该模式也存在若干问题,比较突出的是,法案对监管机构要求较高,负责执行法案的各个监管机构可能在监管能力方面存在差异,从而破坏横向治理的协调优势。
美国治理模式。2022年10月,美国发布《AI权利法案蓝图》,确定五项原则:系统的安全有效性、免受算法歧视、确保数据隐私权、AI系统的使用通知及其对用户潜在影响、退出AI系统的能力。美国治理模式的主导思想是,将监管视为一种阻碍创新的行为,认为必须“避免妨碍AI创新和增长的不必要的监管或非监管行动”。总体来看,美国还是强调“少管”,除必要点外,能不管就不管。
美国治理模式的最大特点在于偏“纵向”,目前尚未形成统一的AI立法,更多依靠地方自治、行业规则和个人诉讼等方式解决生成式AI带来的问题,各部门分别出台本领域的监管指南。在该蓝图发布前后,至少有美国国防部、平等就业机会委员会、劳工部等五个联邦机构通过了负责任地使用AI系统的指南。
同时,美国模式也有显而易见的缺陷。例如,《AI权利法案蓝图》着眼于私营部门的自我监管,但是,对于通常从AI不透明性中获利的企业来说,这种期望可能不太现实。再如,该蓝图虽然提到贷款、招聘等领域的公民权利保护和可解释性,但是,由于互联网和算法应用程序上存在不透明性,影响算法模型运行方式的因素通常不会告知消费者,如何确保公民权利的保护和可解释性仍然未知。再如,该蓝图没有提供强制性、可执行的指导方针,并且缺乏明确的执行制度。
加快构建AI监管治理新模式
近年来,我国在AI治理方面进行了多方探索,并在全球率先推出两项针对推荐算法和深度合成技术的生成式AI治理法规。2021年12月,国家互联网信息办公室等四部门联合发布《互联网信息服务算法推荐管理规定》。2022年11月,在ChatGPT发布的同时,国家互联网信息办公室等三部门联合发布《互联网信息服务深度合成管理规定》,明确了生成式AI应用服务提供者、技术支持者和服务使用者等各方的法定义务,在生成式AI法律监管方面迈出重要一步。今后一个阶段,适当借鉴美欧经验做法,兼顾“横向”和“纵向”治理,从三个方面着手,逐步构建起符合我国实际的AI治理模式。
一是推动监管领域的技术创新。AI发展速度之快,已经超出传统监管体系的约束能力,监管技术落后已经成为制约监管能力提升的主要障碍之一。未来几年,监管技术创新可在发现未知漏洞、检测恶意活动、采取对策防御等几个方面集中发力。同时,为相关应用建立AI工具的动态测试、验证和认证标准,围绕AI的研发制定共同规范,并考虑约束该领域的知识和能力扩散。
二是制定完善人工智能法律体系。特别是要通过法律的形式,对AI治理的核心概念达成共识,对隐私保护、数据治理等有争议的问题,必须进行深入研究。明确AI使用的价值观、知识产权、隐私权等伦理问题,规范透明度、安全性和问责制等使用问题,建立监管规则、技术规范等,强化AI的正面作用,减少AI的负面影响。同时,明确AI治理机构,建立AI监管体系。
三是引导实施AI全生命周期治理。关键在于调动AI参与者的积极性,引导AI参与者对其开发和使用的AI系统承担责任,确保AI系统是值得信赖的,即:AI系统能够造福于人,尊重*和公平,确保AI系统是透明的和可解释的。为实现这一目标,要引导参与者制定一套AI风险管理动态机制,实施AI系统规划和设计、数据收集和处理、模型构建和验证,以及部署操作和监控的全生命周期治理。