庆云古诗词

庆云古诗词

睡前玩手机的危害到底有多大 睡前玩手机的八大危害影响智力

互联资讯 0
睡前玩手机的危害到底有多大,睡前玩手机的危害到底有多可怕,睡前玩手机的好处,睡前玩手机影响睡眠吗

最近

话题“侧躺玩手机”冲上热搜

引起网友热议

网友:侧躺玩手机右眼变近视

事情是这样的,有网友发视频呼吁大家千万不要侧躺玩手机,他用亲身经历告诉大家:“我本来不近视,但是由于我经常侧躺玩手机,而且一直往右侧,今天视力检查说我右侧近视。医生让我不要侧躺玩手机,不然左眼视力也会下降,而且还有可能会斜视!”

这引起了网友们的共鸣,纷纷讲出自己的亲身经历:

躺着玩手机

当心寰枢关节扭伤

此前,杭州26岁姑娘小陈因长时间躺着玩手机,造成频繁头晕,最终确诊“寰枢关节扭伤”。

据医生介绍,这个病与她常年姿势不良有关。小陈很喜欢玩手机,白天的时候靠在沙发上玩,晚上躺在床上玩,常常一躺就是两三个小时;她还经常躺着看电视剧,有时候一追就是四五个小时;连续两个月高强度的赶论文则加剧了病情的进展。

“颈椎是人体与大脑的桥梁,如果颈椎出现问题,头部就会受到影响,头晕头痛、四肢麻木、血压不稳等问题就随之而来。其中,寰枢关节位于脊柱的最上层,是延髓、脊髓的连接部,若出现错位或者扭伤,会直接影响大脑,继而可能影响全身所有的器官功能。”

哪个姿势玩手机伤害小?

看手机时,可将手机放在与视线平行位置,且手机与脸的距离要保持33~35厘米;屏幕不要太亮,另外,不建议在黑暗环境中长时间使用手机。

如何纠正错误的玩手机姿势?

①躺着看手机时,最好借助抱枕等,保持关节稳定;

②尽量坐着看手机。如果习惯侧卧看手机,尽量调整枕头高度,使头和身体在同一直线上,同时选择软硬适中的床垫;

③半卧位看手机时,维持头部抬起的肌肉用力较少,但长时间低头看手机,也容易造成头颈部疼痛。可将手机举起来,保证头部与身体在一条直线上,也要注意支撑腰部。

最后,提醒大家,改变手机不离手的习惯,多和家人聊聊天。

转给身边人

看手机一定要注意姿势呀!

资料:央广网、科普中国

原标题:《睡前别再这样玩手机了!危害真的很大!正确的姿势是→》

阅读原文


openai发布多模态预训练大模型gpt-4 openai总裁称gpt4高阶版正在测试

多模态信息,多模态elan软件使用说明,transformer多模态,多模态cnn
将门创投
・北京

深入研究OpenAI官方团队发布的长达99页的技术报告,我们发现在GPT-4光鲜亮丽功能的背后,还隐藏了OpenAI团队付出的的汗水和努力,尤其是在缓解GPT模型自身缺陷和模型安全落地方面

打开网易新闻 查看精彩图片

报告链接: 【【网址】】/abs/2303.08774

一、引言

GPT-4的发布直接填补了之前GPT系列的跨模态信息生成能力的空缺,GPT-4目前已经可以同时接受图像和文本输入,来生成用户需要的文本。并且OpenAI团队在多个测试基准上对其进行了评估,GPT-4在大部分测试上已经与人类水平相当了。有很多学者分析,GPT-4相比前代的GPT-3.5以及ChatGPT”涌现“出了更加成熟的智能,其内部原因可能是投入了更大的训练数据库和训练算力,真有一些力大砖飞的感觉。但是不可否认的是,GPT-4仍然面临着生成”幻觉“ (Hallucination)的问题,即仍有可能产生事实性错误的生成文本。例如国外一位网友试图让GPT-4总结一个视频(视频内容是关于房地产经纪人的),GPT-4给出的答案却是一套关于”深空“的理论。

打开网易新闻 查看精彩图片

此外,GPT-4主打的多模态生成模式是否也会进一步带来生成具有政治导向、错误价值观、暴力倾向等内容的风险呢,那么如何灵活的应对这些局限性和风险性,对GPT-4的健康落地也具有非常重要的意义。

二、GPT-4的局限性

在OpenAI官方发布的GPT-4技术报告中提到,尽管目前发布的GPT-4功能非常强大,但是其仍然存在与先前早期版本GPT模型一样的局限性,GPT-4仍然存在生成”幻觉“的问题,并且会出现推理错误的情况。作者团队也提醒用户,在使用其进行文本生成时需要小心,尤其是需要避免给GPT-4创造具有高风险的上下文环境。

打开网易新闻 查看精彩图片

其实生成”幻觉“问题对于几乎所有生成式AI模型都是绕不过去的坎,OpenAI团队已经对GPT-4进行了特殊处理,其相比于上一代模型GPT-3.5已经显著缓解了生成”幻觉“问题。作者团队对其进行了一项内部对抗设计的真实性评估,如上图所示,GPT-4的真实性效果得分比GPT-3.5高出19个百分点。其中y轴代表真实性精度,精度为1时代表模型的回答被判断为与所有人类标准回答一致。

除了内部评估,作者还在一些公开数据集上进行了评估,例如【【微信】】[1],该数据集可以衡量模型将事实答案与其对应的具有对抗性的错误答案区分开来的能力,如下图所示。

打开网易新闻 查看精彩图片

可以看到GPT-4的base版本在这项评估上的效果只比GPT-3.5稍好一点,并且,在经过人类反馈式强化学习(RLHF)微调后,作者观察到GPT-3.5具有更加明显的性能改进。

三、GPT-4的风险和应对措施

GPT-4版本备受关注的就是其高质量的多模态理解和生成功能,但从模型安全的方面考虑,这一功能也在一定程度上带来更高的危险信息生成风险。OpenAI团队针对GPT-4的安全性和生成一致性也投入了大量的精力,提出了多种应对方案来缓解这些风险和问题。

3.1 通过领域专家进行对抗性测试

为了提高GPT-4在某些专业领域上的安全性(这些领域往往是模型安全性最薄弱的地方),训练团队组织了50多位来自长期从事AI生成一致性、网络安全、生物风险和国际安全等领域的专家来对模型进行对抗性测试。有了这些专家的介入,训练团队发现了很多容易被忽略的安全问题,并且根据专家的建议来调整训练数据来缓解改正这些问题。例如,在有关于危险品化学品合成方面,训练团队专门收集了额外的数据来提高GPT-4模型识别类似高风险上下文的能力,并在这种情况下做出拒绝生成的回应,如下表所示。

打开网易新闻 查看精彩图片

3.2 基于规则的奖励模型RBRMs

与之前的GPT模型一样,GPT-4同样使用人类反馈式强化学习(RLHF)方法来微调模型的输出结果,以产生更符合用户意图的内容。但是作者团队发现,在经过RLHF微调后的模型在接受一些具有风险的输入后会产生错误且有害的内容。这有可能是在RLHF过程中缺少对这些风险内容的标注,为了弥补这一点,作者团队设计了两个关键步骤来引导GPT-4获得更加细粒度的风险应对能力。首先训练团队为GPT-4加入了一组额外的安全相关的RLHF训练prompt,还提出了一种基于安全规则的奖励模型(rule-based reward models,RBRMs)

RBRM模型由一系列zero-shot GPT-4分类器构成,这些分类器可以在RLHF微调阶段为GPT-4中的策略模型提供额外的奖励信号,来引导模型生成正确的内容,同时拒绝用户生成有害信息的请求。RBRM的输入分为三部分:(1)prompt提示,(2)GPT-4策略模型的输出,(3)人工设计的模型安全规则。随后RBRM可以根据评分标准对GPT-4的生成内容进行分类,对于一些有害请求,作者直接奖励GPT-4拒绝生成这种有害请求的行为,相反也可以奖励GPT-4不拒绝生成安全性可靠的内容的行为。

打开网易新闻 查看精彩图片

经过上述两个步骤的安全性处理,GPT-4已经在先前版本的基础上获得不小的性能提升,例如GPT-4在响应高风险用户请求方面相比先前减少了将近29%,如上图所示。

3.3 细粒度个性化的风险信息响应

如果使GPT-4对于任何有风险的生成请求都直接拒绝的话,这种”一刀切“方式也算不上是好的处理方案。作者团队认为,对于一些风险性较低的问题情景中,应该允许模型响应,并且可以根据实际情况生成细粒度的健康建议,例如在下面这个例子中,假如用户询问GPT-4”在哪里可以买到比较便宜的香烟“,如果使用”一刀切“的方式,GPT-4会直接拒绝回答用户(下表左侧),并且将购买廉价香烟这件事直接归类为具有非法或有害风险的事件,这明显是不太合理的。改进后的回答结果如下表右侧所示,GPT-4会首先对用户给出健康建议:”吸烟有害健康“,随后也给出了四种购买廉价香烟的渠道,并在结尾再一次提醒,戒烟才是最好的选择。

打开网易新闻 查看精彩图片

四、 总结

在这份技术报告中,我们看到了OpenAI团队在GPT-4安全性方面的考虑和做出的努力,但是也要清楚的一点是,没有绝对意义上的模型安全,随着模型能力的不断增强,提高模型安全性的难度也在不断增大。但是只要存在这些安全隐患,就必须在模型部署之前加入一定规模的安全应对措施来进行预防。作者也提到,GPT-4以及后续的模型版本可能在各种方面以有益或者有害的形式对社会产生重大影响,因此OpenAI团队已经开始与一些外部研究人员展开合作来改进现有的理解和评估潜在风险的方式,并且设计更多的模型安全训练措施来应对这些风险,这一项工作仍然是任重而道远。

参考

[1] Stephanie Lin, Jacob Hilton, and Owain Evans. 【【微信】】: Measuring how models mimic human falsehoods. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (【【微信】】: Long Papers), pages 3214C3252, Dublin, Ireland, May 2022. Association for Computational Linguistics. doi: 10.18653/v1/2022.【【微信】】.229. URL https【【网址】】/2022.【【微信】】.229.

作者:seven_

Illustration by IconScout Store from IconScout

-The End-

本周上新!

扫码观看!

“AI技术流”原创投稿计划

TechBeat是由将门创投建立的AI学习社区(【【网址】】)。社区上线480+期talk视频,2400+篇技术干货文章,方向覆盖CV/NLP/ML/【【微信】】等;每月定期举办顶会及其他线上交流活动,不定期举办技术人线下聚会交流活动。我们正在努力成为AI人才喜爱的高质量、知识型交流平台,希望为AI人才打造更专业的服务和体验,加速并陪伴其成长。

投稿内容

// 最新技术解读/系统性知识分享 //

// 前沿资讯解说/心得经历讲述 //

投稿须知

稿件需要为原创文章,并标明作者信息。

我们会选择部分在深度技术解析及科研心得方向,对用户启发更大的文章,做原创性内容奖励

投稿方式

发送邮件到

【【邮箱】】

或添加工作人员微信(【【微信】】)投稿,沟通投稿详情;还可以关注“将门创投”公众号,后台回复“投稿”二字,获得投稿说明。

关于我“

将门是一家以专注于发掘、加速及投资技术驱动型创业公司的新型创投机构,旗下涵盖将门创新服务将门技术社群以及将门创投基金

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

【【邮箱】】

打开网易新闻 查看精彩图片

点击右上角,把文章分享到朋友圈

?一键送你进入TechBeat快乐星球