庆云古诗词

庆云古诗词

星空云:未来财务人员会被ChatGPT会取代吗?

互联资讯 0
未来财务人员如何转型,未来财务人员需要具备哪些能力,未来财务人员应具备哪些能力,未来财务人员需具备哪些能力?

ChatGPT在近期成为了热点话题,火遍全网,在全球掀起了一场关于人工智能的讨论,也为人类打开了一扇新的窗户。ChatGPT是由美国人工智能研究公司OpenAI在2022年11月底研究开发的智能聊天机器人程序。

ChatGPT是一款强大的AI语言程序,它能够学习和理解人类的语言,还能根据聊天的情景进行互动,像人类一样聊天交流。ChatGPT可以回答各种问题,还可以完成各种任务,包括撰写邮件、文章创作、工作报告、翻译、编写代码等任务。

ChatGPT在国内一经开放试用,便立即受到广泛关注。根据ChatGPT的智能程度,很大一部分重复性的工作岗位会被取代,比如财务简单的记账报税,在技术的支撑下,ChatGPT人工智能可以长时间的工作,而且对于企业而言,使用ChatGPT成本更低,使很多财务人员对未来职业发展感到担忧,担心财务的工作会被人工智能替代。

从另一方面来看,ChatGPT是人工设计出来的,没有人为设计制造,ChatGPT就不会出现,它是人类智慧的体现,但是取代不了人类智慧。从技术的角度,ChatGPT作为一个AI辅助工具,可以帮助提升员工的工作效率。ChatGPT的诞生是一次技术革新,将给财务领域带来巨大的变化,但未来将会是人机协同的模式。

ChatGPT属于人工智能应用生成的 AI人机辅助工具,拥有更高效率的学习能力。从长远来看, ChatGPT可以承担更多枯燥、重复的财务工作,比如银行对账、月末入款提醒、进销项差额提醒等。在将来,这些最基本的工作将被人工智能解放。

人工智能技术和财务领域的不断结合,将会给会计行业带来巨大的冲击。同时,也为今后的财务管理工作提供了一种新的思路和方法。

随着技术的进步而不断创新,作为财务人员,理应主动拥抱技术带来的变革。在企业工作中,财务人员应具备较强的管理能力、财务监督能力和学习能力,掌握企业发展方向。未来财务人员要从核算型财务往管理型会计转型,要具备业财融合的能力,将财务与业务相结合,实现事前、事中、事后全过程管控。

人工智能是一门前沿科学,只有积极参与到学习和探索的过程中,才能更好地理解它,拥抱它,并利用它。财务人员应以积极开放的心态了解新技术,不断充实自己,学习新知识,掌握新技能,将人工智能技术融合到会计工作中,推进数财融合,推动财务管理工作创新发展,帮助企业健康成长。


无需GPU无需网络“本地部署chatGPT”(更新StableVicuna)

无需更新的驱动什么意思

想当初图像生成从DELL到stable diffusion再到苹果的移动部署过了两三年吧 聊天bot才发展几个月就可以边缘部署了,如果苹果更新silicon,npu和运存翻倍,争取apple watch也能本地内置,最快ios18 mac、ipad、iPhone能内置吧 又是一个平民百姓都高兴的开源项目,chatGPT这种级别的模型甚至能部署到树莓派上运行,然后在操作的过程中也遇到一些问题,这篇就是记录步数的这个过程。 已经为最新版的github更新了(2023.5.4),可以放心食用,实测运行速度快了很多。 哈工大的chinese llama效果不如vicuna7b,所以我把这一块的内容给删掉了。 vicuna7b的合成需要高运行内存的电脑,如果你的电脑不足30个G,可以直接私信我要合成好的模型。

大佬的网址:

打开命令行输入下面的指令

我觉得模型下载是最麻烦的,还好有别人给了

好吧我直接给百度云 链接: https://pan.baidu.com/s/【【淘密令】】-GysavQl29Q 提取码: 4ret C来自百度网盘超级会员v6的分享

然后安装python依赖,然后转换模型到FP16格式。然后第一个小bug会出现。

他会报找不到文件。 打开con【【微信】】.py文件,修改"/tokenizer.model"的路径,再运行,我顺便名字也改了。

文件找到了,然后出现第二个bug。。。。。

我一开始找不出问题,后来对比原网址和7B文件夹里的文件,才发现文件大小根本都不一样,我说几十个G的东西怎么git这么。 打开网站下图这个网址,点红色框的那两个下载。替换掉7B文件夹里的那两个文件。

将模型再转换成4位格式

想和chatGPT一样对话的话用下面这个指令,-n 控制回复生成的最大长度, --color是区分ai和人类的颜色,-i 作为参数在交互模式下运行, -r 是一种反向提示,-f 是一整段提示, --repeat_penalty 控制生成回复中对重复文本的惩罚力度,Ctemp 温度系数,值越低回复的随机性越小,反之越大。 更新了之后速度快了很多。

让我们打开prompts/chat-with-bob.txt来看一下。

我们可以看到这相当于给了ai模型一个场景话题,然后你和ai之间就可以接着这个话题聊天。

我英文名叫zale,然后我把这个机器人叫作kangaroo,这样的身份和他聊天,你可以按自己的喜欢自己修改下面的代码。

写一个txt文件

有点呆呆的,不过也算边缘部署的巨大进步了! 一个蛮有意思的发现,明明看得懂中文却跟我说不懂中文。。。。。 分享一段有意思的对话

把原始的llama模型转换成huggleface的格式

这样生成的文件放在llama-7b-hf之中。

下载vicuna7b的权重文件,也可以理解为补丁。 注意融合vicuna7b模型需要30个G的内存,我特意买128G内存和4090的电脑, 如果有需要,可以私信我我看到的话直接把生成的模型发给你。 还有就是现在的模型是v1.1的版本,必须搭配使用transformers>=4.28.0 and fschat >= 0.2.0

这样融合的模型就在【【微信】】的文件夹下。

可以直接用fastchat用测试一下,速度好快哦!!!确实fast

回到llama.cpp之中,老三样

实测理解能力和中文水平我认为都是目前最佳的边缘部署的模型,我觉得我可以把哈工大的中文模型部分给删了。目前使用下来不错,很有chatGPT那味。 我又试了一下i9-13900KF,速度是快了一些。

来点好玩的例子。

这个需要12g的显存,没有的朋友就图个乐。 用到的是miniGPT这个库。

1.准备环境

2.修改文件指向电脑里的【【微信】】路径 3.下载pretrained MiniGPT-4 checkpoint 4.修改文件指向电脑里的pretrained MiniGPT-4 checkpoint路径 5.运行demo

据说效果远超原版vicuna,实测直接用transformer4.8.0即可转换,然后转换的原模型是huggle face格式的llama原模型。 之后的步骤不再重复和上面一样,运行起来似乎失去了中文能力,然后数学能力等有提升,感觉像文科生变成理科生。