当前位置: 首页 » 资讯 » 热点 » 正文

消灭打工人?ChatGPT还不配

作者:余经先 来源: 亿欧网 140802/13

自 AI 这一概念从1956年的达特茅斯会议诞生至今,“AI代替人类工作、取代人类”的可能就被反复讨论,以至于衍生了大量的影视作品。而随着 ChatGPT 的横空出世,这一话题再次被推上风口浪尖。2022年11月,ChatGPT一经推出,迅

标签: AI ChatGPT Open AI

自 AI 这一概念从1956年的达特茅斯会议诞生至今,“AI代替人类工作、取代人类”的可能就被反复讨论,以至于衍生了大量的影视作品。而随着 ChatGPT 的横空出世,这一话题再次被推上风口浪尖。

2022年11月,ChatGPT一经推出,迅速在社交媒体上走红,不到一周,用户数就突破100万人,月访问量达2100万人次。到2023年1月末,其月活用户已经突破了1亿,成为史上用户增长速度最快的消费级应用程序。

在此情况下,ChatGPT也快速尝试商业化变现,包括推出试点订阅计划,面向各行业受众提供收费服务;将Office全家桶等微软产品全线接入。人们也更加担心,若ChatGPT商业化应用加速,可能会对人类工种造成不可逆影响,在职场中取代一部分劳动力。

什么是ChatGPT,它目前能做到什么?

ChatGPT,是由美国人工智能研究实验室OpenAI开发的一款语言模型,它以对话的方式进行交互。对话的格式使得ChatGPT能够回答后续问题、承认错误、质疑不正确的前提并拒绝不适当的请求。

其使用人类偏好作为奖励信号来微调模型,能够通过学习和理解人类的语言进行对话,还能根据聊天的上下文进行极为接近人类自然交流的互动,甚至能完成撰写邮件、修改代码、文本翻译等内容创作任务。

ChatGPT火遍全球,越来越多用户开始“试探”ChatGPT能否取代自己的工作。

但随着使用的不断深入,ChatGPT的专业性同样遭受质疑:

据《华尔街日报》报道,德克萨斯大学教授保罗·冯·希佩尔(Paul von Hippel)发现,ChatGPT可以肤浅地谈论数学,但它不能真正深入地“理解”数学。

“它不能纠正错误的数学概念,还经常会引入自己的错误概念,有时还会犯一些基本的电子表格或手动计算器不会犯的莫名其妙的数学错误。”

财通证券近日使用ChatGPT撰写了一份关于医疗美容行业的研报,内容包括行业简介和全球市场概述。

“它像专家一样行事,有时还能令人信服地模仿专家。但它通常是一种胡扯艺术家,把真相、错误和捏造混在一起,听起来令人信服,除非你自己也有一些专业知识。不可否认,ChatGPT在文字表意、标题撰写等方面均具有较高水平,但采用这种直接生成+翻译模式形成的报告仍有问题。”财通证券表示,问题包括标点和术语错误、无法得知引用数据来源及可靠性等。

OpenAI的首席技术官米拉·穆拉蒂在接受《时代》杂志采访时也承认,机器人在写句子时“可能会编造事实”,并将其描述为“核心挑战”。

为何会产生这样的问题,还要回过头来分析ChatGPT的技术框架。

InstructGPT模型的参数数目为1750亿,作为InstructGPT的兄弟模型,有理由相信ChatGPT的参数量也在这一量级。但据“训练语言模型以遵循人工反馈”论文,在对话任务上表现*的InstructGPT模型的参数数目为15亿,所以ChatGPT的参数量也有可能与此相当。但无论如何,ChatGPT的参数量级都是“亿”打底。

InstructGPT训练数据包括但不限于:经过基础过滤的全网页爬虫数据集(4290亿个词符)、维基百科文章(30亿词符)、两个不同的书籍数据集(一共670亿词符)、GPT-3所收集的人类的评价和反馈数据。而ChatGPT则在此基础上加入了由AI训练师同时扮演聊天机器人和用户双方的对话数据。

面对如此庞大的模型,用户可以仅提供小样本的提示语、或者完全不提供提示而直接询问,就能获得符合要求的高质量答案。

但高质量答案之下同样隐藏着不少问题:

1.即时性。ChatGPT背后的大型语言模型的训练集最近数据截止于2021年底,所以任何关于过去一年里发生的事件,它无法给出准确的答案。语言模型不可避免的问题,不具备自主学习的能力;

2.准确性。当用户想利用ChatGPT获取准确信息(例如写代码,查菜谱)时,ChatGPT回答的准确度是不稳定的,用户需要具有鉴别回答质量与准确性的能力。而且用户对于问题的描述同样会影响准确性。

此外还存在一个致命性的问题:ChatGPT的奖励/偏好模型。

上文提到 ChatGPT使用人类偏好作为奖励信号来微调模型,而OpenAI在其博客中给出了具体的处理思路:针对一个问题,用多个模型给出多个回答,人工按照一定的标准对这些回答进行排序,以此来训练一个奖励模型/偏好模型(reward model)。

人工排序这种训练模式,不可避免导致模型瞎想的错误被混入。换言之,模型最终*的回答甚至可能不是一个正确的回答。想要彻底解决这个问题,还有许多辅助性的工作需要进行。

综合来看,ChatGPT知识量丰富但逻辑性和创新性不足,作为一个辅助工具可以,但远远达不到大家想象中的“一个工具解决所有问题”的程度。

对于人类而言,那些需要很强的逻辑性和创新性的岗位暂时是安全的。那些重复性的、高度标准化的岗位,倒是面临着不小的风险。

任何新技术出现,都会被视为颠覆者,因为这种说法会给人巨大想象空间。但历史证明,新技术和旧生态之间并非完全冲突,更多的是互相融合。ChatGPT也是这样,未来更多的可能是会被嵌入到各大平台和应用当中,成为赋能平台的一个工具。

所以与其担心工作被AI取代,不如发挥主观能动性和创造性,利用好新技术、新工具提高工作效率和生活质量。

毕竟,人工智能是人的延伸,社会真正的主角是作为万物之灵的你。

免责声明:本网转载合作媒体、机构或其他网站的公开信息,并不意味着赞同其观点或证实其内容的真实性,信息仅供参考,不作为交易和服务的根据。转载文章版权归原作者所有,如有侵权或其它问题请及时告之,本网将及时修改或删除。凡以任何方式登录本网站或直接、间接使用本网站资料者,视为自愿接受本网站声明的约束。联系电话 010-57193596,谢谢。

财中网合作