世界互联网大会数字文明尼山对话于6月25日至27日在山东济宁曲阜举办。26日上午,360集团创始人周鸿祎围绕“构建安全可信的人工智能”议题发言时表示,人工智能的发展,概念就是以人为本,大模型不应该引发大规模的裁员,而是要帮助企业和政府的员工提升能力和效率,成为最易用的工具,让每个普通人都能真正用起来。
周鸿祎说,“我一直认为企业不要觉得有了GPT就能裁员了”。
他表示,大模型不是万能的,只能打辅助,做一部分工作。所以事实上大模型不会淘汰人,当然程序员也不会被淘汰,要有信心。“我最近不也是又报名上了清华,电子信息专业,重新去学习做一个工程师。人工智能的发展还是要以人为本。”
(资料图片)
6月28日,在CPT产业联盟成立大会上,周鸿祎继续表态,称自己一直在努力说服很多企业,不要以为有了GPT就能瞎裁员了。信息化和数字化其实增大了我们的工作负担,自从有了电脑之后老板都要看PPT了。
7月2日下午,北京,周鸿祎在全球数字经济大会上又强调,要把大模型“关在笼子里”,让大模型刚开始先开启副驾驶模式。
“在大模型目前还有点不靠谱的前提下,政府和企业产品刚开始利用大模型的步子要小一点,不要轻易向大模型开放API、函数,要采取监控审计手段,把大模型‘关在笼子里’。让大模型刚开始先开启副驾驶模式,与现有的业务系统保持相对独立和隔离度,做到安全可控、安全落地、快速执行。”
周鸿祎认为,目前的公有大模型存在四方面问题:
首先,公有大模型是通才,但缺乏行业深度,不能满足企业级应用场景的垂直性、专业性问题。
其次,存在数据安全隐患问题,易造成企业内部数据泄露。
其三,无法保障内容可信,公有大模型存在“幻觉”,无法保障内容真实可信,有据可查。
其四,公有大模型无法实现成本可控,直接训练和部署千亿级参数大模型成本过高,企业级应用应该使用百亿级基础模型,根据不同需求,训练不同的垂直模型(如代码、法律、客服)。
对于周鸿祎这一系列的观点,有网友表示认同:
目前ChatGPT并非像大家想象得那么“智能”,最擅长的其实是“一本正经地胡说八道”。ChatGPT可编造出并不存在的知识,甚至为了证明自己而编造出并不存在的论文,从标题到作者再到参考文献全是假的。与其担心裁员,搞不好还得多雇一些分析员…
大家对此怎么看呢?
关键词: