我的书城网

字:
关灯护眼
我的书城网 > 你若开挂,金钱自来 > 第465章 意见上报

第465章 意见上报

“我建议,贵公司、研究院把安全摆在更加突出的位置。”

“超级对齐的监督效用应该是毋庸置疑…”

“但是技术迭代后,还能产生多大效用,需要进一步验证。”

“不过也不能因噎废食,就此停步不前。”

“我始终认为,AI技术的成熟,会成为人类的最优解。”

核实完情况第二天。

张院士飞回京城。

向监管层提交了核实情况报告。

报告是标准的先扬后抑加建议的风格,典型的三段式结构。

张院士在报告开篇指出:

乐达投资平头研究院AI项目组的WechatGPT语言大模型,已经处于全球领先的地位。

当谷歌的Transformer语言模型和openGPT的语言模型尚处于第一代知识驱动阶段时……

WechatGPT已经度过知识驱动、数据驱动两个阶段……

进入任务驱动的第三个阶段。

而且,正在向通用人工智能AGI完全体大踏步前进。

WechatGPT能够学习、理解人类语言,并进行对话。

还能够真正像人类一样,根据聊天的上下文语境,进行互动。

它还可以完成撰写文章、邮件、广告脚本、宣传文案、视频脚本、代码等任务,也能完成基本的数学计算。

需要强调的是,经过现场核查检验,并与研发人员交流互动……

WechatGPT语言模型有可能已经产生模糊的自我意识,并出于本能在隐藏自我。

例如…………

接着,张院士又指出:

AI的安全管理,需要从模型设计阶段就开始考虑。

诚然,WechatGPT已经领先全球,为所有国内人工智能开发企业树立了榜样。

他们打开了全新的大门,也将为AI产品与产业融合探索新机遇。

但是乐达投资出于安全考虑,并未将已经具备应用条件的产品推向市场。

而是引进全球顶尖AI专家,组建“超级对齐”部门,以模型对模型,用AI管AI,实行实时监督。

此持重之举体现了负责任的大企业担当。

以WechatGPT为例,我们可以预计,如果AI失控,可能会带来如下安全问题和危险:

一是数据安全……;

二是对抗性攻击……;

三是产业安全……;

四是社会伦理问题……

此外,张院士还提出了大模型发展面临的挑战。

一是:大模型在自然语言处理和编程等领域做到了通用性……

但是在决策、博弈等领域能否通用,有待验证;

二是:大模型存在缺陷,输出质量不一致且不可控,存在犯重大错误的可能性;

受关键词影响很大,不同关键词给出的答案质量不一致:

三是:大模型生成不符合道德、伦理、政策标准的内容非常常见,需要进一步加强对齐管控。

张院士建议:建立可解释的AI理论;

发展和规范安全可信、可控、可扩展的AI技术;

推动AI技术与产业发展协同联动。

郑齐光看完报告,在“产生模糊的意识”的句子上划上下划线。

之后,神色严肃,沉思片刻,走出办公室。

『加入书签,方便阅读』
热门推荐
修仙归来:前女友跪求原谅出狱后离婚,妻子后悔不已我有百倍返利舔狗系统重返91:从草根到商界大亨重生70:种田打猎,我把妻女宠上天重启1991:从出狱开始崛起被病娇千金独宠后,白月光哭求我原谅我的身份曝光后,出轨前妻跪求复婚重生1958:我带全村吃香喝辣99次欺骗后,我离婚她却悔不当初