▲4月13日,“信心与繁荣——2023新京智库春季峰会”主题论坛“数字中国:数字化转型与数字消费”圆桌论坛。
新京报讯 (记者查志远)4月14日下午,在新京报社、千龙网主办,新京智库、贝壳财经、北京帕尔玛塔科技有限公司承办的“信心与繁荣——2023新京智库春季峰会”主题论坛“数字中国:数字化转型与数字消费”上,围绕“AIGC对社会治理的机遇和挑战”主题,北京大学政府管理学院副院长、教授黄璜,中国社会科学院哲学所科学技术哲学研究室主任、研究员段伟文,北京师范大学新闻传播学院计算传播学研究中心副主任闵勇进行了讨论,中国人民大学国家发展与战略研究院研究员、公共管理学院教授马亮主持了该论坛。
AI技术最大挑战是稳健性
段伟文表示,生成式人工智能的发展很快,但目前在信息数据基础上产生新的知识生产的引擎,更多的是强调内容生成。一方面AI可以成为人类工作的助手,提升工作的效率。另一方面,也可能导致劳动就业的替代,包括取代一些基础的工作,像公文起草这类。
段伟文也指出,ChatGPT引发的生成式AI更多集中在基础大模型,在跨模态、多模态,能够有广域、全域的应用的同时,也对准确性和恰当性带来了非常大的挑战。换句话说,AI的发展在技术上已经采取了很多的手段,但是真正在治理很多的环节里还是会出现一些纰漏,技术上的最大挑战是稳健性。
“一般情况下某一个垂直赛道的技术不是那么稳健,影响会比较小,但是一旦在全方位铺开的时候,对某一些事件性的影响可能会放大。”段伟文说。
在闵勇看来,ChatGPT在宣传上存在两极分化的现象,一是科幻片式的宣传,例如,ChatGPT出现以后会导致很多人失业。另外一端非常低端的现象就是博眼球的取向,比如三分钟教会你怎么用ChatGPT赚钱。
闵勇认为,这样一种传播的方式和对公众的教育模式会对AI产业的推进,包括AIGC在内的推进,产生阻碍。目前社会在AI知识传播和AI技术普及方面,依然存在比较大的问题。
黄璜则表示,从数字政府的角度,在公务员层面,各级领导干部确实对AI都非常关注,尤其这次ChatGPT出来以后,大家看到了各种各样的文章,商业化的文章也比较多,但对相关技术确实不太懂。
黄璜认为,对AI的认识、观念和意识是第一位的,如果连观念和意识都没有,就更谈不上技术推动创新了。
生成式人工智能相对成熟的应用场景在智能问答环节
黄璜表示,像ChatGPT这样相对复杂的技术,在社会治理方面的应用场景非常多。从应用的角度来看,AIGC和类似于ChatGPT这样的技术,相对来说最成熟的场景还是在智能问答环节。
黄璜指出,从生成式人工智能在政府治理或者社会治理层面,到底有多少是需要通过对生成的需求,涉及的不仅仅是对外部的智能问答,还有对内部知识的集成。对政府来说,政府本身也是一个知识系统,政府需要有一套知识引导、指导来制定政策,从这个意义上来说生成式人工智能是可以发挥作用。
不过,在段伟文看来,现在生成式人工智能或者类ChatGPT这样的应用,主要是一个表演,是一个样本在演示。只不过演示的规模显得特别大,背后调动了巨大的算力,在生态能源消耗上是很大的。
“它实际是资本竞争的产物,资本和技术强有力地结合,既要抢占市场,也抢占未来的技术。”段伟文说。
段伟文也强调,借助这次生成式人工智能火爆的契机,一方面要反思对互联网内容本身的治理和监管的方式,真正能够从信息搜索引擎做知识生产引擎。在这个情况下,一个比较大的应用就是AI驱动的科学研究的平台。例如,在质量比较高的国内外的文献翻译方面,如果能够善于运用机器翻译,或者跟专业人士的校对结合起来,这对科学研究会有更大的推动作用。
在闵勇看来,对AI的应用场景要有一定的宽容度。例如,ChatGPT的应用场景是在搜索引擎上,搜索引擎产生错误是被允许的,我们不会要求一个搜索引擎提供的信息是100%准确的。
生成式人工智能的应用需要伦理先行
段伟文表示,国家互联网信息办公室起草的《生成式AI服务管理办法(征求意见稿)》,一方面体现了我们国家在数字治理和科技伦理治理精神上的伦理先行。另一方面,征求意见发布的动作很快也体现了在社会治理上未雨绸缪,更加注重社会稳定。
黄璜表示,对AIGC这样的技术监管需要重视三个方面,一是AIGC确实会引发传统安全问题,包括公共安全问题,比如拿公共任务的图像进行合成卖钱。二是未来获取知识的时候都是借助ChatGPT这样的技术,对内容的权威性带来挑战。
在闵勇看来,对生成式人工智能的监管一方面要从管理的角度思考,另一方面,我们也应该从技术角度思考,用技术解决技术的问题。
编辑 柯锐
校对 张彦君
免责声明:本文来自网络收录或投稿,观点仅代表作者本人,不代表芒果财经赞同其观点或证实其描述,版权归原作者所有。转载请注明出处:https://www.mgcj.net/1016840.html
温馨提示:投资有风险,入市须谨慎。本资讯不作为投资理财建议。