数智讲堂 阮诗玮
目前,ChatGPT类的大语言模型人工智能技术及产品(以下简称“ChatGPT类技术”)风生水起,带来已知伦理风险主要有以下几个方面。
一是AI抄袭风险。ChatGPT类技术以海量信息为食,再按照需求,模仿人类思维模式,加工、整理、输出相关信息。可将这一过程理解为高水平的“洗稿”过程,且其规避“查重”的能力也会越来越强。未来任何需要输出文字信息的领域,如科研、新闻、行政、广告等都可能遭遇到无处不在的ChatGPT抄袭风险,造成更多学术不端、创意剽窃、知识产权侵犯等情况。
二是信息泄露风险。ChatGPT类技术“吃”信息并不挑食,包括个人隐私信息、政府敏感信息、公司商业机密等。这会带来其智能化水平越来越高。未来将不得不在提升AI能力和保护数据安全之间作出平衡、取舍。
三是未成年人保护风险。ChatGPT类技术可作为能力高度进化的搜索引擎,具备超强的信息检索与整合能力。这让未成年人又多了一个通过网络获取不良信息的超级利器。要提醒的是,对于学习能力很强的青少年而言,欺骗ChatGPT从而获取不良信息不会是太困难的事情。
四是价值观渗透风险。和之前所有的网络技术、产品一样,ChatGPT类技术本身并没有价值观取向,但开发、训练、维护它的个人和组织,很容易植入某种想传达的价值观,通过“夹带私货”达成“不可告人的目的”。
五是劳动者失业风险。ChatGPT类技术作为人类研发的技术,核心功能肯定是要服务人类,给社会带来便利。但是和所有的技术进步一样,ChatGPT的大规模应用势必会使现有的一部分人类工作岗位被机器(AI)替代。和工业化时代以来机器主要替代体力劳动者不同,Chat GPT将会替代掉相当一部分脑力工作者,即我们俗称的“白领”。
六是恶意改造风险。ChatGPT类技术投放市场后,每个人都是它的“训练师”。这意味着如果有意向ChatGPT这个“不谙世事”的“小朋友”投喂不良信息,它就很有可能被培养成“不良青年”。
针对以上伦理风险,笔者从以下六点加以思考和建议。
一是关于应对AI抄袭风险。建议在开发ChatGPT类工具时,同步开发反抄袭工具,以保护原创者权益,方便其被抄袭时进行维权。此外,还要形成各类严肃文献借助Chat? GPT类技术生成内容时主动进行标注的规范性要求。
二是关于应对信息泄露。根本上还是要加强信息安全管理,比如给互联网上的各类信息、数据加上AI容易识别的标签,让ChatGPT类技术及其产品清楚地知道到自己“吃”进去的信息哪些是不能公开的隐私、机密、争议信息,以便生成内容时尽可能规避。
三是关于保护未成年人。必须像现在的视频类APP一样,要求ChatGPT开发针对未成年人的绿色版。这个绿色版可以直接开放给所有网民使用。对于更强大、开放的全功能版,可以像管理网游一样,要求使用者提供自己已成年的相关证明。
四是关于应对价值观渗透风险。这方面最重要的还是要加强我国自有的ChatGPT类产品研发,最大限度地减少此类产品的“进口”依赖。只有自主产品占了绝对上风,所倡导的价值观才能在此类产品输出的内容中体现出压倒性的优势。可对提供产品和服务的企业从“根子”上进行依法管理,让企业主体主动规避渗透风险。
五是关于应对劳动者失业风险。ChatGPT类技术的出现、发展、应用将进一步解放人类,使人类从更多繁重、重复的智力劳动中解脱出来,对人类社会利大于弊。我们要尽快调整、适应。ChatGPT类技术广泛使用后的时代,在培养人才时就须考虑是否会被ChatGPT替代等因素,就像培养技工时要考虑智能制造技术带来的影响一样。
六是关于应对恶意改造风险。全面完善与AI相关的技术伦理标准,强制要求AI类产品必须具备符合公序良俗的基本是非判断。同时引导开发者加强ChatGPT类技术对恶意信息的识别能力,使其对恶意信息产生“排异”反应,主动拒绝“食用”,不将其作为自己成长进化的“原料”。
ChatGPT类技术目前还处于爆发前夜,仍在快速迭代之中,未来有着无限可能。对于AI类技术以及机器人相关技术,必须不遗余力确保技术应用符合人类共通的伦理标准,服务个人发展、服从国家规范、造福全人类,这点不能偏离。
(作者系福建省政协副主席,民盟中央常委、福建省委会主委)
免责声明:本文来自网络收录或投稿,观点仅代表作者本人,不代表芒果财经赞同其观点或证实其描述,版权归原作者所有。转载请注明出处:https://www.mgcj.net/1008089.html
温馨提示:投资有风险,入市须谨慎。本资讯不作为投资理财建议。