□李彪 (长沙理工大学)被AI系统判定为21年前一桩谋杀案的凶手后无奈认罪,12月11日,俄罗斯水文学家亚历山大·茨维科夫在被捕入狱十个月之后终于洗白冤屈,重新获得了自由。(12月14日《成都商报》)时代的一粒尘埃,落到个人头上就是一座大山。被AI判定为逃犯被捕入狱后,亚历山大在强大的压力下“屈打成招”,这一冤案的司法程序中必然存在的漏洞,但究其源头,人工智能系统的错误识别是这一冤案的直接原因,这凸显了人工智能技术在某些情况下存在的局限性和风险。虽然人工智能可以通过大数据分析和算法来识别图像和人脸,但它的准确性和可靠性仍然受到各种因素的影响。因此,在我们需要在推广和应用人工智能技术的时候,注重其潜在的风险,特别是责任性的风险。试问,如果人工智能的判断出错,谁来为此担责任?这是当前人工智能治理过程中的一个关键议题。中国的科幻电影《流浪地球》就对人工智能责任性风险问题进行了影视化呈现,电影中的超级量子计算机Moss的判断是精确的,理性的,但人类仍然不能将至高的决策权交给AI,人工智能做出的决策都要经过安理会确认。可以想见,如果不限制人工智能的权力,在面临重要决策的时候,人工智能的理性选择也可能对人类产生毁灭性的影响。回到现实中,面对AI错判引发冤案这样的事件,我们应认识到,人工智能只能做人类的助手,不能成为任何人命运的决策者,无论应用到哪一个领域,人工智能都不应承担具有重要决策权的工作。即使人工智能技术已经发展到了一个相当高的水平,我们也要规避好人工智能的责任性风险,减少因AI技术原因而引发的决策失误,这有助于明确各种事故中的责任认定,同时也避免无辜的人为此冤受苦难。
免责声明:本文来自网络收录或投稿,观点仅代表作者本人,不代表芒果财经赞同其观点或证实其描述,版权归原作者所有。转载请注明出处:https://www.mgcj.net/1083482.html
温馨提示:投资有风险,入市须谨慎。本资讯不作为投资理财建议。