
人与AI之间的界线可能越来越模糊,但权利与责任的界线必须越画越清。

▲随着AI的广泛应用,平台对AI的误判引发关注。图/IC photo
文 | 信海光
“手敲了一下午的剧本被以为是AI”“引用的作者原话竟然被判定为AI”“只要说话像人机,都会被判定AI”……据《北京日报》报道,随着AI的广泛应用,一些“真人创作者”也面临窘境:自己发布的内容被平台误判为AI生成,甚至面临作品被限流、下架的境遇。
于是,创作者如何自证“我不是AI”,以及平台能否以AI判定AI,引发关注。
平台判定应有合理依据
不久前,一句评论引发全国首例AI误判案引起网友注意。一位普通网民李先生在某平台发表评论,被机器判定为“AI生成”,内容遭隐藏,账号被禁言一天——尽管每一个字都是他亲手敲下。向平台申诉未果后,李先生选择起诉平台,北京互联网法院经审理支持了李先生的诉求,判决平台删除对李先生评论的违规处理记录,撤销隐藏内容。
这是全国首例因平台“误判”网友创作内容为AI生成而引发的诉讼。表面上,这只是一次轻微的网络纠纷,但却因身处“算法”和“AI”生成两大前沿科技的交汇点而别具意义。它指向了一系列前沿话题,比如应该如何对待AI生成内容?平台算法在其中承担了什么角色,产生误判又该怎么办,用户与平台出现争议谁来举证等问题。
在此案例中,法院并没有亲自下场厘清李先生的评论到底是不是AI生成,而是通过明确两个原则进行判定,其一,平台有权对涉案内容是否属于AI生成合成内容进行审查和处理;其二,平台的审查及处理结果应该有合理依据。
这实际上把举证的责任交给了平台,而平台又无法对算法决策依据和结果进行适度的解释和说明,因此败诉。平台实际是败在了程序,而不是李先生到底是不是采用了AI生成内容。
但程序正义的胜利依旧很有意义,因为当下大量围绕AI生成内容所产生的争议正是纠结于此。比如,因为AI生成的崛起,为防止AI代写论文,不少高校对毕业论文设置了AI率红线,并使用AI查重软件进行审核。但事实证明,相关检测并不准确,有些学生甚至必须刻意将语句改得支离破碎才能向AI证明“我不是AI”。
今年2月份,复旦大学发布《复旦大学关于在本科毕业论文(设计)中使用AI工具的规定(试行)》,其中提出的“六个禁止”引发广泛关注,被称为 “全球最严AI新规”。而到了5月份,南京大学本科生院则发布通知,明确本届毕业论文面向学院开放“维普AIGC检测”,但检测结果仅作为辅助参考,不作为论文原创性判定依据。
其间的折转反复也引发热议,但这实际上是前沿科技进入人类生活的常见现象。面对新事物,各种法律法规规范总是存在局限性和滞后,需要不断及时调整。从这个角度说,既然细节与真相暂时难以把控,不如坚守程序正义性,明确原则,抓大放小,也是一种不错的解决办法。
“人”是治理链条中最终“守门人”
AI生成内容极大地提高了生产效率,但也确实产生了一些负面效果,利用AI生成论文产生学术不端行为只是其一,AI生成内容还可能侵犯他人著作权,也可能被用来侵犯他人商业利益,这些新问题都需要面对和协调。
正因如此,今年3月15日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布《人工智能生成合成内容标识办法》,要求上游AI模型需要对生成内容、元数据文件添加标识,平台亦应根据不同情形添加相应标识。
现实远比规则复杂。靠人力对AI生成内容标识显然不可能,“用AI对抗AI”成为常态,但在面对日益逼真的人类写作与AI写作的边界时,AI检测技术又经常出错。更大问题在于,当算法的判定缺乏解释性、申诉机制不透明时,误判不仅是一时的技术错误,而是对创作者声誉和作品可见度的直接伤害。
北京互联网法院此次判决的意义在于,它首先认可了平台的“守门员”角色,认为平台具有相关内容的审核权,但同时又限制了平台的“裁判员”角色。这不仅是法律逻辑,也是权力与责任的平衡,平台希望利用技术实现网络空间的自治化治理,但技术本身尚不具备这种能力。
就像复旦大学蔡翠红教授在论文中所说,治理本质上是一种集合法律制度、社会共识与政治判断于一体的复杂工程。在人工智能广泛介入全球网络空间治理实践的同时,还是需要更完善的制度以及“人”来充当治理链条中的最终责任者与价值“守门人”。
判定一条网友评论是否AI生成事小,但确定原则,防患于未然事大。2016年,澳大利亚政府通过技术手段检测社会福利欺诈,简单对比税务与福利数据,自动判定了大量低收入者涉嫌骗保,并下发追缴令,这一过程中超过50万人受到影响,许多人陷入财务困境,但这是一次误判事件,最终政府公开道歉并启动赔偿计划。如无合理制度,类似事件并非不可能重演。
这起案件至少提供了一个方向:其一,使公众知晓,在AI时代,被误判后是可以主张合法权益的;其二,平台应建立更高效、更可追溯的复核机制,同时要加强算法的“可解释性”。
在未来的数字世界里,人与AI之间的界线可能越来越模糊,但权利与责任的界线必须越画越清。否则,我们将生活在一个讽刺的场景中:最擅长模仿人类的AI安然无恙,而真正的人类却要四处证明自己“不是机器”。
撰稿 / 信海光(专栏作家)
编辑 / 徐秋颖 迟道华
校对 / 张彦君
欢迎投稿:
新京报评论,欢迎读者朋友投稿。投稿邮箱:xjbpl2009@sina.com 评论选题须是机构媒体当天报道的新闻。来稿将择优发表,有稿酬。 投稿请在邮件主题栏写明文章标题,并在文末按照我们的发稿规范,附上作者署名、身份职业、身份证号码、电话号码以及银行账户(包括户名、开户行支行名称)等信息,如用笔名,则需要备注真实姓名,以便发表后支付稿酬。
发表评论