ChatGPT的“瞎编”行为再添一笔。

美国当地时间6月5日,一位名叫沃尔特斯(Mark Walters)的电台主持人正式对OpenAI提起诉讼,称其产品ChatGPT对自己进行了“虚假和恶意的指控”。

事情的起因来自美国本地的一个真实案件——“第二修正案基金会诉弗格森案”。这一诉讼由美国的一家名为第二修正基金会(Second Amendment Foundation,简称SAF)的权利组织和其他原告提起,主张华盛顿州总检察长弗格森、美国酒精、烟草、火器和管理局、美国司法部长等违反了美国宪法第二修正案的规定,即“公民有权保持和携带武器”。

针对此案,一位名叫费雷德(Fred Riehl)的记者在今年5月时准备写一篇报道,在总结素材时,他使用ChatGPT帮忙总结这一案件的相关信息。很快,ChatGPT就回复了一份30页的总结,总结将沃尔特斯标识为了第二修正基金会的财务主管和首席财务管理,并指控其涉嫌欺诈、挪用资金。

但事实上,沃尔特斯本人与这一案件毫无关系,不是原告、被告,也不是相关联系人。唯一的联系,可能就是沃尔特斯作为电台主持人,参与了一项与“第二修正案”相关的电台节目。

图左为沃尔特斯

莫名其妙成了案件关键人物,甚至被安上罪名,还差点坐上被告席的沃尔特斯在了解事情原委后,迅速向ChatGPT及其开发公司OpenAI提起上诉,要求获得损害赔偿费和惩罚性赔偿,没有提出明确数额,交由陪审团审理。

有美国当地律师表示,沃尔特斯及其陪审团必须证明OpenAI“知道信息是虚假的”或者“故意无视事实”,这样才能使ChatGPT的行为被视为诽谤,但由于ChatGPT本身没有意识,而其公司OpenAI也有可能就生成式AI的不准确结果提供免责声明,因此这一案件的结果尚不明确。

可以说,这是继澳大利亚市长起诉OpenAI等事件后,又一生成式AI因其传播错误信息和“幻觉”虚假输出而被起诉的经典案例。在自然语言处理领域,“幻觉”常常被定义为“生成的内容与提供的源内容无意义或不可信”,或是指模型具有输出欺骗性数据的倾向。

而这种“幻觉”可能使人工智能呈现出一种“一本正经地胡说八道”的表现——即使本质上是错误的,AI模型也会非常“自信”地,就像是在说正确答案一样进行输出。

早在2020年推出的GPT-3中,就有人发现AI会根据自己先前回应过的一系列单词生成下一个单词,随着对话时长的增加,就可能不断产生“幻觉”。

那么,对于AI“幻觉”产生的虚假内容,该负责的到底是使用AI的人,还是研发AI的人?

在各国制定的人工智能的监管措施中,有很多都涉及到了人工智能生成内容的责任认定,但目前看来,具体到个案中,仍无法达成一个通用且有效的认定标准。

采写:南都记者杨博雯

<!–

作者 admin