AI技术引发争议:虚假性攻击指控曝光

美国佛罗里达州发生一起离奇案件。一名女子报警称自己遭到入室性侵,然而警方调查后发现,她提交的“犯罪证据”竟是人工智能生成的假图像。

根据当地警方报告,32岁的布鲁克·希诺特(Brooke Schinault)于10月7日报警,称一名陌生男子闯入她位于圣彼得堡的公寓,对她实施了性侵犯。她表示,在袭击过程中,她设法为嫌疑人拍下了一张照片。

警方立即出动多名警员与法医技术人员赶到现场展开调查。然而,案件很快出现反转——技术人员在分析希诺特提供的图片时发现,这张所谓的“嫌犯照片”并非真实拍摄,而是通过人工智能工具 ChatGPT 生成的合成图像。

进一步调查显示,该图像早在事件发生前几天就被保存于她设备中一个已删除的文件夹内。警方因此认定,这起报警属虚假报告犯罪。

希诺特随后被逮捕,并在监狱中度过一夜后缴纳了1000美元保释金。目前,警方尚未披露她伪造案件的具体动机。

令人讽刺的是,在事发前不久,希诺特还在自己的Instagram页面发文,提到10月是“家庭暴力宣传月”,并声称自己曾是长期受害者。她在帖文中写道:“他曾侵犯我,但我活下来了,也走出了阴影。”

这起事件在当地引发广泛关注,也让人们再次警惕人工智能图像被滥用的风险。警方提醒,伪造证据不仅会浪费公共资源,还可能对真实受害者造成负面影响。

译自来源:thesmokinggun 编辑发布:olaola

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注