社交媒体人工智能软件阻碍对儿童性虐待案件的警方调查

近日,《卫报》的调查揭示,依赖人工智能(AI)软件对其平台进行内容管理的社交媒体公司,在儿童性虐待案件上生成的报告不可行,阻碍了美国警方的调查工作,延迟了潜在施虐者的辨识。法律规定,这些公司必须向国家失踪与被拐儿童中心(NCMEC)报告其平台上发现的任何儿童性虐待材料,并将线索转交给相关执法机构。

2022年,NCMEC收到了3200多万份疑似儿童性虐待的报告,其中Meta公司是最大的举报者, responsible for over 27 million reports。然而,使用由AI生成的报告对执法机构构成了巨大的挑战。根据第四修正案的隐私保护规定,警官和NCMEC未经搜索令不得查看报告的内容,除非社交媒体公司的人员已经审核过。这一法律要求导致了数周的延迟,使得潜在证据可能会丢失,施虐者也能够在更长时间内逃避检测。

儿童安全专家和律师们对这些延迟对社区安全造成的不利影响表示担忧。调查陷入停滞,执法机构无法立即采取行动来保护潜在受害者。在某些情况下,社交媒体公司甚至在提交报告后禁用用户账户,可能导致关键证据从服务器中删除。

由于缺乏获取搜查令所需的具体信息,AI生成的线索通常不被调查。这给已经不堪重负的执法机构增加了额外负担,他们没有必要的资源来优先处理这些线索。

专家们认为,依赖AI进行内容管理的做法是不够的解决方案。虽然AI可以帮助减轻执法人员的工作负担,但它无法取代人类干预的必要性。正如马萨诸塞州的一名检察官指出的那样,AI可能无法识别新的儿童虐待材料,只能分析现有的数据点。在处理这些敏感案件时,人工审核的重要性不容忽视。

目前的情况引发了对AI内容管理效力和对执法机构提供更多资源和支持以应对儿童网络性虐待问题的担忧。

The source of the article is from the blog elblog.pl

Privacy policy
Contact