审视新闻业和个人数据中人工智能的道德使用

科技巨头和 AI 个性化
多年来,科技公司一直利用我们的数字足迹以及人工智能(AI)来优化他们的服务,根据我们的喜好调整我们的搜索和社交媒体内容。最近,大量的公共数据被用来通过生成式 AI 推进各种语言模型。

公共数据使用的担忧
挪威最大的报纸 VG 在媒体上引发了一场有争议的问题,与 Meta 打交道的关键点是后者打算利用我们公开分享的图片和帖子来训练他们的语言模型,这一举措未经用户明确同意。VG 的评论员对社交媒体平台的做法深表担忧,暗示它们通过未经许可使用用户的图片而越界。同样地,VG 在未获得用户明确同意的情况下使用 AI 技术。

OpenAI 和数据爬取的角色
ChatGPT 的创造者 OpenAI 利用公共可用数据通过“网络爬虫”来训练其模型。虽然某些来源,特别是存在付费墙或敏感个人数据的来源被排除在外,但有大量内容在未获得贡献者明确批准的情况下被使用。

数据实践中的虚伪
2023 年,VG 公开表示拒绝 ChatGPT,以避免分享其新闻以进行 AI 增强,尽管他们在 Jojo 应用中的新闻通讯和 Whisper 技术中使用相同的技术。VG 还利用谷歌的各种 AI 工具和 Anthropic 的 Claude 语言模型。这些平台在广泛的互联网数据,包括公共社交媒体帖子上进行训练,而没有获得用户的明确同意。通过利用这些工具,VG 利用未经明确同意收集的数据,同时批评 Meta 采取类似的策略,揭示了一种可能削弱报纸信誉并突显重大双重标准的虚伪。

隐私和进步:取得平衡
隐私关切与技术进步之间的对立是关键。VG 被敦促不仅要解决他人的做法,而且要符合伦理标准,确保 AI 数据使用中得到明确同意,以保持透明度并加强对编辑媒体的信任。目前,VG 和其他编辑媒体展现出的不一致做法可能会导致挪威新闻机构公众信任的下降。

关键问题和答案

在新闻业中使用 AI 和个人数据面临的主要挑战是什么?
主要挑战涉及隐私关切,同意,数据保护以及对信任的潜在侵蚀。在新闻业中,平衡 AI 个性化的好处与伦理数据实践是复杂的,尤其是在新闻业中,可信度至关重要。

围绕使用公开分享数据训练 AI 语言模型的伦理问题有哪些?
伦理问题包括是否适当使用未经明确同意的数据,个人信息滥用的潜在风险,以及公众是否充分理解他们的数据如何被使用。

由新闻机构在 AI 中使用公共数据而产生的争议是什么?
争议源自新闻机构批评科技巨头的数据实践,同时自身采用类似方法,而未经用户明确同意,导致虚伪指责。

新闻业中使用 AI 的优势和劣势

优势:
– AI 可以改善内容的个性化,使其更符合用户的兴趣。
– 它可以提高新闻室的效率,例如使用 AI 进行转录或内容创作。
– AI 有潜力用于调查新闻的大量数据分析。

岗位动荡:
– AI 自动化任务的能力可能导致新闻业内的工作岗位问题。
– AI 算法的非人化和潜在偏见可能影响新闻的质量和多样性。

隐私顾虑:
– 使用个人数据可能侵犯隐私,引发对监视的担忧。
– 当收集大量个人数据时,数据泄露的风险增加。

有关这一主题的其他信息,可靠的信息来源包括 OpenAI 以及诸如 Meta 这样的科技公司政策。这些信息源可以提供关于讨论的技术及其对新闻和数据伦理的影响的见解。

Privacy policy
Contact