|
Post by account_disabled on Feb 1, 2024 3:52:00 GMT -5
今年的选举是首次使用生成式人工智能工具进行的选举,个人和大型组织都可以轻松地使用这些工具来大规模产生错误信息。尽管科技公司推出了预防和检测虚假内容的方法,但人们严重担心这些方法还不够。 为什么我们关心。其影响不太可能仅限于政治营销。消费者——尤其是年轻消费者——对广告越来越不信任。英国最近的一项研究发现,只有 13% 的人信任广告高管。驱动力包括“假新闻”和反疫苗接种运动的兴起。政治错误信息的传播也会削弱人们对其他话题的信任。 昨天,随着爱荷华州党团会议拉开美国初选的序幕,OpenAI 成为最新一家采取措施保护选民的公司。该公司表示,人们不得使用其工具进行政治竞选和游说,以创建冒充候选人、其他真人和地方政府的聊天机器人。 限制与选举相关的查询 该公司在博客文章中表示:“在我们为全 WhatsApp 号码数据 球最大民主国家 2024 年的选举做准备时,我们的方法是通过提升准确的投票信息、执行谨慎的政策和提高透明度来继续我们的平台安全工作。 ” 上个月,谷歌表示将限制对其人工智能聊天机器人的选举查询,而 Facebook 母公司 Meta 去年禁止竞选活动使用人工智能广告工具。 深入挖掘:当政治忽视营销时:一个警示故事 OpenAI 还表示,计划将内容来源和真实性联盟 (C2PA) 的数字凭证纳入 Dall-E 生成的图像中。Microsoft、Amazon、Adobe 和 Getty 也在与 C2PA 合作解决此问题。 TrustInsights.ai 联合创始人兼首席数据科学家 Chris Penn 表示,虽然这些都是好的举措,但问题是它们仅适用于这些公司的产品。 “你会看到生成式人工智能以令人难以置信的方式被使用和滥用,”佩恩说。“我们有一大批国家和非国家行为者,他们只想彻底搞砸美国选举进程,而你用来构建这些生成性欺骗的工具是免费的。 它们无法受到监管,因为它们是开源的。” 然而,鉴于其平台的受欢迎程度,公司也在采取行动,可以减少一些错误信息。 更多归因 OpenAI 正在禁止可能阻碍投票的应用程序,例如说投票毫无意义。它还将有关如何以及在哪里投票的问题引导至由全国国务卿协会运营的 CanIVote.org。该公司表示,它正在越来越多地提供新闻报道的链接和归属,以帮助选民评估生成文本的可靠性。 谷歌要求使用重要人工智能内容的政治广告带有警告标签,例如: “这张图片并不描绘真实事件。” “该视频内容是综合生成的。” “这个音频是计算机生成的。” “这张图片并不描绘真实事件。” 深入挖掘:X(Twitter)通过带回政治广告来占据一席之地 营销人工智能研究所首席执行官 Paul Roetzer 表示,真正的解决方案是让公众了解 genAI 的功能。 “社会必须提高对这些工具能力的理解,”罗泽尔说。“普通公民不知道你可以构建一个看起来真实的图像或创建一个视频。他们会相信他们在网上看到的东西,而你不能相信你在网上看到的任何东西。” 不幸的是,现在可能为时已晚,无法帮助 2024 年的选举。
|
|