您当前位置>首页 > 精品项目 > 揭开 AI 关系聊天机器人的真相
发表时间:2025-02-27
浏览次数:2
Emma McGowan 2024年2月14日
Mozilla 最近的一份报告揭示,近年来浪漫 AI 聊天机器人的激增正在带来全新的隐私忧虑。
自20世纪60年代起,AI 浪漫伴侣就已成为流行文化中的一个“趋势”。从电视剧《我的活人玩偶》中的全机械人“Rhoda Miller”,到2013年电影《她》中斯嘉丽约翰逊配音的无形声音,我们几代人都在集体幻想着人工智能 能够满足我们所有的情感需求。如今,随着生成式人工智能的发展和发布,这个梦想似乎终于有可能成真。
但这真的是一个梦想吗?还是我们正在无意识地走向隐私噩梦?这是 Mozilla 研究团队在其最新的 [Privacy Not Included隐私无关特别报告] 中提出的问题,该报告讨论了浪漫 AI 聊天机器人的隐私问题。
nexitally加速器研究结果令人震惊,11个被测试的聊天机器人中有10个未能达到 Mozilla 的最低安全标准。这意味着,其中一些机器人不仅未要求用户创建强密码,也没有处理任何安全漏洞的方式。在谷歌 Play 商店已有超过一个亿的下载量,最近 OpenAI 的应用商店也出现了浪漫聊天机器人的大量涌入,这一严重问题只会愈发严重。
然而,这份报告不仅仅是关于数字;它还讨论了这些发现可能带来的重大隐私影响。以 Replika AI 为例。根据 Mozilla 的说法,人们正在与其“AI 灵魂伴侣”分享最私密的想法、感受、照片和视频,而该应用不仅记录这些信息,还有可能将其出售给数据经纪人。它还允许用户使用诸如“111111”这样的弱密码创建账户,令所有这些敏感信息面临被黑客攻击的风险。
Calder 表示,尽管这些隐私和安全缺陷已经“令人毛骨悚然”,但其中一些机器人还声称能够帮助用户的心理健康。她以 Romantic AI 为例,指出其条款和条件 中写道:
“Romantic AI 既不是医疗保健或医疗服务提供者,也不提供医疗、心理健康服务或其他专业服务。仅您的医生、治疗师或其他专业人士可以做到这一点。Romantic AI 对其提供的服务没有任何治疗、医疗或其他专业帮助的声明、陈述、保证或担保。”
然而,他们的网站上却写着:“Romantic AI 在这里维护您的心理健康”原文强调。虽然我们没有关于多少人阅读条款和条件与多少人阅读网站消息的数据,但可以肯定的是,更多的人接收到的网站信息远多于免责声明。
在心理健康的声称与用户自愿分享给其数字“灵魂伴侣”的个人和私密信息之间,Calder 担心这些机器人可能轻易地操控人们做出他们平时不会做的事情。
“有什么可以阻止那些不法分子创建旨在了解其灵魂伴侣的聊天机器人,从而利用这种关系操纵这些人去做可怕的事情,接受令人恐惧的意识形态,或伤害自己或他人?”Calder 说。“这就是为什么我们迫切需要在这些 AI 应用中实现更多的透明度和用户控制。”
因此,尽管 AI 聊天机器人承诺提供陪伴,但我们还没有达到《她》中的水平:当前的现实环境揭示了用户隐私是入场的代价。现在是时候让用户、开发者和政策制定者要求在 AI 关系领域实现透明度、安全性和对个人边界的尊重。只有这样,我们才能安全地探索这些数字伴侣的潜力,而不妥协我们的数字身份。