当前位置: 首页 » 资讯 » 新科技 » 正文

小心!“打电话赚钱”APP转卖你的隐私信息,用于AI训练

IP属地 中国·北京 南方都市报 时间:2025-10-27 14:11:24

曾因严重安全漏洞紧急下架的争议应用“Neon-Money Talks”,近日在美区苹果商店悄然重新上架。这款以“打电话赚钱”为噱头的App,曾在爆红后被揭露存在用户通话录音、电话号码等敏感信息“裸奔”的问题。南方都市报、南都大数据研究院发现,类似的语音变现APP在国内应用商城也开始零星出现。在这类APP的“诱惑”下,部分用户可能会为了少量的即时报酬,轻易交出自己的人脸、语音等生物特征数据,而忽视可能面临的个人信息泄露,风险值得关注。



个人隐私被“AI赚钱”模式围猎

2025年9月,注册在美国纽约的一款名为Neon-Money Talks的语音聊天App以“打电话赚钱”的噱头爆火。其宣传称,用户每通话一分钟即可获得0.15美元报酬,与其他Neon用户通话时费率更高。以此推算,用户每天最高能赚30美元,折合人民币200多元。这样的“赚钱诱惑”让该App上线仅一周便冲进全球免费榜第五,社交榜第二,9月26日当天下载量更是暴涨至8.1万次。

但直白来说,其商业模式就是通过支付小额报酬换取用户语音数据,再将录音批量转卖给AI训练公司盈利,是典型的“隐私换现金”模式。

不仅如此,更有报道揭开了安全隐患:其后端服务器未对数据访问进行充分限制,任何人都能轻易获取其他用户的完整通话录音、文字转录、电话号码等敏感信息。用户隐私几乎处于完全“裸奔”状态。

事件曝光后,Neon创始人Alex Kiam紧急关闭服务器,将应用下架,并表示团队正在进行“全面安全审计”。截至10月11日,南都研究员注意到,这款应用已重新上架美区苹果商店,但其承诺的安全升级是否真正能保护用户隐私,仍有待观察。

耐人寻味的是,Neon并非孤例。如今在美区苹果商店搜索“AI赚钱”“语音变现”等关键词,仍能找到十余款类似应用。比如有APP要求用户与AI机器人进行情感对话换报酬,隐私协议里暗藏“永久使用语音内容”条款;还有APP以“构建全球方言数据库”为噱头,诱导用户录制稀缺语种,却对数据最终流向含糊其辞。

类似的,比如在国内应用商店可以搜索到一款名为“Make Money Chatting Talkroom”的应用,其宣称用户可以通过和有倾诉需求的人在线聊天或通话赚钱,承诺至少每小时获利10美元。尽管由于注册地限制无法使用,但南都研究员在部分网站看到大量关于此款APP的使用评价和营销推广,与Neon模式基本一致。

数据变现或严重侵害用户权益

尽管存在风险,但Neon的回归在社交媒体上却迎来了一批用户的欢迎。数据变现的诱惑或正成为一种危险趋势。

在国内的社交媒体和问答平台上,诸如“如何出售自己的人脸信息”“哪里可以‘卖脸’给AI公司”的提问也时有出现。一条“我一张大众脸,卖掉又能怎样?”的评论甚至获得了高赞,反映出部分用户对生物特征数据价值与风险的严重低估。

多数人或许尚不清楚自己的数据在AI产业链中的真实价值——一条10分钟的日常通话录音,AI公司转售给大模型厂商时的价格与用户最终获得的金额能相差几十倍。在知名数字人定制公司Synthesia官网,一张授权人脸一年使用的费用就接近上千美元,企业批量采购价更高。更不用提在下游的产业链,数字人制作后,能通过广告、培训等场景将为相关企业创造更高的收益。

同时,即时收益的诱惑远超长期风险的警示,APP用户协议里的陷阱,隐私泄露可能带来的连锁反应,相应被忽视。当隐私被明码标价,看似公平交易的背后,是个体对自身数据控制权的丧失。

澳门城市大学数据科学学院副院长(科研)朱天清教授接受南都大数据研究院采访时指出,“语音变现”类应用存在三大不合规问题,或严重侵害用户权益。首先是数据收集违规,该类企业大多缺乏完整告知与知情同意书,应用未遵守《个人信息保护法》“数据最小化”原则,收集数据超出实现目的所需量级。其次是生物识别信息保护不足,声音、面部特征等敏感信息未满足法律规定的高等级保护要求,访问控制、数据加密和脱敏等措施明显缺失。最后是数据治理与责任分配缺陷,企业在数据跨境传输、第三方处理的责任划分上不清晰,事前事中事后治理机制不完善,缺乏数据泄露应急、受害者救济及监督审计机制。

朱天清教授同时提醒用户在使用此类应用时需警惕身份盗用、语音合成滥用等衍生风险。

出品:南都大数据研究院

“AI新治向”工作室

采写:南都研究员 孔令旖

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新