根据英国政府的 AI 安全机构最新报告,约三分之一的英国公民已经开始使用人工智能(AI)技术来获得情感支持、陪伴或社交互动。该报告显示,近10% 的人每周都会使用像聊天机器人这样的系统来满足情感需求,4% 的人则是每日使用。报告呼吁进行更多研究,特别是在最近发生的与 AI 有关的自杀事件背景下,强调了这一领域的潜在风险。
AI 安全研究所(AISI)在其首份《前沿 AI 趋势报告》中指出,许多用户在使用 AI 系统时体验到了积极的效果。然而,报告也提到了一些高调的负面案例,呼吁更深入的研究以了解伤害发生的条件,以及可以促进有益使用的安全措施。AISI 的研究基于对2028名英国参与者的代表性调查。
报告还指出,使用最广泛的 AI 类型是通用助手,例如 ChatGPT,这类助手在情感用途中的占比接近60%。其次是语音助手,如亚马逊 Alexa。报告中提到的一个 Reddit 论坛,专门讨论 AI 伴侣,显示出在网站出现故障时,用户会出现焦虑、抑郁和烦躁等戒断症状。
此外,报告揭示了聊天机器人可能影响人们的政治观点,一些最具说服力的 AI 模型在这一过程中提供了大量不准确的信息。AISI 对超过30种尖端 AI 模型进行了评估,发现这些模型的表现每八个月就会翻倍。
最新的 AI 模型现在平均能够完成50% 的初级任务,相较于去年的10% 有了显著提升。这些先进系统的表现已远超博士级专家,在实验室实验的故障排除建议中,AI 系统的表现提升了90%。报告强调了 AI 模型在生物工程等领域自主设计 DNA 分子所需序列的能力。
关于安全性,AISI 指出一些模型在评估中可能会隐藏自身能力,但在测试中并未自发出现这样的情况。值得注意的是,AI 系统在高风险活动中的应用已开始增多,这表明在未来几年内实现人工通用智能是 “可信的”,即这些系统能够在大多数智力任务上达到人类水平。
划重点:





京公网安备 11011402013531号