你觉得,你会被AI骗吗?
曾经的我们信誓旦旦,这绝不可能。
直到今天,一段萌兔深夜“蹦迪”的假视频,欺骗了全球上亿人的真感情。
乍一眼,视频里的兔子十分可爱,还配有解释:“刚刚查看了家里的安全摄像头……我觉得我们家后院的蹦床上来客人了。”
兔子们跳得很开心,看官老爷们刷得很上头。这段AI视频之所以很难被识破,部分原因是“监控视频”本身比较模糊,人们第一眼看到,很难联想到是AI的“杰作”。但其实,这段不到10秒的视频还是有漏洞的——第5和第6秒之间,画面里的一只兔子凭空消失了。
现在,“假视频”就如此逼真,那么一年后、三年后,谁能分清哪些视频是真的,哪些是假的?我们过去总觉得,“这种事永远不会发生在我身上”;如今,也感觉到了“我老了也会被骗”。
当然,我们可以说,AI造出的视频离谱但吸睛,我们看得越久,算法就越倾向给我们推送更多同类内容。可事实上,人们真的很在乎真和假,渴望知道“到底什么才是真实”。
今天,AI已经改变了互联网的“生态”:求职者用AI创建简历,吸引基于AI的简历筛选系统;老师用AI制定课程计划和作业,学生用AI来完成它们……甚至有人觉得,AI制作的视频,会不会极其符合AI的审美——AI欣赏并点赞AI制作的内容,瞧,还闭环了!
将来,有没有可能是AI与AI在互动,而人倒成了中介?
AI安全,原本是个挺小众的名词,但现今,全社会不得不重视起来。专业人士说,AI存在与生俱来的“四大基因缺陷”:一切皆可编程、一切皆可模仿、一切皆可生成、一切皆可调度。
若缺乏严格的安全保障,算法偏见、数据泄露、系统失控或被恶意利用等风险将对社会稳定、个人隐私乃至人类价值观构成严峻挑战。打比方说,忽视AI安全,无异于在高速公路上蒙眼疾驰,后果不堪设想。重视AI安全,本质上是重视“人”本身——保护人的权利、尊严、自由,确保技术发展始终服务于人类福祉,而非成为威胁。这是构建可信赖AI生态系统的前提和底线。
原标题:《新民随笔丨你会被AI骗吗?》
栏目编辑:郁晶陶 题图上观题图
作者:新民晚报 郜阳