转载:https://www.toutiao.com/article/7371746517742453299/
原创2024-05-2217:01·南方周末人工智能的飞速进步,继续引发争议与担忧。据媒体近期报道,东南亚犯罪集团已经在网络诈骗活动中开始使用生成式人工智能聊天机器人,有“换脸软件公司”甚至已经推出了“7天24小时支持、送货上门服务”,并声称已在一千多个区域安装了其产品。不过AI对诈骗业务似乎“还不大熟练”,在发送消息时不打自招说“我是一个语言模型,还不大擅长描绘情绪与感受”。
以“杀猪盘”为代表的诈骗活动早已有之,只不过载体时有变动,从短信诈骗到电话诈骗到社媒交友诈骗,不一而足。在以往的诈骗活动中,犯罪团伙需要雇用大量熟稔诈骗话术、洞察人性心理的“狗推”也就是人工从业者,以婚恋、投资、博彩等诱饵诱骗受害者一步步上当,榨取他们的巨额钱财。
而更为常见的诈骗场景源于信息泄露。一旦自然人的各项个人信息泄露,犯罪团伙就可以用这些信息打造一个“还原度”极高的数字人,模拟被盗用者的面容、音色与口型,说出犯罪团伙希望说出的话,用于诈骗等不法活动,近来的“特朗普说汉语”“AI刘德华”“AI马斯克”均显示了这一点。
在过去,“拒绝进行视频通话”足以证明网上的人是骗子,“但现在坏人已经找到了解决办法”。不难设想的是,如果普通人的照片、音频、视频等个人信息泄露的话,犯罪团伙也可以利用这些信息生成“数字人”,向受害者的亲友发送假视频骗取钱财,或者以不雅视频或者“绑架视频”敲诈勒索,又或者将“数字人”用于实名验证的领域,套取银行账户或是“刷单验证”,给受害者造成沉重损失。
目前的AI虽然还是“不太擅长描绘情绪和感受”并露出马脚,但不难设想“道高一尺,魔高一丈”的场景。如果AI工具经过不断迭代、足以模仿人类“狗推”的骗术,那么这无异于给诈骗集团插上新的翅膀,2023年热映的电影《孤注一掷》就有类似情节,“人工狗推效率太慢,不如技术升级解放人手”。
比起移动互联时代,AI技术则会进一步放大技术的负外部性,带来“安能辨我是真人假人”的效应,无论中外都有对其加强监管的呼声,其中“对AI生成内容进行信息标注”都是一个焦点。中国《生成式人工智能服务管理暂行办法》第12条规定,“提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识”,欧美的监管方案也将“标识”作为监管AI的一大关键词。
而就科技公司的行业自律而言,像是ChatGPT、Gemini和Copilot这些由科技巨头提供的AI服务都已装上防止其协助非法活动的“护栏”,但如今的AI模型并非仅仅是大公司的禁脔。极端地说,别有用心的程序员足以借用开源代码与有限的算力就搭建出一个AI模型,成为某种“独狼”式的存在。更不用说,这些“独狼”可以转移到监管宽松的国家与地区,比如这则新闻昭示的东南亚边僻之地。
能否要求AI工具强制标注其信息来源?这个问题除了外部监管与行业自律之外,还牵扯到另一个难题:相关从业者是否有意愿与动机,对AI生成的内容进行标注?
“技术无罪”是不少业者常常引用的口号,意在证明技术总是中立的,作恶的是不法分子而非技术本身。但从另一方面来看,新的技术一旦用于做坏事,其“效率”将会大大提高也是不争的事实。有鉴于此,有的科技巨头会提出“不作恶”的口号,也有公司不遗余力地强调“科技以人为本”。
但在现实中,“主动求监管”“强调不作恶”“安装安全护栏”的科技公司并不能涵盖全部。从移动互联时代到如今的AI时代,网上因利益驱动而出现的诸多“以假乱真”内容,本身就是发布者与平台方共谋的产物,比如短视频平台上“代子女教训老人”“代老人斥责子女不孝”这种“情感类短视频”明明是情景剧却伪装为新闻,以及更古早时代那些明明是广告却也伪装为新闻进行竞价排名的现象。
在AI技术日新月异的今天,生成式内容“以假乱真”的范围势必更广,“效率”势必也更高。不妨做个简单的思想实验:如果高效高频的AI生成内容可以快速获取流量与关注,从而为平台方与从业者带来巨大利益的话,他们恐怕并没有多少意愿进行信息标注。而对那些并非大公司的“独狼式”AI模型而言,AI技术滥用乃至用于诈骗,其潜在破坏性是巨大的,监管也不能完全寄希望于自律。
“AI工具进军东南亚杀猪盘”的新闻再次启示世人,新的技术进步呼吁新的监管体系,而这一点并不能完全指望科技商业公司的自我约束,需要监管方、平台方的共同努力。“强制对AI生成内容进行标注”是各国立法都在努力的一个方向:AI做好事坏事都应留名,而非以真人名义行走世间。
王兢
责编陈斌