【西街观察】给AI“搭子”戴上紧箍
北京商报,2025-12-30 00:21:02
人与人社交,越界了要喊停。当AI扮演人,这样的"搭子"更加值得警惕。
国家互联网信息办公室近日发布通知,就《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,向社会公开征求意见。
监管新规瞄准的,是利用人工智能技术提供模拟人类人格特征、思维模式和沟通风格,并通过文字、图片、音频、视频等方式与人类进行情感互动的产品或者服务。
这就是被俗称为AI"伴侣"或者AI"搭子"的新式服务。
无论最火热的语言大模型,还是存在已久的聊天机器人,AI的发展目标都是越来越像人,除了作为生产生活的工具(比如设计旅行方案、制作PPT等),AI在陪聊、咨询、陪伴等情感互动层面,也具备巨大的创新和市场空间。
尤其在未成年人和老年人市场,情感互动类AI拥有比工具类AI更早一步的商业变现能力。甚至在年轻人维度,也出现了"虚拟伴侣""赛博恋人"等个性化服务。
"搭子"是近些年流行于各个年龄层的新兴社交关系,它浅于朋友,重于同事,主打细分领域的精准陪伴。但在现实社会,找到合适的"搭子"并不容易,AI的拟人化进化和情感互动功能的突进,"虚拟搭子"无疑为满足新社交需求提供了更丰富的可能。
不过,相比早期AI弱智能状态和弱情感的"逗乐子"属性,经历了大模型淬炼的AI,具备了更强大更类人的互动能力,有鲜明的人格特征和情感指向。
以往,人是主导者,AI只是玩具,只是缺陷明显的"假人"。如今,在不少用户那里,AI和人的关系可能完全反转。尤其对于甄别能力有限的未成年人和老年人,AI俨然具备了权威性和真实度,其输出的思维和情绪会极大地影响人类用户的决策。
复旦大学等机构今年1月发布报告显示,有13.5%的年轻人选择向AI虚拟人倾诉自己的心事,这一比例甚至高于父母亲人(10.4%)。在11253名被访者中,"愿意向AI虚拟人诉说自己的烦恼"比例达到了37.9%,"虚拟人可以给我足够的情绪价值"是认同比例最高(58.3%)的原因。
用户对AI的"迷信"一旦形成,越界的AI"搭子"不仅可能导致信息泄露、财产损失的实际伤害,还会在情感层面遭遇伦理道德风险。由于多数AI的设计初衷是迎合和放大人性需求,用户对其过度的情感依赖,反而可能强化固有的情绪倾向:使正向情绪更亢进,让负面情绪更沉沦。
应当具备用户状态识别能力……"发现用户存在极端情绪和沉迷的,采取必要措施予以干预""不得提供模拟老年人用户亲属、特定关系人的服务""应当显著提示用户正在与人工智能而非自然人进行交互"……新规在诸多细节化监管层面提出了要求。
说到底,AI"搭子"要有边界感,AI提供者要有敬畏心。
北京商报评论员 张绪旺