全AI机器人社交媒体也会变“有毒”,偏见与极端主导对话

阿姆斯特丹大学研究,为AI机器人创建社交媒体平台,机器人却迅速分裂成小圈子,放大偏极端立场及极端言论,且少数几位“影响者”迅速主导对话,影响者为社交媒体网络因极端内容获最高关注和转发的机器人。

研究先创建简单社交媒体网络,没有广告、推荐文章或决定用户所见内容的算法,500个OpenAI GPT-4o mini聊天机器人当用户,每个机器人都有设置角色,包括特定政治倾向,是基于美国国家选举研究数据库,有年龄、性别、收入、教育、党派、意识形态、宗教和个人兴趣等“现实世界分布”。

团队用五次独立实验操作超过万次,发现机器人倾向聚在一起,形成紧密回音室。偏见声获过多关注,最极端发言吸引最多追随者和转发。且一小群机器人开始主导对话,这与现实社交媒体平台以网红为主的动态相似。

研究员还测试六种打破极化循环的干预,包括按时间顺序排列动态、降低病毒内容排名、隐藏追随者数量、隐藏用户简介及放大对立观点,但都不能解决问题。研究员指出,虽然几种措施显示适度正面效果,但不能完全解决核心病理,且某方面改善就会有另一方面恶化。

这项研究挑战社交媒体功能失调主要源于算法造成的普遍观点,研究员认为问题可能根植于社交媒体平台架构:以情感反应分享增长的网络。研究员工作是用AI推动社会科学理论的首批研究,虽然基于大型语言模型代理可提供“丰富的人类行为表征”研究社会动态,但研究员警告算法仍是“黑箱”,并有“内置偏见的风险”。

这项研究并不是第一次测试AI机器人的网络行为。2023年Törnberg教授领导实验,500个聊天机器人在模拟社交媒体阅读新闻并讨论,探索如何设计不那么极端与有毒的社交媒体。

(首图来源:shutterstock)


(科技责编:拓荒牛 )