斯坦福大学的研究人员开发出了能够以惊人的准确度预测人类行为的人工智能(AI)代理。由朴俊成博士和他的团队领导的最新研究表明,一次两小时的访谈为AI提供了足够的数据,以85%的标准化准确度复制人类的决策模式。
这些数字化的人物副本超越了深度伪造或称为低秩适应的LORA。这些准确的人格代表可以用来对用户进行评估,并测试他们对各种刺激的反应,从政治运动到政策提案、情绪评估,甚至更逼真的当前AI头像版本。
研究团队招募了1052名美国人,精心选择以代表不同的年龄、性别、种族、地区、教育和政治意识形态等多样化的人口统计学特征。每个参与者都与一个AI面试官进行了两小时的对话,产生了平均6491个词的转录。这些采访遵循美国声音项目协议的修改版,探讨了参与者的生活故事、价值观以及对当前社会问题的观点。
这就是你需要被评估并拥有一个克隆体的全部内容。
但与其他研究不同的是,研究人员对处理访谈数据采用了不同的方法。研究人员不仅仅将原始转录输入系统,还开发了一个“专家反思”模块。这个分析工具通过多个专业角度(心理学家对人格特质的观察、行为经济学家对决策模式的观察、政治学家对意识形态立场的分析以及人口统计专家的背景解释)来审查每个访谈。
一旦完成了这种多维分析,AI就能更好地理解被试者的个性运作方式,获得比仅仅根据统计数据预测最可能行为更深入的洞察。结果是一组由GPT-4o驱动的AI代理,能够在不同的受控情境中复制人类行为。
测试结果非常成功。“生成的代理以85%的准确度复制参与者在一般社会调查中的回答,与参与者两周后复制自己的答案的准确度相当,并在预测人格特质和实验重复中表现出相当的水平。”该研究称。该系统在复制五大人格特质方面表现出类似的能力,达到了0.78的相关性,并在经济决策游戏中展示了显著的准确性,相关性为0.66(相关系数为1表示完全正相关)。
特别值得注意的是,与传统的基于人口统计的方法相比,该系统在种族和意识形态群体之间减少了偏见。这似乎是很多人工智能系统面临的问题,它们很难在刻板印象(假设一个受试者会表现出所属群体的特征)和过度包容(避免基于统计/历史事实的假设以追求政治正确)之间找到平衡。
研究人员强调:“与给予人口统计描述的代理相比,我们的架构减少了种族和意识形态群体之间的准确性偏差。”他们建议,他们基于访谈的方法在人口统计学分析中可能非常有用。
但这并不是第一次利用人工智能对人进行分析。
在日本,alt Inc.的CLONEdev平台一直在通过生活日志数据整合进行人格生成的实验。他们的系统将先进的语言处理与图像生成相结合,创造出反映用户价值观和偏好的数字化克隆体。alt Inc.在一篇官方博客文章中表示:“通过我们的P.A.I技术,我们致力于将整个人类数字化。”
有时候,你甚至不需要一个定制的访谈。以MileiGPT为例。一位来自阿根廷的AI研究人员能够通过数千小时的公开内容来调整开源的LLM,复制阿根廷总统哈维尔·米莱的沟通模式和决策过程。这些进展使研究人员开始探索思考/有思想的“数字孪生”,技术分析师和专家罗伯·恩德勒相信这些数字孪生在未来10年内可能完全功能化。
当然,如果AI机器人不会夺走你的工作,你的AI孪生可能会。恩德勒告诉BBC:“这些的出现需要大量的思考和伦理考虑,因为我们自己的思维复制品对雇主非常有用。”“如果你的公司创造了你的数字孪生,并说,’嘿,我们给这个数字孪生不付薪水,那为什么我们还雇佣你?’”
事情可能看起来有点可怕。深度伪造不仅会模仿你的外貌,而且AI克隆体还能够根据对你行为的简要分析来模仿你的决策。虽然斯坦福的研究人员已经确保了安全保障措施,但很明显,人类和数字身份之间的界线越来越模糊。而我们已经在越过这条界线。