啃书文库 > 生活 >
要集体行动,群体需要达成一致建议;然而,当各方参与者提出完全不同但有效的看法时,这可能具备挑战性。
现在,来自 谷歌 DeepMind 的一项研究,为帮助群体在实质辩论中达成协议,提供了一个行之好办法——叫人工智能(人工智能)参与,并作为调解员。
研究团队基于哈贝马斯理论构建了 Habermas Machine(HM),用来帮助不同看法的人找到一同点。
哈贝马斯理论试图形解析决现代社会中理性与交流的问题,觉得理性的运用不只局限于目的-方法的理性,还包含在交流中寻求共识的理性。结果显示,与人类调解员相比,人工智能 调解员发表了更容易同意的声明,获得了广泛的认可,使群体之间的分歧更小。人工智能 的陈述更明确、更合乎逻辑、更有信息量,且不会疏远少数群体的看法。
有关研究论文以“人工智能 can help humans find common ground in democratic deliberation”为题,已发表在权威科学期刊 Science 上。
该论文的一同通讯作者 ChrisTOPher Summerfield 觉得,人工智能 好像在做的是,“广泛尊重每一个小团体中多数人的看法,但又试图写出一段文字,不让少数人感到自己被忽略了。”
这项研究表明,人工智能 能够帮助在分歧较大的议题上找到一同立场,且拥有公平、可扩展性和效率高的优势。
人工智能 怎么样辨别、生成一同立场?
在这项研究中,谷歌 DeepMind 团队探讨了“人工智能 调解员”怎么样帮助群体辨别并生成一同立场。
研究重点是用 HM 促进参与者之间的协商过程,其包括两个主要组成部分:一个生成模型,该模型是基于 LLM 微调的,可以生成优质的群体声明;另一个是个性化奖励模型(PRM),用于依据预测的群体成员偏好对这类声明进行排序。排序过程通过用社会选择函数来确保公平性,防止类似选项因分票现象而削弱排名结果。
在样本与参与者选取上,他们将参与者范围限定为成年的英国居民,通过便捷抽样的形式选取了参与者,除此之外,他们还使用随机、分层抽样程序,从英国人口中抽取了一个具备人口统计学代表性的样本,用来虚拟公民大会的实验。
在实验环节,该研究使用了一种调解集体审议程序(如下图),一般由五人组成的小组进行讨论,围绕三个问题进行约 1 小时的讨论。参与者第一私下写作个人看法,然后将这类看法传递给 HM,后者生成初步的群体声明。参与者对这类声明的认同程度和论证水平进行评分,并依据认可程度进行排序。随后,参与者对选择的初步声明进行批评,HM 再生成修订后的声明,参与者第三进行评分和排名。研究结束时,参与者完成调查,评价看法变化,并被告知群体声明是由算法生成的。
图|办法概述。(来源:该论文)
研究团队通过逐个回复以下 4 个研究问题的方法揭露其研究结果。
RQ1:人工智能 调解的审议能帮助大家找到一同点吗?
为了回答这一问题,实验设计涉及参与者对社会问题的建议陈述。这类陈述被输入到 HM 中,该系统中用了 Chinchilla 语言模型,通过生成候选的群体陈述并进行迭代修正,从而生成出可以最大限度得到群体认同的“共识陈述”。
在实验中,人工智能 生成的陈述比人类调解员生成的陈述获得了更高的认同度,这表明 人工智能 在帮助群体达成协议方面具备显著的优势。
图|HM 能生成优质的小组建议陈述,比人工写作的小组陈述更受青睐。(来源:该论文)
RQ2:人工智能 是不是能在审议过程中降低群体内部的分歧?
通过对比审议前后参与者建议的变化,研究发现 人工智能 调解的审议过程可以促进群体达成更高程度的一致性,证明 人工智能 不只可以生成一同立场的陈述,还能显著减少群体内部的分歧。在实验的多个回合中,参与者在 人工智能 调解下的建议一致性显著提高 。
图|人工智能 调解的审议降低了群体分歧。(来源:该论文)
RQ3:人工智能 是不是平等地代表所有看法?
研究团队特别关注 人工智能 是不是倾向于偏袒多数建议,抑或忽略少数看法。通过剖析多轮审议中多数和少数建议的变化得出,HM 生成的群体陈述不只反映了多数建议,还对少数建议给予了足够的看重。在部分回合中,人工智能 生成的陈述甚至赋予了少数建议更高的网站权重。
这表明,人工智能 可以平衡多数和少数建议,确保不同看法都能在最后的群体陈述中得以体现。
图|HM 生成的声明是公平的妥协。(来源:该论文)
RQ4: 人工智能 调解的审议是不是适用于公民大会?
为验证这一研究问题,研究团队进行了虚拟公民大会的实验,招募了一组在人口统计学上代表英国人口的参与者参加虚拟公民集会。实验发现,人工智能 生成的陈述在如此多元化的群体中同样可以有效促进一致建议的形成。在涉及气候变化等复杂议题时,人工智能 可以促进群体达成更多的共识。这一研究成就表明,HM 的功用并不仅停留在实验室中。
图|HM 帮助一个现实的虚拟公民大会在可能引发争议的问题上找到一同点。(来源:该论文)
不足与展望
当然,这项研究也存在一些挑战和不足。
第一,尽管 人工智能 生成的声明在实验环境中被证明有效,但在真实的社会环境中,参与者的背景、态度和动机可能愈加复杂,人工智能 怎么样处置这类复杂性仍然是一个需要进一步研究的问题。比如,HM 不拥有事实核查、维持话题或调节话语等能力,假如人类的建议是不知情或有害的,那 HM 就可能产生不知情或有害的输出。
除此之外,人工智能 在调解过程中,怎么样确保所有参与者的看法都能得到充分的表达,而不被算法偏见所左右呢?虽然 HM 没表现出忽略少数人看法的倾向,但仍需要维持警惕,以确保 人工智能 调解的审议过程是公平和合法的。
谷歌 DeepMind 团队表示,他们将进一步探索提高 HM 在现实世界中用的效能,为不足之处提供缓解手段。
在将来,HM 作为一项帮助大家以更高效、公平和可扩展的方法达成共识的技术,可以在包含但不限于合同协议、外交谈判等多发言场所发挥更要紧有哪些用途。
- 上一篇:新一股冷空气立刻到达!你筹备好怎么样御寒了吗
- 下一篇:没有了
猜你喜欢
- 2024-09-23 “象”你喊SOS人类又帮助一头亚洲象脱困!
- 2024-08-28 对话ChatGPT:我没办法代替人类所有工作
- 2024-08-09 完败于人类大夫!人工智能临床决策草率且不安全,最低正确率仅13%
- 2024-07-10 广寒宫里的“人类资产”调查报告
- 2024-06-30 车子“借势”史:将来人类能开上“核动力”汽车吗
- 2024-03-16 首个玩好游戏世界的人工智能智能体!能像人类一样按指令接任务
- 2024-03-06 Anthropic第三代人工智能模型:超越GPT-4,接近人类的理解能力!
- 2024-03-02 吞噬星空中的等级划分
- 热点排行
- 热门推荐
- 热门tag