非营利非商业性健康信息的可信来源
美国抗衰老、预防和再生医学学会的原始声音
标志 标志
人工智能 行为 计算机与医学 机器人

人类准备好利用仁慈的人工智能了吗?

1年8个月前

9130 0
发布于2021年6月11日下午2点

人类期望人工智能是仁慈的、值得信赖的。一项新的研究表明,与此同时,人类不愿意与机器合作和妥协。他们甚至剥削他们。

想象一下,在不久的将来,你正在一条狭窄的道路上开车,突然,另一辆车从前面的拐弯处出现了。这是一辆无人驾驶汽车,车内没有乘客。你们会向前推进,坚持自己的权利,还是让它通过?目前,我们大多数人在涉及他人的情况下表现得很好。我们会对自动驾驶汽车表现出同样的善意吗?

利用行为博弈论的方法,伦敦大学和伦敦大学的一个国际研究团队进行了大规模的在线研究,看看人们是否会像对待人类一样,与人工智能(AI)系统合作。

合作使社会团结在一起。它通常要求我们与他人妥协,并接受他们让我们失望的风险。交通就是一个很好的例子。当我们让别人走在我们前面时,我们会浪费一点时间,当别人没有回应我们的善意时,我们会感到愤怒。我们会对机器做同样的事情吗?

毫无愧疚地利用机器

这项研究发表在杂志上iScience在第一次接触时,人们对人工智能的信任程度与对人类的信任程度相同:大多数人希望遇到愿意合作的人。

区别在后面。人们不太愿意回报人工智能,而是利用它的仁慈来为自己谋利。回到交通的例子,人类司机会给另一个人让路,但不会给自动驾驶汽车让路。该研究认为,这种不愿向机器妥协的态度,是对未来人类与人工智能互动的新挑战。

这项研究的第一作者、慕尼黑大学行为博弈论家、哲学家尤尔吉斯·卡尔普斯博士解释说:“我们把人们放在第一次与人工智能体互动的人的立场上,因为这可能发生在路上。”“我们模拟了不同类型的社会相遇,并发现了一致的模式。人们希望人工智能能像人类一样合作。然而,他们并没有像人类一样回报他们的仁慈,反而更多地利用人工智能。”

从博弈论、认知科学和哲学的角度来看,研究人员发现“算法利用”是一种稳健的现象。他们在近2000名人类参与者的9个实验中重复了他们的发现。

每个实验都考察了不同类型的社会互动,并允许人们决定是妥协、合作还是自私。对其他参与者的期望也被衡量了。在著名的游戏《囚徒困境》中,玩家必须相信其他角色不会让自己失望。他们接受了人类和人工智能的风险,但为了获得更多的钱,他们更经常背叛人工智能的信任。

“合作是通过相互打赌来维持的:我相信你会善待我,你也相信我会善待你。我们这个领域最大的担忧是人们不会信任机器。但我们证明了它们确实如此!”LMU的社会神经科学家Bahador Bahrami教授指出,他也是这项研究的高级研究员之一。“不过,他们不介意让机器失望,这就是最大的区别。甚至当他们这样做的时候,他们也不会有太多的负罪感,”他补充道。

仁慈的AI可能适得其反

有偏见和不道德的人工智能上了很多头条新闻——从2020年英国考试惨败到司法系统——但这项新研究提出了一个新的警告。业界和立法者努力确保人工智能是仁慈的。但仁慈可能适得其反。

如果人们认为人工智能对他们是仁慈的,他们就不会那么愿意合作。一些涉及自动驾驶汽车的事故可能已经展示了现实生活中的例子:司机在路上认出了一辆自动驾驶汽车,并期望它让路。与此同时,自动驾驶汽车希望驾驶员之间能够保持正常的妥协。

“算法开发有进一步的后果。如果人类不愿意让一辆礼貌的自动驾驶汽车从侧道加入,那么自动驾驶汽车是否应该为了有用而不那么礼貌、更有攻击性呢?”

“仁慈和值得信赖的人工智能是每个人都为之兴奋的流行语。但是修复AI并不是故事的全部。如果我们意识到我们面前的机器人无论如何都是合作的,我们就会利用它来为我们的私利服务,”该研究的哲学家和资深作者奥菲莉亚·德罗伊教授说,她还与挪威奥斯陆和平研究所合作,研究将自主机器人士兵与人类士兵结合在一起的伦理影响。

“妥协是社会运转的石油。对我们每个人来说,这看起来只是一个小小的利己行为。对于整个社会来说,这可能会产生更大的影响。如果没有人让自动驾驶汽车加入交通,它们就会在侧面造成自己的交通堵塞,而且不会让交通变得更容易。”

就像你在网上读到的任何东西一样,这篇文章不应该被理解为医学建议;在改变你的健康计划之前,请咨询你的医生或初级保健提供者。

内容可以根据风格和长度进行编辑

提供的资料:

https://www.lmu.de/en/newsroom/news-and-events/news/humans-are-ready-to-take-advantage-of-benevolent-ai.html

https://www.sciencedaily.com/releases/2021/06/210610135534.htm

http://dx.doi.org/10.1016/j.isci.2021.102679

世界卫生视频

Baidu