复制成功

分享至

主页 > 比特币 >

哪里跪了?人和 AI 合作,到底有什么危险?

2023.10.31

原文来源:极客公园

作者:芯芯

哪里跪了?人和 AI 合作,到底有什么危险?

图片来源:由无界 AI生成

「科技是懒人推动的!」

相信所有人在「摸鱼」或者「躺平」时候,都曾经用这句话为自己找借口。

从蒸汽机的工业革命,到计算机的数字革命,技术的进步确实让人类在某些方面,越来越有躺平的资本。

作为最有潜力成为下一代平台的 AI 技术,会让人类变得「更懒」吗?

好像确实是的,但这并不是个好消息。

根据发表在《机器人与人工智能前沿》杂志上的一项最新研究显示,当人类与 AI 和机器合作时,真的会「摸鱼偷懒」。

该研究的第一作者 Cymek 称:「团队合作既可以是一种祝福,也可以是一种诅咒。」

所以,在 AI 时代,人类最大的危机不是被机器取代,而是「懒到退化」?


01 机器助手,让人类「放松警惕」


当有了机器这样一个有力帮手时,会让人类变得比较「心大」。

德国柏林工业大学的研究人员向 42 名参与者提供了模糊的电路板图像,要求他们检查是否有缺陷。其中一半的参与者被告知,他们要处理的电路板已由一台名为「熊猫」的机器人检查过,并已标记出缺陷。

哪里跪了?人和 AI 合作,到底有什么危险?

实验:模拟电路板质量控制的视觉搜索任务 |《机器人与人工智能前沿》研究

实际上,机器人「熊猫」在实验过程中检测到了 94.8% 的缺陷。所有参与者都看到了相同的 320 张扫描电路板图像,当研究人员仔细查看参与者的错误率时,他们发现,与「熊猫」一起工作的参与者,在任务后期捕捉到的缺陷较少,因为他们已经看到「熊猫」成功地标记了许多缺陷。

两组参与者几乎检查了整个电路板表面,花时间搜索,自我评价努力程度较高。结果是,与机器人合作的参与者平均发现了 3.3 个缺陷,独自完成任务的人平均发现了 4.23 个缺陷。

哪里跪了?人和 AI 合作,到底有什么危险?

两组参与者检测到的缺陷的平均值和标准偏差 |《机器人与人工智能前沿》研究

研究称:「这表明参与者在与机器人伙伴合作时,可能不太专心地检查电路板。我们研究的参与者似乎保持了检查电路板的努力,但似乎检查是在较少的脑力劳动和对采样信息的关注下进行的。」

这意味着,如果他们被告知机器人已经检查了一部分,并体验到机器人的可靠后,他们就会发现更少的缺陷。在潜意识中,他们假设「熊猫」不太会漏掉缺陷,产生「社会惰化」效应。

这项研究的影响对于依赖严格的质量控制的行业尤为重要。作者警告称,甚至是短时间内对人类注意力的放松,可能是由于过度依赖机器人的准确性,都可能危及安全。

研究人员 Onnasch 提到:「在更长的轮班时间内,当任务变得例行化,并且工作环境提供的性能监控和反馈较少时,动力的丧失往往更大。在制造业普遍存在,特别是在双重检查常见的与安全相关的领域,这可能对工作结果产生负面影响。」

当然,研究者的测试也有一些限制。比如,样本其实还不够大,而且在实验室中难以模拟「社会惰化」,因为参与者知道他们受到监视。Cymek 解释道:「主要的限制是实验室环境。要了解人机互动中动力丧失问题的严重性,我们需要走出实验室,在实际工作环境中与经验丰富的工人一起测试我们的假设,他们通常与机器人一起工作。」


02 「人机合作危机」早已发生


事实上,在实验室之外,人机合作导致的「堕化」早已经在现实世界中出现。

在自动驾驶领域,有一个与「社会惰化」相似的现象,叫做「自动化自满(Automation complacency)」,典型是由于有了自动化辅助而分心。

2018 年 3 月,在美国亚利桑那州,配有安全员的Uber 自动驾驶汽车撞死一位骑自行车的人。警方的分析发现,如果安全员一直看着道路,安全员本可以在受害者前方 12.8 米处停下来,并避免悲剧。

哪里跪了?人和 AI 合作,到底有什么危险?

2018 年美国自动驾驶致死事件 |CNN

特斯拉常常是美国媒体和监管机构重点关注的目标,原因常常是与自动驾驶有关的事故。一个典型的场景是,特斯拉司机在使用自动驾驶功能时睡觉,或玩游戏,并卷入致命车祸。

在当下的 AI 狂潮中,机器取代人类的预言越来越接近现实。一方认为机器会服务于人类,另一方则认为人类会不小心制造出邪恶之物。

免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKEx学院仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

加⼊OKEx全球社群

和全球数字资产投资者交流讨论

扫码加入OKEx社群

相关推荐

industry-frontier