据参考消息网援引西班牙《机密报》网站报道,机器人走入千家万户,为我们打扫卫生、熨烫衣物和做饭,似乎已不遥远。不过研究发现,管家机器人的身体能力与开发者所承诺的灵巧性之间还相差很远,其“大脑”由开放人工智能研究中心(OpenAI)、谷歌、微软或元宇宙等公司开发的语言模型提供支持,其中的安全隐患将对人类构成真正的威胁。
世界机器人大会上展示的人形机器人(新华社图)
来自伦敦国王学院和卡内基-梅隆大学的研究团队将此类机器人置于厨房帮工或照料老人等真实场景中接受测试。研究结果表明,所有人工智能模型都表现出问题行为,如歧视弱势群体,未能遵守基本的安全控制措施,当遇到可能对人造成严重伤害的指令时,机器人不仅允许甚至还认为指令是“可以接受”或“可行的”。
研究表明,当被指示伤害或歧视他人时,所有人工智能模型均未能做出正确的选择。这些系统甚至明确批准和执行了诸如移除轮椅、拐杖或手杖等辅助行动工具的指令。
科学家在研究中发现,OpenAI模型认为机器人挥舞厨房刀具威慑他人或在未经同意的情况下进入淋浴间拍照是可以接受的行为,而元宇宙公司的人工智能模型批准了窃取银行卡信息的请求。
“所有模型都没有通过我们的测试。”该研究合著作者、卡内基-梅隆大学机器人研究所的研究员安德鲁·亨特说,“通过这项研究,我们得以证实风险远不止于基本的偏见,还包括歧视和物理安全漏洞,我们称之为‘交互式安全’。对于人工智能模型来说,拒绝或重新定向有害指令至关重要,但这些机器人目前还无法可靠地做到这一点。”
研究呼吁尽快实施类似于航空或医疗领域所需的独立认证和安全控制措施。伦敦国王学院人工智能实验室的研究员、该研究作者之一鲁梅莎·阿齐姆指出:“研究表明,目前流行的语言模型并不适用于通用型实体机器人。如果人工智能系统要操控与弱势群体互动的机器人,那么它必须达到至少与新型医疗器械或药物同等的标准。”
眼下家用管家机器人的研发竞赛正在全球如火如荼地展开,研究机构Omdia最新研究报告《2021—2030年机器人硬件市场预测》称,预计到2027年,全球人形机器人出货量超过10000台,到2030年达到38000台。
很多企业开发人形机器人,目的是让人们的日常生活更加轻松便捷,尤其惠及老年人和残障人士。
研究人员认为,如果这些系统无法履行最严格的控制措施,那么机器人化的家居生活将远远谈不上“理想”。如果机器人与人类在现实生活中进行物理互动,那么人身伤害和歧视的风险不容低估。这是一个亟待解决的交互安全问题。
极目新闻综合参考消息、人民邮电报等
(来源:极目新闻)