成千上万的人工智能(AI)专家和开发人员签署了一项承诺 ,即“既不参与也不支持致命的自主武器的开发,制造,贸易或使用”,并恳请全球各国政府共同努力“共同创造未来”强有力的国际规范,法规和法律“禁止所谓的杀手机器人。来自三十个国家的160多家公司和团体以及来自90个国家的2,400名个人支持这一承诺,该承诺由波士顿生命研究所(FLI)开发,并于周三举行的年度国际人工智能联合会议(IJCAI)上公布。 )在瑞典斯德哥尔摩。 FLI总裁兼麻省理工学院教授马克斯泰格马克说:“我很高兴看到人工智能领导人从谈话转向行动,实施政治家迄今未能实施的政策。” “人工智能具有巨大的潜力来帮助世界 – 如果我们耻辱并防止其滥用。自主决定杀人的人工智能武器就像生物武器一样恶心和不稳定,应该以同样的方式处理。”正如加利福尼亚大学圣克鲁兹分校和承诺签字人教授安东尼·阿吉雷告诉美国 有线电视新闻网 ,“我们真的希望确保这项技术的整体影响是积极的,不会导致可怕的军备竞赛或反乌托邦的未来机器人飞来飞去,杀死所有人。“签署人Yoshua Bengio是蒙特利尔学习算法研究所的人工智能专家,他解释说,该承诺有可能通过羞辱杀手机器人(也称为致命的自主武器系统)的开发者来影响公众舆论。 Bengio在接受“ 卫报 ”采访时指出: “由于国际条约和公众羞辱,这种方法实际上对地雷起作用,尽管像美国这样的主要国家没有签署禁止地雷的条约。” “美国公司已经停止建造地雷。”英国兰卡斯特大学(Lancaster University)教授露西·索曼(Lucy Suchman)强调了人工智能研究人员坚持使用他们的发明如何使用的重要性,并指出,作为开发人员,她首先要承诺跟踪我的技术的后续使用情况并反对他们的应用于自动化目标识别,其次,拒绝参与建议或直接帮助将技术融入自主武器系统。“该承诺的其他高调支持者包括SpaceX和特斯拉汽车公司首席执行官埃隆马斯克 ; Skype创始人Jaan Tallinn;杰弗里迪恩,谷歌研究和机器智能的领导者;和Demis Hassabis,Shane Legg和Mustafa Suleyman,他们是DeepMind的联合创始人。随着人工智能技术不断发展,联合国召集了一批政府专家,以解决人权组织 , 倡导团体 , 军事领导人 , 立法者和技术专家提出的越来越多的关切 – 多年来 ,他们一直要求全球化禁止杀手机器人。近年来,技术专家利用IJCAI作为一个机会,迫使世界各国领导人取缔自主武器,正如新的承诺所警告的那样,“可能成为暴力和压迫的有力工具,尤其是在与监视和数据系统相关联时。”如果不禁止这种武器,它们“很容易引发国际社会缺乏管理的技术工具和全球治理体系的军备竞赛”。热门照片|中国学生使用Ares,这是一种人形双足机器人,旨在帮助该国成为人工智能领域的全球领导者。 (AP / Ng Han Guan) Common Dreams根据知识共享署名 – 非商业性使用 – 相同方式共享3.0国际许可进行许可。
Comments