文章来源:
腾赚网
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 wulanwray@foxmail.com 举报,一经查实,本站将立刻删除。
5月22日,全球的目光聚焦在首尔的第二届人工智能安全峰会上,一场关于应对AI风险的警钟正在敲响。25位顶尖人工智能科学家,包括Geoffrey Hinton、Andrew Yao、Dawn Song和Daniel Kahneman等,在《科学》杂志联合发表论文,警示全球在防范AI带来的潜在危害上准备不足。
这些来自各国的权威专家,包括图灵奖和诺贝尔奖得主,呼吁领导人紧迫应对,特别强调可能在近十年内出现的超越人类的通用人工智能(AGI)。他们批评现有的努力远远不足以匹配AI技术可能带来的颠覆性变化。牛津大学的Philip Torr教授强调,现在需要从口头上的共识转向实质性的承诺。
论文提出的关键建议包括建立专家机构监控AI风险并增加资金支持,强化风险评估并确保其强制执行,将安全置于AI公司优先考虑之列,以及根据AI发展的速度设定相应严格度的标准。在首尔峰会上,微软、亚马逊、OpenAI等科技巨头签署了一项历史性的安全协议,承诺在发现高风险时启用“紧急停止”机制。
专家们一致认为,政府在监管未来强大AI系统时需扮演主导角色,包括颁发开发许可、限制自主权、必要时暂停开发,并实施严格的信息安全措施。加州大学伯克利分校的斯图尔特·罗素教授强调,政府应积极监管,而非依赖行业自我约束,因为“对AI的监管远比对三明治店的监管更重要”。
抱歉,评论功能暂时关闭!