今年8月,雷锋网将在深圳举办盛况空前的“全球人工智能与机器人峰会”,届时雷锋网将发布“人工智能&机器人Top25创新企业榜”榜单。目前,我们正在拜访人工智能、机器人领域的相关公司,从中筛选最终入选榜单的公司名单。
如果你也想加入我们的榜单之中,请联系:2020@leiphone.com。
艾伦人工智能研究所 CEO Oren Etzioni(左)正与白宫人工智能工作室的与会者交谈。图片来自:MIT Tech Review。
政府应该监管人工智能吗?这是白宫第一个针对人工智能的法律和监管问题开设的工作室的核心议题。
“我们观察到围绕人工智能和机器学习的问题正从政府的各个角落涌现出来。”白宫副首席技术官 Ed Felten 说,“我们离广泛监管人工智能还相去甚远……但面临的挑战是如何在人工智能变得越来越聪明时确保它是安全的、可控的和可预测的。
该工作室的组织者之一、华盛顿大学法律学教授 Ryan Calo 说:该工作室的主要目标之一是帮助公众了解该技术的现状和发展方向。“我们的想法不是让政府介入和监管人工智能,而是使用其许多其它的杠杆,比如机构和采购力量的协调。”他说,该工作室的参与者包括技术企业家、学者和公众成员。
在一个主题演讲中,艾伦人工智能研究所 CEO Oren Etzioni 指出我们仍旧处于机器学习的黑暗时代——人工智能系统一般只能在结构化良好的问题中才能有效发挥作用,如棋盘游戏和高速公路驾驶。他倡导可让人工智能帮助人类变得更安全和更高效的合作方式。“在美国,医院的错误是第三大导致死亡的原因。”他说,“人工智能可以在这里提供帮助。每年都有很多人因为我们没在医院正确地使用人工智能而死去。”
不过,Etzioni 认为现在就谈论监管人工智能还为时尚早:“深度学习仍然 99% 是人类的成果和人类的才智。‘是我的机器人干的’完全不能作为借口。我们必须为我们的机器人、人工智能和算法的行为负责。”
一个“人工智慧(artificial wisdom)”小组关注的是人与人工智能的互动何时会出问题,比如为预测未来刑事犯罪所设计的算法表现出了种族偏见的情况。耶鲁大学法学院的 Jack Balkin 说:“问题并不在于人工智能代理本身,而在于人类使用技术工具在金融、刑事司法和教育中压迫其他人。”
一些学者支持“信息受托”的想法:让收集大数据和使用人工智能的人承担诚实守信的法律责任。比如,如果技术人员使用质量糟糕的数据训练人工智能系统,或将基于种族、年龄或性别的偏见固化到他们设计的算法中,那么他们就可能会被追究责任。
微软研究院社会科学家 Kate Crawford 指出,随着政府机构的决策越来越依赖于人工智能系统,这些机构将需要了解数据和人工智能技术的固有限制和偏见的人。她建议学生在学习编程技能的同时也应该被教授道德。
来自南卡罗来纳大学的 Bryant Walker Smith 提出了对快速发展的技术(比如无人驾驶汽车)的监管灵活性。“个别公司应该为他们的自动驾驶汽车的安全性做一个公案,”他说,“他们应该采取措施,然后在系统的整个使用寿命中监测它们。我们需要一些多样化的方法确保公众的知悉权,支持公众意见变了。”
共有四个工作会议计划于未来几个月举办,这是其中第一个会议。其中有两个将会围绕安全和控制方面解决人工智能给社会带来的好处和问题,最后一个则会更深入地挖掘该技术的社会的经济影响。Felten 也宣布白宫不久之后就会发出信息请求,让广大公众也可以参与到权衡人工智能的未来中。
当然,这项工作显然和 11 月份美国总统大选有关。在 Felten 本月早些时候的一篇博客中公布了一个关于机器学习和人工智能的全新“国家科学与技术小组委员会”,其目标是在“现在到本届政府结束之间”使用人工智能提升政府服务。
via MIT Tech Review