原文:
www.kdnuggets.com/2016/06/ethics-machine-learning-mlconf.html
作者:Courtney Burton, MLconf
感谢 Akash!这正是我们所期望的!我们在 5 月 20 日首次决定在西雅图举办一系列关于机器学习伦理的讲座。正如我们上个月在 KD Nuggets 文章中提到的,我们最近问了自己这样一个问题:如果 AI 从我们这里学习,它真的能安全吗?根据我们的 Quora 问题:“需要哪些限制来防止 AI 和机器学习算法成为对人类的反乌托邦威胁?”,比赛的获胜者 Igor Markov 在 5 月 20 日于 MLconf 西雅图展示了他的答案和计划。
马尔科夫引用了百度研究的 Andrew Ng 的话,他说:“今天担心 AI 就像担心火星上的人口过剩。”马尔科夫接着探讨了几部科幻电影,以及机器如何掌握权力、社会对现实中这一现象的恐惧,然后提醒我们人类如何在过去的时代生存,以及如何在“机器崛起”的时代利用这些知识。在他的计划中,马尔科夫建议在设计 AI 系统时,应该在不同的智力和信任水平之间引入和保持边界。他的关键点是:
-
代理应当具有关键的弱点
-
软件和硬件的自我复制应该受到限制
-
自我修复和自我改进应当受到限制
-
能源获取应当受到限制
下图指向了 AI 的约束以拦截反乌托邦威胁:
马尔科夫的完整幻灯片可以在 MLconf 的 Slideshare 账户中找到,点击这里。
紧接着 Markov 的是 Meetup 的首席机器学习工程师 Even Estola。在一次活动前的采访中,Estola 参与了有关机器学习伦理的讨论。他的回应是:“因为构建机器学习技能的最简单方法是练习现成的数据集,所以很容易遇到实际数据中的问题。事实证明,野生数据是混乱、不完整的,有时甚至带有种族主义、性别歧视和不道德。我们需要承认现实世界有时会很糟糕,因此我们应该构建应对这种情况的系统,而不是屈服于此。这不会很容易,可能会使我们的传统性能指标有所下降,但我们所知道的机器学习只能推断现状,我们需要做得更好。我们都知道,种族主义计算机是一个糟糕的主意。不要让你的公司制造种族主义计算机。”在他的讲话中,Estola 呼吁我们提高对这个问题的认识,并建议使用简单的解决方案,即使它们在性能上有小的让步。他还建议使用集成建模和设计测试数据集以捕捉无意的偏见。
Estola 的完整幻灯片可以在 MLconf Slideshare 账户中找到,点击这里。
随后是 Florian Tramèr,他展示了数据驱动应用中不公平关联与后果的示例,以及这些错误如何有可能冒犯大众。Tramèr 继续解释了预防措施及其局限性。他的解决方案是 FairTest,它找到保护变量和应用输出之间的特定上下文关联。FairTest 可用于理解和评估潜在的关联错误。
*幻灯片 5/10,Tramer 的幻灯片在MLconf Slideshare 账户。
机器学习中的伦理讨论远未结束。我们希望通过提供一个表达这些想法的平台,能够继续推进,防止我们构建的机器对社会构成潜在威胁。幸运的是,社区并未在概念和哲学层面处理这个潜在问题。研究活动在增加,寻求这些潜在威胁的解决方案。我们旨在揭示这些工作的价值。
在MLconf Seattle上还有 12 位才华横溢的演讲者,他们不容忽视,他们介绍了各种主题,如机器学习的未来、自然语言处理、概率编程、多算法集成、与深度学习相关的神经科学、推荐系统等!我们将在本系列活动中涵盖这些以及更多机器学习相关话题秋季。提及“Ethics18”,即可在任何即将到来的秋季活动中享受 18%的折扣!
相关:
-
机器学习中的伦理:我们从 Tay 聊天机器人事件中学到了什么?
-
数据科学与偏见 – 祝福还是诅咒?
-
互联网中的人:分析个人数据的 4 个关键原则
1. 谷歌网络安全证书 - 快速进入网络安全职业生涯。
2. 谷歌数据分析专业证书 - 提升你的数据分析技能
3. 谷歌 IT 支持专业证书 - 支持你的组织 IT