当前位置:首页 > 企业新闻
微软开源可解释机器学习工具包lnterpretML_亚博网赌提款秒到的
时间:2020-12-31 来源:亚博网赌提款秒到的 浏览量 28750 次
本文摘要:通过解释人工智能系统的不道德性,数据科学家需要调试他们的模型。更一般地说,随着模型解释的更加全面,最终用户可能会更慢地拒绝人工智能驱动的产品和解决方案,同时可能更容易满足监管机构不断增长的市场需求。通过用一些非常简单的方式评估可解释性方法,开发者需要不同方法生成的解释,从而自由选择最符合自己市场需求的方法。

亚博网赌提款秒到的

【来源:微软研究博客所有者:微软研究博客】出版社:人类构建了人工智能,人工智能影响着自己的生活。如果人工智能的不道德性是可以解释的,那么人类可以进一步利用人工智能。

最近微软研究院发表了一篇关于机器学习的可解释性的文章。全文编译器如下。当人工智能系统需要影响人类生活时,人们将其解读为不道德是非常重要的。

通过解释人工智能系统的不道德性,数据科学家需要调试他们的模型。如果你需要解释模型不道德的原理,设计师需要把这些信息传递给最终用户。如果医生、法官或其他决策者坚信这种增强型智能系统模式,他们就能做出更好的决策。

亚博网赌提款秒到的

更一般地说,随着模型解释的更加全面,最终用户可能会更慢地拒绝人工智能驱动的产品和解决方案,同时可能更容易满足监管机构不断增长的市场需求。事实上,构建可解释性很简单,它高度依赖于许多变量和人为因素,避免了任何“一刀切”的方法。

可解释性是一个前沿的、跨学科的研究领域,它建立在机器学习、心理学、嵌入性和设计的思想之上。多年来,微软研究院仍致力于研究如何构建可解释的人工智能。现在,微软已经在麻省理工学院开源协议下开放了lnterpretML软件工具包,开源地址是https://github.com/Microsoft/interpret,这将使开发者需要尝试各种方法来解释模型和系统。解释性模型需要继续实现许多可解释的模型,包括可解释的Boosting Machine(与一般的加法模型相比有所改进),以及解释黑盒模型或其个体预测分解的不道德性的几种方法。

通过用一些非常简单的方式评估可解释性方法,开发者需要不同方法生成的解释,从而自由选择最符合自己市场需求的方法。例如,通过检查方法之间的一致性,比较方法需要帮助数据科学家理解他们对那些解释有多相信。

微软在期待中与开源社区合作,然后开发了InterpretML,开源地址是https://github。com/微软/口译(微信官方账号:)。

亚博网赌提款秒到的

本文的编译器来自微软研究博客的版权文章,未经许可禁止发布。以下是发布通知。


本文关键词:亚博网赌提款秒到的

本文来源:亚博网赌提款秒到的-www.yadnj.com

版权所有益阳市亚博网赌提款秒到的科技有限公司 湘ICP备11357870号-9

公司地址: 湖南省益阳市新华区瑞赛大楼31号 联系电话:098-49042061

Copyright © 2018 Corporation,All Rights Reserved.

熊猫生活志熊猫生活志微信公众号
成都鑫华成都鑫华微信公众号