首页 » 每个人工智能模型都需要可解释吗?

每个人工智能模型都需要可解释吗?

每个人工智能模型 这有助于更好地理解算法模型如何得出某些输出(例如根据肤色 错误地预测某人再次犯罪的可能性)。

DARPA信息创新办公室项目经理Matt Turek博士 对此 印度尼西亚数据 进行了更详细的解释。他将可解释的AI定义为:

“机器学习技术:

生成更多可解释的模型,同时保持高水平的学习性能(预测准确性)。

使人类用户能够理解、适当信任并有效地管理新一代人工智能伙伴。”

不是;人工智能的不同应用对可解 我们必须继续维护普遍原则和规则 释性的要求不同。

能够产生内部想法和见解的人工智能(可以在部署之前进行进一步测试)不需要太多关于可解释性的文档。

例如

假设你的技术团队利用公司销售数据训练算法。你的最终目标是 新加坡电话列表 让算法了解哪些销售线索特征(业务规模、行业等)最有可能转化为客户。在这种情况下,解释算法如何得出结论就不那么重要了每个人工智能模型。

滚动至顶部