你准备好使用装有人工智能功能的软件了吗?你准备好永远都搞不懂这些软件工具究竟如何工作,还有到底该不该重视它们给出的建议了吗?
显然,很多人都没做好这样的准备。
即使是开发机器学习和深度神经网络的计算机科学家,也不能完全理解他们一手创造出来的机器是如何进行思考的。原因在于,算法接管后开始对大量数据集进行篡改,近乎疯狂地对数据进行连接和反向传播,这样一来,即使是系统的研发人员也无法理解系统是如何得到答案的。研发人员尚可猜测,但也只是猜测。而大多数系统的使用者甚至都不知道如何猜测。
过去几年里,我一直在与罗伯特·霍夫曼和谢恩·米勒合作,试图解决这个问题。我们参与了一个名为XAI的大型计划,XAI是可解释性人工智能的缩写。该项目由 DARPA,即美国国防高级研究计划局赞助。大多数研究可解释性人工智能的团队都在打造性能卓越的系统,即为让自己的人工智能系统更容易理解而运用人工智能。
与此相反,罗伯特、谢恩和我一直致力于研发更简单明了的工具来增加解释性,我们将这套工具称为AIQ,即人工智能商数。我们的目标是帮助使用人工智能系统的人更明确地了解人工智能系统是如何工作的,我们想要提高人们对于一直苦苦思索的人工智能系统的智商。
我们希望人们对所使用的人工智能系统有更完备的心理模型。通过更完备的心理模型,人们不仅能够理解一个系统是如何工作的,还可以认识到一个系统是如何失效的——它为何会出问题,它的局限性又是什么。更完备的心理模型有助于人们对失败及局限产生原因作出判断。最后,更完备的心理模型有助于人们掌握应对失败及局限的方法。
到目前为止,我们已经总结了九种不同的AIQ工具,但我估计这个工具包里的工具会不断增多。下面只是其中的三个。
认知指导。其中一个认知工具是预先指导,其目的是向用户提供一个更完备的心理模型(系统如何工作、如何失效、为何失效以及如何调整)。谢恩和我之前创建了这个认知指导的早期版本,并对复杂的逻辑系统进行了试用,效果很好。我们已对这个版本进行了更新,并将它用来处理人工智能系统。
可解释性量表。我们已经开发了几种量表,并进行了验证,包括对人工智能系统的信任度、解释良好度、解释满意度和心理模型充分性,以及用于分析人工智能用户心理模型的方法。
自我解惑评分卡。这个评分卡是衡量人工智能技术的能力和先进程度的工具,以提高可解释性——不是直接提供解释,而是让系统的使用者更容易理解。我们已将这个工具应用于几个正在进行的可解释性人工智能项目。
我们将对AIQ工具包继续加以应用、评估并进一步扩展。另一个AIQ工具——发现平台,将在本书后面的文章中予以详述。
过去,让人工智能系统更容易被理解的工作当然是由人工智能专家来完成的,他们开发的工具和技术依赖于人工智能能力。这些工具通常表现卓越、功能强大,但却有个缺点,即对人工智能不太熟悉的日常操作人员必须既要理解解释工具,又要理解被解释的人工智能系统。
相较之下,AIQ工具则不需要任何人工智能,其中绝大多数工具甚至连电脑都不需要。我们不是在制造更聪明的机器。我们希望AIQ工具能让人更聪明,提高人的智力水平,提高人的智商,以应对他们必须使用的特定人工智能系统。