关于人工智能可解释性问题的哲学思考

  中国社会科学网讯 2021年12月28日,山西大学哲学社会学学院“任之讲堂”第24期顺利举行。本期讲座特邀厦门大学人文学院院长朱菁教授作题为“关于人工智能可解释性问题的哲学思考”的主题报告。

  山西大学哲学社会学学院江怡教授主持讲座,他首先介绍了朱菁的研究领域和主要成就。讲座开始,朱菁介绍了人工智能研究最近5-10年形成的一个热点问题,即人工智能的可解释性问题。他认为,人工智能可解释性问题之所以受到重视,主要有两个原因:第一,人工智能技术的发展虽然变得越来越强大,但也变得越来越“黑”。如果追溯这个问题产生的历程,可以梳理出三个阶段。第一个阶段是在20世纪80-90年代,主要针对的是专家系统,但这一时期可解释性问题不是一个很突出的问题;第二个阶段从2000年到2010年,这一时期人工智能的可解释性问题逐步凸显,主要针对的是机器学习;第三个阶段是最近5-6年,这个时期可解释性问题变得日益突出,主要针对的是以神经网络为基础的机器学习。第二,人工智能技术变得越来越实用,其可靠性和应用范围也得到提高。在一些重要的应用领域对于可信任性、安全性等方面的要求越来越高,可解释性就是满足上述要求的认知基础。朱菁认为,我们可以在社会公众、用户、政策监管部门、工程技术和基础科学等层面来理解为什么会有可解释性问题。

  随后,朱菁指出,在解释以及关于解释的模型和理论方面,哲学都有很深厚的积累。但美中不足的是,在关于人工智能可解释性问题的探讨中,哲学被排除在外,而哲学家们对这个在人工智能领域里面提出的问题也不够敏感。他呼吁要逐渐改变这一状况,哲学家们要关心这个问题,而人工智能领域的专家们也应当多关注哲学在这方面的一些重要学说。关于处理当今人工智能研究里的解释性问题的基本立场,朱菁的建议是解释的多元主义(Explanatory Pluralism)。主要的主张是:针对不同的问题,哪怕是在同一个领域里,我们也不能指望只有唯一的解释方式或模式,我们要允许多种多样的解释模型存在。

  最后,朱菁提出“以学习为中心的解释”(Learning-Centered Explanation)或者“以学习为基础的解释”(Learning-Based Explanation)的路径。在解释的过程中,我们通常会采用一种以学习为中心的做法,学习又可以分为个体学习和社会性学习。对于人工智能的发展,机器学习可以说非常重要。理解了学习,我们以此出发又可以为人工智能系统的发展提供进一步的解释。总之,我们首先要理解常见的学习模式,其次我们以这种学习的模式来解释人工智能系统为什么会有这样的能力等问题。这就是以学习为中心的解释。

  在评议环节,山西大学哲学社会学学院院长尤洋教授作嘉宾点评。他指出,朱菁老师的报告大致上可分为三部分:第一部分是介绍了关于人工智能的可解释性问题,并且分析了Interpretable AI、Explainable AI或XAI这些说法;第二部分从历史的角度谈论人工智能的可解释性问题;第三部分提到关于AI的可解释性,目前哲学的参与度比较低,并提到了解释的多元主义。最后,朱菁老师的落脚点是以学习为中心的解释。尤洋提出了两个问题:第一,如何在保持可解释性的同时提高可预测性?在这样的同步关系情况下,二者何为优先?此外,这种情况下可能会有一个鸿沟,如何能够跨越这个鸿沟?第二,机器学习事实上也存在个体差异,如果每一个AI的解释都是建立在个体学习基础上,那么,我们作为解释的普遍性究竟还有没有可能?如果说普遍性的解释不存在,这样一种解释是不是对机器的可解释性来说构成了合理性上的一种消解?

  朱菁对以上问题一一作出了回应。首先,目前来说,可解释性和预测的准确性二者不可兼得,这是一个客观存在的状况。既提高预测性,同时还要把可解释性提高,要实现这一两全其美的事情,难度比较大。其次,解释的多元主义除了怎么都行的这种形态以外,还有孤岛式的、互动式的以及整合性的形态。这些只是同一个整体的不同侧面,人工智能能不能做到这样,现在还不清楚。关于以学习为中心或者以学习为基础的概念,中山大学鞠实儿教授的简短评语是:基于学习的解释是一种解释的方法,进化论的类比展现了前景。鞠老师也比较认同在这里提出的这个思路。

  在讲座的提问环节,很多老师和学生踊跃提问,问题有“人工智能的可解释性和可理解性之间的关系问题”、“认知人工智能的时代,可解释性问题是否会得到一定程度上的解决”、“Interpretable Model和Explainable Model之间的区别”等问题,朱菁对这些都作出了富有启发意义的解答。

  本场讲座持续了两个半小时,采用线上线下结合的形式。讲座最后,江怡作了总结和致谢。他指出,今天的讲座给我们提出很多新问题,即使目前来说无法提供完整的或令人满意的答案,但恰恰是这一点激发了我们不断地去思考和探索,不断地对这些问题给出我们自己的解决方案。当然,问题总比方案多,这一点毋需置疑,但事实上,我们不断地提出方案,其实就是对这些问题的深入思考的结果。

  (山西大学哲学社会学学院薛吕/供稿)

  中国社会科学网讯 2021年12月28日,山西大学哲学社会学学院“任之讲堂”第24期顺利举行。本期讲座特邀厦门大学人文学院院长朱菁教授作题为“关于人工智能可解释性问题的哲学思考”的主题报告。

  山西大学哲学社会学学院江怡教授主持讲座,他首先介绍了朱菁的研究领域和主要成就。讲座开始,朱菁介绍了人工智能研究最近5-10年形成的一个热点问题,即人工智能的可解释性问题。他认为,人工智能可解释性问题之所以受到重视,主要有两个原因:第一,人工智能技术的发展虽然变得越来越强大,但也变得越来越“黑”。如果追溯这个问题产生的历程,可以梳理出三个阶段。第一个阶段是在20世纪80-90年代,主要针对的是专家系统,但这一时期可解释性问题不是一个很突出的问题;第二个阶段从2000年到2010年,这一时期人工智能的可解释性问题逐步凸显,主要针对的是机器学习;第三个阶段是最近5-6年,这个时期可解释性问题变得日益突出,主要针对的是以神经网络为基础的机器学习。第二,人工智能技术变得越来越实用,其可靠性和应用范围也得到提高。在一些重要的应用领域对于可信任性、安全性等方面的要求越来越高,可解释性就是满足上述要求的认知基础。朱菁认为,我们可以在社会公众、用户、政策监管部门、工程技术和基础科学等层面来理解为什么会有可解释性问题。

  随后,朱菁指出,在解释以及关于解释的模型和理论方面,哲学都有很深厚的积累。但美中不足的是,在关于人工智能可解释性问题的探讨中,哲学被排除在外,而哲学家们对这个在人工智能领域里面提出的问题也不够敏感。他呼吁要逐渐改变这一状况,哲学家们要关心这个问题,而人工智能领域的专家们也应当多关注哲学在这方面的一些重要学说。关于处理当今人工智能研究里的解释性问题的基本立场,朱菁的建议是解释的多元主义(Explanatory Pluralism)。主要的主张是:针对不同的问题,哪怕是在同一个领域里,我们也不能指望只有唯一的解释方式或模式,我们要允许多种多样的解释模型存在。

  最后,朱菁提出“以学习为中心的解释”(Learning-Centered Explanation)或者“以学习为基础的解释”(Learning-Based Explanation)的路径。在解释的过程中,我们通常会采用一种以学习为中心的做法,学习又可以分为个体学习和社会性学习。对于人工智能的发展,机器学习可以说非常重要。理解了学习,我们以此出发又可以为人工智能系统的发展提供进一步的解释。总之,我们首先要理解常见的学习模式,其次我们以这种学习的模式来解释人工智能系统为什么会有这样的能力等问题。这就是以学习为中心的解释。

  在评议环节,山西大学哲学社会学学院院长尤洋教授作嘉宾点评。他指出,朱菁老师的报告大致上可分为三部分:第一部分是介绍了关于人工智能的可解释性问题,并且分析了Interpretable AI、Explainable AI或XAI这些说法;第二部分从历史的角度谈论人工智能的可解释性问题;第三部分提到关于AI的可解释性,目前哲学的参与度比较低,并提到了解释的多元主义。最后,朱菁老师的落脚点是以学习为中心的解释。尤洋提出了两个问题:第一,如何在保持可解释性的同时提高可预测性?在这样的同步关系情况下,二者何为优先?此外,这种情况下可能会有一个鸿沟,如何能够跨越这个鸿沟?第二,机器学习事实上也存在个体差异,如果每一个AI的解释都是建立在个体学习基础上,那么,我们作为解释的普遍性究竟还有没有可能?如果说普遍性的解释不存在,这样一种解释是不是对机器的可解释性来说构成了合理性上的一种消解?

  朱菁对以上问题一一作出了回应。首先,目前来说,可解释性和预测的准确性二者不可兼得,这是一个客观存在的状况。既提高预测性,同时还要把可解释性提高,要实现这一两全其美的事情,难度比较大。其次,解释的多元主义除了怎么都行的这种形态以外,还有孤岛式的、互动式的以及整合性的形态。这些只是同一个整体的不同侧面,人工智能能不能做到这样,现在还不清楚。关于以学习为中心或者以学习为基础的概念,中山大学鞠实儿教授的简短评语是:基于学习的解释是一种解释的方法,进化论的类比展现了前景。鞠老师也比较认同在这里提出的这个思路。

  在讲座的提问环节,很多老师和学生踊跃提问,问题有“人工智能的可解释性和可理解性之间的关系问题”、“认知人工智能的时代,可解释性问题是否会得到一定程度上的解决”、“Interpretable Model和Explainable Model之间的区别”等问题,朱菁对这些都作出了富有启发意义的解答。

  本场讲座持续了两个半小时,采用线上线下结合的形式。讲座最后,江怡作了总结和致谢。他指出,今天的讲座给我们提出很多新问题,即使目前来说无法提供完整的或令人满意的答案,但恰恰是这一点激发了我们不断地去思考和探索,不断地对这些问题给出我们自己的解决方案。当然,问题总比方案多,这一点毋需置疑,但事实上,我们不断地提出方案,其实就是对这些问题的深入思考的结果。

  (山西大学哲学社会学学院薛吕/供稿)

转载来源:中国社会科学网

未经允许不得转载:思问哲学网 » 关于人工智能可解释性问题的哲学思考

分享到: 生成海报