第一位主讲人是20级的李吉,他此次为大家分享的是”Physically Based Rendering”,简称PBR,即基于物理的渲染。这是一次对于计算机图形学中有关真实物理渲染的科普,分别从经典渲染模型和基于物理的渲染进行对比,然后对PBR的具体实现以及研究方向进行了介绍。

李吉同学首先介绍了早期经典渲染模型中常用的OpenGL Pipeline,并指出这种渲染并不遵循现实世界的物理规律而且渲染出来的效果具有很强的塑料感。随着将计算机图形学的发展,渐渐的出现了PBR,遵循现实世界的规则和理论,通过一系列数学方法来简化或者或模拟出渲染方程,简单来说基于物理的渲染就是求解渲染方程的过程。

接下来李吉同学分为三个部分来讲解渲染方程,第一部分是数值积分部分,并介绍了噪声减少中Importance Sampling和Stratified Sampling的采样方法。第二部分则是介绍了渲染方程中的光线部分,可能是来自其他物理反射的光,也可能来自与光源。

第三部分则是介绍了BRDF,并讲解常用的微表面材质中的Cook Torrance模型的求解。最后总结了PBR的应用场景以及现在的研究方向。

第二位主讲人是20级的黄金诚,他此次为大家分析的是一篇名为《How Powerful Are Graph Nerual Networks》的论文,该论文(1)证明了GNN最多只和 Weisfeiler-Lehman (WL) test 一样有效,即WL test 是GNN性能的上限(2)提供了如何构建GNN,使得和WL一样有效(3)用该框架分析了GCN和GraphSAGE等主流GNNs在捕获图结构上的不足和特性(4)建立了一个简单的神经结构——图同构网络(GIN),并证明了它的判别/表达能力和WL测试一样。

黄金诚同学在做理论框架的介绍

首先黄金诚同学介绍了GNN主流的做法是递归迭代聚合一阶邻域表征来更新节点表示,如GCN和 GraphSAGE,但这些方法大多是经验主义,缺乏理论去理解GNN到底做了什么,还有什么改进空间。然后引出本次所讲论文,该论文基于Weisfeiler-Lehman(WL) test 视角理论分析了GNN。

黄金诚同学介绍了GNN,GNN的目标是以图结构数据和节点特征作为输入,以学习到节点(或图)的embedding,用于分类任务。基于邻域聚合的GNN可以拆分为以下三个模块:1.Aggregate:聚合一阶邻域特征。

       2.Combine:将邻居聚合的特征 与 当前节点特征合并, 以更新当前节点特征。

  1. Readout(可选):如果是对graph分类,需要将graph中所有节点特征转变成graph特征。

然后介绍了WLtest,并且给出定理和证明,WL test是GNN的上限由于GNN迭代过程和WL test非常相似,受这个启发,作者提出定理2,证明了 WL test是GNN能力的上限:如果任意G1, G2 是非同构图,如果存在GNN可以将其映射到两个不同的embedding,那么WL test 也能判断G1、G2非同构。接着论文提出定理3如果GNN中Aggregate、Combine 和 Readout 函数是单射,GNN可以和WL test 一样强大。所以根据这些限制条件,作者设计出来一个简单的GNN模型GIN,并且通过实验证明了GIN可以达到WL test的能力。此外作者提出了mean/max pooling无法区分的结构,之后通过证明分别描述了sum、mean。

最后介绍了本文的贡献:(1)证明了GNN最多只和 Weisfeiler-Lehman (WL) test 一样有效,即WL test 是GNN性能的上限(2)提供了如何构建GNN,使得和WL一样有效(3)用该框架分析了GCN和GraphSAGE等主流GNNs在捕获图结构上的不足和特性(4)建立了一个简单的神经结构——图同构网络(GIN),并证明了它的判别/表达能力和WL测试一样。

      

 

以下是李吉、黄金诚同学在本次seminar中的表现评分: