第一位主讲人是20级的易雨,他此次为大家分享的是一篇名为《 A Simple, Strong, and Fast Baseline for Bottom-Up Panoptic Segmentation》的论文,主要讲解了全景分割。

全景分割代表了实例分割和语义分割的统一:其目标是为编码语义标签和实例图像中的每个像素分配唯一值。目的是对每个像素点给予不同的label + instance ID(如果对于stuff,比如地面,背景,不需要instance ID)

本文全景分割采用双上下文和双解码器模块进行语义分割和实例分割预测。在网络骨干的最后一个块上应用空洞卷积提取更密集的特征图。所述上下文模块以及在每个上采样阶段由单个卷积组成的轻量级解码器模块中使用了空间金字塔池(ASPP)。实例分割预测是通过预测目标中心并将每个前景像素(即带有预测的“thing”类的像素)回归到它们对应的中心来实现的。

然后将预测的语义分割和类不可知的实例分割相融合,通过DeeperLab提出的“多数投票”算法得到最终的全光分割结果。

提出的panoptic – deeplab,一个简单、强大、快速的自底向上全景分割基线。设计简单,在训练过程中只需要三个损失函数,并且在现代语义分割模型中增加了边缘参数。是第一个自下而上的单镜头全景分割模型,在多个公共基准上获得了最先进的性能,并提供了接近实时的端到端推理速度。希望这个简单而有效的模型可以建立一个坚实的基线,并进一步造福于研究界。

第二位同学是20级的曹张宇,他此次为大家分享的论文是《 Spark Parallel SVM Parameter Optimization Algorithm》,基于 Spark并行 SVM 参数寻优算法的研究。

他讲解了本文提出的一种基于 Spark 通用计算引擎的并行可调 SVM 参数寻优算法,

通过分析算法在Task 不同并行度下的寻优时间,发现并非 Task 并行度设置的越大寻优速度越快,需要根据 Application 分配的集群资源,调整 Task 的并行度(设 Application的 Executor内核数量为 m,Executor数量为n,则 Task 最优并行度为 m·n 或 m·n 的整数倍),使各个 Executor达到负载均衡,从而显著提高寻优速度 。

 从 集 群 的 角 度 来 看 ,在 Application 中 每 个Task 耗时相差不大的情况下,Task 分配的越均匀,Application 的总耗时越少,当 Task 完全均匀分配时,即负载均衡的时候,Application总耗时最少

 

以下是易雨、曹张宇同学在这次seminar中的表现评分。