当前位置: 首页 > > 第205期方班学术研讨厅成功举办

第205期方班学术研讨厅成功举办

发表于:2025-10-21 10:08 作者: 方滨兴班 阅读数(102人)

2025 年10月16日 18:00-21:30,第205期方班学术研讨厅在黄埔研究生院B2栋成功举办。广州大学网络空间安全学院名誉院长方滨兴老师,主点评张彦春老师、郑纬民老师、吴世忠老师、胡事民老师、李建新老师、李舟军老师、李晓明老师。副点评陈艳利老师、吴昊天老师、唐可可老师、张帆老师、欧阳典老师、张登辉老师,张鹏老师全程参与了课堂的教学,并对同学们的报告逐一进行了指导点评。同时参与的还有相关学院的部分老师。

本次研讨厅分为八个小组进行。教学 3 班汇报的同学有戴桢俊、伍宇森、祝敏华、游资鹏;教学 4 班汇报的同学有周黛、黄子杰、闫靖予、郝倍琛;教学 5 班汇报的同学有李俊雄、吴飞鸿、游俊爽、肖祥淑;教学 6 班汇报的同学有李若涵、邓宇航、万嘉豪、钟林;教学 7 班汇报的同学有唐兴顺、杭敏、廖嘉立、林思妍;教学 8 班汇报的同学有曹境润、吴俊佳、陈聚超、熊佳隆;教学 9 班汇报的同学有胡玉熙、陈家豪、田梓汎、江晓艺。


第一组

第一位报告人:【戴楠俊】

报告题目:【眼见非实:面向硬标签三维场景攻击的对抗性自然物体优化】

点评老师的意见与建议:

1、问题分解很犀利,方法介绍可以更细一点,研究背景中相关工作可以点一下二维,背景介绍到方法设计这里过渡有些突兀,建议加强点关联。

2、什么领域能够用上?为什么触发器要放在平整的表面上?实验技术问题在哪?

3、通用型是怎么定义的?实验里面是怎么表现出来通用型的?

方老师点评:

1、没有让大家找到讨论的点,需要把应用场景讲出来。

2、强调硬标签有什么含义?模型查询需要方向,怎么根据硬标签调试触发器来达到目的,要找到点云的存在意义。

3、论文中强调存在平面是先决条件,论文的这个先决条件有局限性。

4、方法中需要目标物体带标签,但是得到物体标签是困难的,需要人工标注。



第二位报告人:【伍宇森】

报告题目:【利用大语言模型进行任务驱动的web应用扫描】

点评老师的意见与建议:

1、论文有没有提到如何缓解大模型的幻觉问题?

2、有没有想过如何把这个任务驱动的扫描应用到逻辑漏洞挖掘上?

3、实验部分的图需要介绍一下。设计实现中的执行模块讲得过多了。后面需要复现一下代码,尝试优化。

4、现在有很多大模型赋能的论文,需要思考其创新点是什么?综合来看只有不到百分之五十的成功率,是否存在实用?



第三位报告人:【祝敏华】

报告题目:【批量聚合:面向车载自组网隐私联邦学习的高效聚合方案】

点评老师的意见与建议:

1、方案创新性不足,多为现有技术组合;实用性验证不充分,缺乏真实场景应用证据。

2、建议加强应用背景说明(如具体车载任务),明确延迟降低的实际意义。

3、讲解时应侧重解释技术作用而非公式细节,增强表达逻辑与感染力。



第四位报告人:【游贵鹏】

报告题目:【基于消息感知流表示的双通道交互式图Transformer流量分类】

点评老师的意见与建议:

1.你的双通道编码的双是怎么体现的?它与传统的单通道编码有什么样的区别,创新点在哪?

2.在描述流量的时候,图是一种常规的做法,那么论文对于流量的构图方法有什么与其它的构图方法有什么不同。

3.论文的关键核心应该是双通道编码,希望你在PPT当中可以对于核心进行更多的讲解。

4.有一篇上交大的论文,题目是anti-noise,这篇论文中用到了你所汇报论文中的数据集,呈现出了比较好的性能,但其实有些不对劲,你可以作为对比也去学习一下



第二组

第一位报告人:【周黛】

报告题目:【Spruce:一种高效且节省空间的动态图存储结构】

点评老师的意见与建议:

1、Spruce 架构设计复杂,恐致维护难度高,需权衡维护简便性与性能、内存提升的重要性。

2、测试仅选用部分数据集,后续工程中或出现非匹配数据场景下性能不佳的问题。

3、当前研究限于单体环境,后续需考虑在分布式多环境中的应用可行性。



第二位报告人:【黄子杰】

报告题目:【图约束推理:基于知识图谱与大语言模型的忠实推理】

点评老师的意见与建议:

1、模型在知识图谱缺失或不包含目标信息时的处理机制需进一步说明,包括路径生成合理性与权重分配依据。

2、论文结构应在主要工作部分增加总体介绍,理清问题分类逻辑,并在实验部分保持方法与比较内容的一致性与连贯性。

3、可探索将知识图谱与大模型深度结合,通过知识微调等方式减少幻觉现象,提升模型的知识利用与泛化能力 。



第三位报告人:【闫靖予】

报告题目:【TGfromer:一种用于知识图谱嵌入的图Transformer框架】

点评老师的意见与建议:

1、在选择上下文三元组时,是否会根据不同的入度情况来选择合适的节点进行训练,节点的权重可以进行讨论。

2、汇报中公式的推导与纠正具有思辨性,在介绍本文之前,需要先介绍一下Transformer在知识图谱领域现有结合方式。

3、在关系缺失预测的实验结果部分需要进一步进行解释,更为细致解释为什么在某些关系预测中效果不是最佳。

4、本文的知识图谱和Transformer的关系是什么,是否能够通过这一方法缓解大模型的幻觉问题。



第四位报告人:【郝怡琛】

报告题目:【通过最佳优先搜索算法与SSD对齐实现低延迟的基于图的向量搜索】

点评老师的意见与建议:(学院老师和企业老师都写在这里控制在四点及以内)

1、论文作者在实验设计上存在不公平的情况,将延迟和吞吐量的测试条件割裂开来,没有保持一致的实验配置,可能会影响结果的可信度。

2、作者提出的算法的改进本质于依赖SSD的硬件I/O特性,难以将算法扩展到机械硬盘等其他存储介质上。

3、论文中提到的“DiskANN”方法需要明确解释为运行在固态硬盘上而不是机械磁盘上,没有强调清楚研究的局限性。

4、论文中提出的BFS算法和SSD硬件特性 “对齐”本质是打破顺序依赖实现流水线并行,应该提出自己的见解而非简单复述论文观点。



第三组

第一位报告人:【李健雄】

报告题目:【OPERA:通过过度信任惩罚和回顾分配减轻多模态大语言模型中的幻觉】

点评老师的意见与建议:

1、论文的核心贡献之一是提出了“摘要词元”的概念。除了论文中所提到的标点符号外,需要探讨其他类型的位置是否也可以作为“摘要词元”。

2、尽管该方法无需微调大语言模型本身,但引入了很多超参数,超参数的调整可能会耗费大量的时间与计算资源。当该方法应用于规模更大的模型时,效果可能需要进一步的实验来探索和验证。

3、既然论文中提出了“过度信任”与“回顾分配”两个核心模块,那么需要通过消融实验来清晰地展示证明这两个模块的有效性与必要性。



第二位报告人:【吴飞鸿】

报告题目:【针对大语言模型协同推理的提示反演攻击】

点评老师的意见与建议:

1、灰盒攻击场景下,两组参数的迭代优化中,每轮优化结果θ的优化也许可以作为攻击的参考信息,因为实际上θ是固定的,多轮的优化结果应该在真实值附近波动。

2、受限优化缓解局部极小值策略的真实能有多大可行性,因为很多小模型在优化过程中都很难避免局部极小值,本文针对大模型的受限优化策略可行性真的充分吗?这是可能需要质疑分析其可行或不可行的理由。

3、讲论文的时候,在能讲清楚细节之余,一定要思考怎么上升到人工智能安全攻防对抗的高度去阐述和扩展文章的核心思想。



第三位报告人:【游俊爽】

报告题目:【PoisonedRAG:针对检索增强式大型语言模型生成的“知识腐蚀型攻击”】

点评老师的意见与建议:

1、汇报未介绍文章部分公式及问题建模内容,建议后续重新研读文章,补充相关内容的介绍。

2、文本生成中辅助模型与目标模型的使用存在矛盾,且研究内容与大模型的关联性较弱。

3、背景引入角度不当,应突出 RAG 对大模型的重要性、前景及必要性,而非从大模型切入。



第四位报告人:【肖祥旗】

报告题目:【ESFL:隐私保护联邦学习中的中毒模型快速检测方法】

点评老师的意见与建议:

1、明文算法可以具体说一下是怎么实现的以及内积的过程,要说清楚鲁棒检测是基于明文,余弦相似度是基于密文的。

2、方法部分中的检测以及背景层面可以讲清楚些,通信开销大的问题讲的不是很清晰。

3、逻辑讲的比较清楚,但如果只是针对其中一个密码学方法去讲,听众听得没有那么明白。



第四组

第一位报告人:【李若涵】

报告题目:【ManipLLM:用于以物体为中心的机器人操作的具身多模态大语言模型】

点评老师的意见与建议:

1、文章比较杂,但是讲明白了,背景部分缺乏可解释性不是基于学习方法的统一缺点,基于学习的方法不像大语言模型能处理更复杂的场景,所以应该是缺乏鲁棒性而不是缺乏可解释性。

2、选题很好,具身智能目前受广泛关注,这篇论文从思维链的推理方式到力反馈到适应机制都有讨论,但是论文缺点是操作的任务类型比较单一,缺乏指令遵循能力,比较依赖高质量的仿真数据,思维链的实现有待深化。

3、以后可以多讨论论文的局限性,有利于自己的科研水平和研究的深入。



第二位报告人:【邓宇航】

报告题目:【LotusFilter:通过学习截止表进行快速多样化的最近邻搜索】

1、本文创新点和缺点都比较明显,比如时间成本太高,磨平了原本要解决的检索速度问题 。

2、np困难问题提的时机不好,最好在背景介绍算法时提出 。论文中效果最优这个词谨慎使用。

3、文章的创新点有,但实践中缺点很多,例如多样性指标缺失等,这些缺点可以作为今后研究的出发点,此外要避免口语化表达。



第三位报告人:【万嘉豪】

报告题目:【DeTikZify: 基于TikZ的科学图表与草图的生成程序】

点评老师的意见与建议:

1、该研究非常有意义,可以极大缩短绘图时间。并且在图片修改方面,可以做到非常好的图片改进,对图片修改的难度有所降低。

2、论文复现可以看出确实做了大量的实践,该学生对论文的实验完成了一个较好的复现。如果需要响应的设备资源可以向学校申请使用。

3、论文的数据集收集非常有意义,做出了行业有份量的一步,让广大研究者可以对该研究的数据进行引用。

4、研究的训练实现里是怎么实现一个对图片内容的一个理解,又是怎么通过微调实现垂直领域功能的改进。这样的好处是什么。



第四位报告人:【钟林】

报告题目:【一种预测和捕捉人类认知的基础模型】

点评老师的意见与建议:

1、这个论文的拓展性在新数据上会不会效果降低呢?

2、在社交网络怎么应用?会不会有一些新的角度?

3、主点评,这篇论文存在一些局限性比如说决策任务会不会过于简化了。一些情感分析,文本生成的任务是缺少的。

4、讨论了认知的定义的复杂性。在具体场景下,认知的概念其实需要改变



第五组

第一位报告人:【唐兴顺】

报告题目:【ContraMTD:一种基于对比学习的无监督恶意网络流量检测方法】

点评老师的意见与建议:

1、K-means聚类造成的性能误差是减少漏报还是减少误报?

2、局部行为特征模块提取阶段中输入的是原始数据包还是经过处理后特征?

3、文章的所使用的技术都是现成的,没有其他创新性的点。



第二位报告人:【杭微】

报告题目:【基于差分隐私少样本生成的隐私保护上下文学习】

点评老师的意见与建议:

1、想保护私有数据集中的数据时,可以给数据加噪,保证平均值没有变化,而本文做的工作加噪加在token的概率上,如果产生重复的私有数据,无法确保生出的下一个token是得到保护的,达不到保护其私有信息的目的。

2、上下文学习一般需要较少的示例,可以让专家直接写几个示例,可以自动化完成生成的过程,前面确实达到了自动生成少样本的效果,但是后面是否真正保护了私有数据值得探讨。

3、汇报比较完整,关于对比研究方面,可以再仔细研读论文,总结已有研究的实现方法。

方老师点评意见:

1、本文缺少一个让我们信服的地方,既保护隐私又给出符合差分隐私的证明,是否真的能够做到这样,值得考证。

2、对语义缺少一定的处理,隐私和语义是紧密相关的。本文忽略了语义,直接用生成概率,对概率进行加噪,而生成概率与语义是没有关系的,忽略语义会导致大模型的服务出现一定的误差。

3、本文提到的是few-shot少样本,但是后面实验中也提到了,n变大的时候,上下文学习的隐私保护性能就会退化,说明合成的示例代替不了真实的样本,多合成就可能达不到所需要的效果。

4.文章说加入高斯噪声后会保护我们的私有数据,但是需要从很多真实的样本中进行采样,把许多真实的样本揭露在我们面前,再生成少样本,这样真的会保护用户的私有数据吗?这个地方也值得考究。



第三位报告人:【廖嘉立】

报告题目:【Crossfire:比特翻转攻击下图神经网络的弹性防御架构】

点评老师的意见与建议:

1.Crossfire直接用了前人提出的设蜜罐的方法,没有太多更新,可以考虑引入博弈的理念做成动态蜜罐,增强防御能力。

2.对GNN的“可注入性”未展开讲解的足够清楚,导致很多同学提出对GNN区分能力的疑惑,这里若能讲解的更清楚会更让人明白攻击者为什么攻击GNN的“可注入性”,也能更明白防御的架构。

3.对于论文的思考应该考虑在框架上是否有改进,而非在论文基础上进行一些细枝末节的小变动。



第四位报告人:【林思妍】

报告题目:【基于对比学习的恶意加密流量鲁棒检测】

点评老师的意见与建议:

1、这篇论文选择的对比方法太老了,可以选择一些更近几年的对比看看,对于SAM的构建方法也一样,使用Word2Vec已经是很老的方法了,并且在思考部分提出的攻击者采用更动态且复杂的攻击,可以试着去找找有什么具体的攻击,举例说明。

2、论文最大的创新不在于使用无标记流量进行模型训练,也不在于使用少量标记样本进行再训练,而是在于使用了数据增强策略去模拟攻击者。

3、论文假设的混淆场景过于简单,可以去探索一下面对一些更动态的模拟场景应该如何克服,即可以采用自适应的数据增强策略,而不是简单的随机插入虚拟数据包或随机添加时延。



第六组

第一位报告人:【曹境润】

报告题目:【控制字段驱动的工业协议逆向工程】

点评老师的意见与建议:

1、这个方法对一些加密字段和静态字段识别效率不是很高,这在课后可以去思考思考怎么改进。

2、本文通过手动操作PLC编程软件所有功能构建数据集,但在真实的场景下的这个方法是否有效?可以考虑落地的问题。

3、ppt整体逻辑比较清楚,背景可以再充分一些。



第二位报告人:【吴俊佳】

报告题目:【基于架构搜索的可扩展类增量学习的恶意软件流量分类】

点评老师的意见与建议:

1、汇报时应该着重讲解类增量学习和架构搜索的结合创新点在哪,性能是否真正得到提升,以及两者内在结构的一些细节。

2、应该总结论文区分新旧知识的三个点:动态扩展的特征提取器结构、引入一个辅助分类器、分类器学习阶段的类别平衡策略。

3、灾难性遗忘是是大多数模型在面临连续学习任务时的一个普遍性缺陷,要着重讲明论文方法是如何有效防止该问题发生的。

4、论文考虑的是类增量学习,那么可以在后续考虑将该方法应用到域增量学习中,比对两种应用之间的性能差异。



第三位报告人:【陈景超】

报告题目:【通过反向传播语言模反馈来优化生成式AI】

点评老师的意见与建议:

1、文本梯度和这个深度学习的数字梯度有着根本性的不同,数字梯度,是一个数值,数值有正负和大小,但是论文中提到的文本梯度它其实只有方向或者建议,它没有补偿,所以当反向传播的时候改多少是不知道的。

2、TextGrad的不足之处除了依赖于大语言模型,还有就是在文本梯度方面存在问题。文本梯度是具有模糊性和量化性,它的优化过程可能不会很稳定,因为它没有严格的收敛性证明。

3、TextGrad适用于哪些场景并没有归纳清楚,要归纳出场景具有哪些场景的特征,能够适用到这个框架。如果系统容错率高,就不太适用于比较精确的一个系统,它要不断的去调用模型平衡器,所以它速度也会很慢。

方老师点评:

1、TextGrad的关键在于利用了一个在“评价”方面很强的模型,来指导另一个“生成”模型的优化。这个逻辑是自洽且有力的,因为它不要求评价者自身是顶尖的生成者,正如教练不一定曾是冠军运动员。应该讲清这个“裁判-运动员”的分工逻辑,而不是让听众误以为是在找一个更强的“生成模型”。

2、方老师反对滥用“微分”类比,认为这是误导,将文本反馈称为“文本梯度”并与数学上的“微分”强行关联,会产生严重的误导,果断抛弃“微分”这个说法,就称之为“文本反馈”或“批评建议”,否则会给听众带来根本性的概念混淆。

3、方老师指出框架带来的新问题,带来了不确定性与不稳定性。同一个评价模型对同一个输出,可能会给出不同的反馈,导致优化过程不稳定、难以收敛,基于这种不确定的反馈,整个优化路径和最终结果可能每次都不一样。



第四位报告人:【熊佳旖】

报告题目:【基于多模态大语言模型的零样本异常检测与推理】

点评老师的意见与建议:

1、建议结合分层/递进提示词与上下文学习提升效率,关注两次特征提取差异平衡及异常放大函数的效果与约束。

2、建议需对比大模型与传统模型指标,强调大模型在异常描述和多模态的优势,传统模型检测精度高。

3、点明模型局限性,建议强化异常专家模块、优化基础模型、扩展领域与异常类型,利用多层视觉特征。



第七组

第一位报告人:【胡玉熙】

报告题目:【一种时空高效的十亿级属性网络嵌入方法】

点评老师的意见与建议:

1、针对大规模网络的解决方案缺乏具体细节,随机投影等核心概念较为抽象,应补充具体示例以增强可理解性。

2、一次性生成的随机投影矩阵难以保证算法性能,建议将其设计为可迭代优化的机制。需要进一步评估代码复现以及实验的可行性。

3、实验总结和未来工作部分内容较为笼统,应结合具体应用场景进行阐述,以更好地体现算法的实用价值与应用潜力。



第二位报告人:【陈家豪】

报告题目:【通过群组模块性实现公平的网络社区】

点评老师的意见与建议:

1、ppt做的很好,演讲很清晰,结合图片的形式讲解清楚原理过程。

2、为什么传统的社区发现算法(如基于模块度的Louvain方法)可能产生不公平的结果?这种“不公平”具体体现在哪些方面?。

3、这篇文章提到的公平性与最后做检测的时候并没有在同一个纬度去评估。

这篇文章在社区检测领域提出了一个新的问题,从不同的视角看待公平性。



第三位报告人:【田梓汎】

报告题目:【Demystifying the (In)Security of QR Code-based Login in Real-worldDeployments】

点评老师的意见与建议:

1、文章本身的应用性特别强,ppt做的挺好的,演讲也讲的比较清楚。

2、在讲解六种通用缺陷的时候,可以先取一种缺陷作为例子,针对具体的应用场景来进行剖析,让没做过相关领域的同学的理解可以更加深刻。

3、对于QRcode在用户侧容易发生泄漏的问题,可以思考一下在协议层面上有没有相应的解决方案去尽量使得将QRcode泄漏的影响降到最小?



第四位报告人:【江晓艺】

报告题目:【一种用于安全估计集合交集基数的本地差分隐私Sketch】

点评老师的意见与建议:

1、可以对论文方法的敏感度进行研究,敏感度对于方法的差分隐私效果影响很大。

2、随机响应与FM的不兼容可以通过对随机响应进行一定的限制来解决,可能可以取得更优的方法。

方老师点评:

1、可以通过具体的例子来解释为何进行哈希映射和唯一识别,并且融入随机响应,使得讲解整体连贯。

2、论文未公开源代码,需要进一步的对论文方法的效果进行验证。



整理:杨翊 叶哲 粱唯新 韦玉娟 郜俊傑 李茂 田梓汎

校对:王乐老师 鲁辉老师

责任编辑:鲁辉老师

本课程最终解释权归蚁景网安学院

本页面信息仅供参考,请扫码咨询客服了解本课程最新内容和活动

🎈网安学院推荐课程: 渗透测试工程师特训班 Web安全工程师特训班 Python网络安全实战班 应急响应安全工程师特训班
  CTF-Reverse实战技能特训班 CTF-WEB实战技能特训班 CTF-PWN实战技能特训班 CTF-MISC实战技能特训班   SRC赏金猎人大师班 HVV大师课