2025-04-25 11:36:00

为贯彻落实科教兴国、人才强国、创新驱动发展战略,华南师范大学工学部党委主办的“新工科论坛”持续开展,旨在培养具有国际竞争力的高素质复合型“新工科”人才。本次论坛由华南师范大学工学部党委主办,华南师范大学工学部研究生会协办,荣幸邀请到深圳大学王熙照教授,他是IEEE Fellow、Springer杂志主编,在不确定性建模和大数据机器学习领域享有盛誉。在南海校园信息中心104,王教授为师生们带来了一场关于大型语言模型推理能力的深刻讲座,进一步拓宽了同学们的学术视野,为教育强国、科技强国、人才强国的建设贡献了智慧和力量。

image.png

王熙照教授的讲座深入探讨了大型语言模型(LLM)的推理能力,这是当前人工智能领域的一个热点话题。他首先介绍了LLM的基本概念,包括生成式人工智能、大型语言模型和生成预训练变换器等,并讨论了LLM在不同任务中表现出的涌现现象。王教授指出,尽管LLM在许多特定任务上取得了显著的突破,但它们在处理简单查询时可能会出现严重错误,并且缺乏类似人类的推理能力。他通过具体的例子,如与Deepseek的对话,展示了LLM在理解和推理方面的局限性。

此外,王教授还分析了LLM在数学推理和逻辑任务中的表现,强调了前提顺序对推理结果的显著影响,并探讨了如何通过不确定性建模来缓解LLM的缺陷,如幻觉问题。这些内容为听众提供了对LLM推理能力的全面认识,并激发了对这一领域未来发展方向的思考。

image.png

在讲座的尾声,王熙照教授提出了一系列引人深思的总结性问题,旨在激发同学们对大型语言模型(LLM)推理能力的进一步探索和讨论。他首先质疑了人类推理与机器推理是否可以被公式化,以及LLM是否能够最终学会类似人类的推理方式。接着,他探讨了如何通过Frontier-Math等基准测试来评估LLM的推理能力,并询问这种测试能够达到何种程度的准确性。

image.png

王教授还提出了关于不确定性建模的问题,探讨它是否能够缓解LLM的缺陷,例如幻觉问题,并询问如果可行,应该如何实施。此外,他还质疑LLM是否能够很好地学习和提取领域知识,尤其是那些难以用语言表达的知识,并提出了一个远景问题:如果未来LLM具有总结领域知识的能力,其机制与人类大脑会有何不同。

现场的同学们对这些前沿问题表现出了浓厚的兴趣,并积极参与提问。他们就LLM在特定领域的应用潜力、模型的可解释性以及未来发展方向等方面提出了自己的疑问。王教授对这些问题进行了耐心而深入的解答,与学生们进行了富有成效的互动,进一步加深了大家对LLM推理能力的理解。这场讲座不仅增进了同学们对LLM的认识,也为未来的研究提供了新的思路和方向。

image.png

本次讲座取得了圆满成功,王熙照教授的精彩演讲极大地激发了在场师生对大型语言模型推理能力的兴趣和思考。通过深入浅出的讲解和互动环节,参与者不仅对LLM的当前状态有了更清晰的认识,也对其未来的发展充满了期待。讲座结束后,许多师生表示受益匪浅,并对王教授的见解表示高度赞赏。

此次讲座不仅促进了学术交流,也为学院营造了浓厚的学术氛围,激励着更多的学生投身于人工智能领域的研究。期待未来能有更多这样的机会,让师生们能够与领域的领军人物面对面交流,共同推动科学进步。