第95章 该说谢谢的是我们(3 / 5)

点子上。

理论上的连续对称群很完美,但现实数据往往并不像想象的那么完美。

图像可能只有八个方向的旋转对称,文本可能只有有限的语法变换。

如何处理这种“破损的对称性”,是理论落地必须要解决的问题。

肖宿几乎不假思索:“用群的正则表示分解。离散对称可以嵌入到连续群的子群中,近似对称可以通过定义松弛的等变约束来处理。具体实现时,我们设计了一个可微的对称性度量函数,允许小幅度偏离理想对称。”

他调出了一页ppt,上面是那个度量函数的数学定义和几个实验曲线。

姚院士仔细看了几秒,缓缓点头:“很优雅的解决方案。谢谢。”

坐下时,他轻声对博士生说:“记下来,这个度量函数的设计,我们组可以借鉴。”

第二个提问的是钱卫华院士。

他问题更偏工程一些:“肖宿同学,从算法复杂度分析,你的框架在理论上是o(n log n)级别的。但实际实现中,特别是大规模分布式计算时,通信开销会成为瓶颈。有没有考虑过针对超算架构的优化?”

这个问题问得相当专业,直接戳中了大规模ai训练的核心痛点。

我们现在的 ai 之所以强调大数据、大模型,本质上就是靠计算量和数据量来得到精确的答案。

再理想的框架,如果算力跟不上,也达不到想要的效果,一切白搭。

肖宿点点头,这个人提的问题还是比较关键的。

“这个问题之前已经考虑过。群论框架的特征空间具有局部性,天然就适合数据并行。我们正在设计一种分层聚合算法,可以在保证精度的前提下,将通信量减少到传统方法的百分之三十左右。论文在投,预印本已经挂在arxiv上。”

钱卫华眼睛一亮:“arxiv编号多少?我回去马上看。”

“2309.xxxxx。”肖宿报出一串数字。

钱院士迅速记下,满意地坐下。

接下来又问了几个问题,有京大的教授,有外校的研究员,问题质量都很高。

肖宿回答简洁但精准,没有一句废话。

偶尔遇到特别基础的问题,他会直接说“这是群表示论的基础知识,可以翻教科书”,一点不留情面。

几个想浑水摸鱼刷存在感的记者,提的问题被也肖宿直接无视了。

两点五十五分,顾清尘作为主持人站起身。

“时间差不多了,最后一个问题。”

一个华清大学的博士

-->>(本章未完,请点击下一页继续阅读)