发改委:将促进消费持续恢复,下大力气稳定汽车消费
新京报贝壳财经讯(记者张晓翀)4月19日国家发展改革委发言人孟玮表示,一季度消费市场形势开局良好,为全年恢复和扩大消费打下坚实基础。但消费
引言
(资料图片)
相比图像、文本等数据 ,图数据的复杂性 也给模型训练、图任务性能带来较大的难度,在 Transformer 架构不断延伸至新的研究领域,ChatGPT、GPT-4 等大模型连续征服新的任务的当下,图机器学习如何面对这一趋势?
本文是 DataFun 对京东探索研究院算法工程师詹忆冰的访谈,探讨了上述问题,并 梳理了图机器学习从基础设施到图任务的学界、业界发展现状。
詹忆冰,京东探索研究院算法工程师。2012 和 2018 年于中国科学技术大学分别获得学士学位和博士学位;2018-2020 年,于杭州电子科技大学计算机学院,任副研究员;2019-2020 于悉尼大学访问学者。其主要研究图神经网路和多模态学习,已在 NeurIPS、CVPR、ICCV、AAAI、IJCV 等顶级会议和期刊上发表多篇科学论文。
DataFun社区|出品
数据智能专家访谈 第14期|来源
▼
01.
图机器学习基础设施的发展现状
图学习框架、图数据库等图机器学习基础设施的学界、业界发展现状如何?
图机器学习框架目前的主流是 PyG(PyTorch Geometric)和 DGL(Deep Graph Library)两大框架。很多企业也在尝试从不同层面构建框架,比如从底层的加速层面、上层的应用层面等等, 大规模并行训练是目前行业的一个难点。
图数据跟别的数据不一样,图数据规模大了之后,它的计算代价不仅来自于模型,也来自于输入。比如把网上的社交网络整个输进模型中是非常恐怖的。
如果为了做分布式计算而把图进行 subsampling 或者其它操作后去训练它,反而会影响它的性能。因为图一旦分割,两个子图之间的关联实际上就被切掉了,目前行业内仍然在探讨更好的解决办法。
目前常见的方法中比如只计算邻域节点,或者用多个 GPU 来并行计算每个小子图,这样训练的时候整个大图神经网络是加速的。
我们做过简单的实验,将完整的图数据输入模型,跟把图数据切成几段输进去,模型效果是下降的。但是一旦让中间某些层能进行信息传递,模型性能就会开始回升。
所以如果能做到并行训练,并且能让子图之间的信息能有一定的回传,对图网络性能有非常大的促进作用。
▼
02.
图数据类型的发展现状
图数据要如何分类?动态图、异质图等图数据类型的学界、业界发展现状如何?
从规模角度,图数据可以分成两大类,一类是需要处理规模非常大的图,一张图是一个完整的数据集,还有一种是做 graph level 的,比如由一个个单独的小图构成的分子图。
Heterophily 是指图中特性不一致的相邻节点会倾向于相连,比如社交网络中互相不喜欢的人,也是现在研究非常火的一个方向。在 CV 的很多场景中,比如我们需要让人、桌子、椅子等类别不同的节点进行关联,引入 Heterophily 图网络之后,对模型的性能提升还是比较大的。与 Heterophily 相对的概念是 Homophily, Homophily 是如今大部分图神经网络的一个潜在假设,也就是节点属性一致的节点一般倾向于相连。
GNN 或传统的图计算方法在 Heterophily 异质图上的效果不是特别好, 所以人们也在探索其它方向,比如通过 structure learning 进行关联,或更改节点的传递性质等。
目前普遍的图都属于静态图。动态图会随时间持续进行变化。在 CV 领域,视频中动态图会用的比较多,比如一个物体的多个帧,它们之间的不同状态构成一个动态图,模型架构更多还是采用 Transformer。
▼
03.
图模型的发展现状
图注意力网络、图卷积网络、图循环网络等图模型的学界、业界发展现状如何?学界在图模型方面有哪些前沿方向?
业界现在用的更多的图网络还比较简单,比如 GCN。在学界,图模型正在兴起的架构是 Graph Transformer。 多个基于 Graph Transformer 的模型都在 OGB graph classification challenge 排在前面。 今年的会议上也有大量的工作是 Graph Transformer 方向的。
Graph Transformer 会这么火,首先是因为 Transformer 本身应用越来越广,而且它在 NLP 里面获得了巨大的成功,其次是在 CV 领域,2020 年 Vision Transformer 火起来之后,到如今 Transformer 已经屠榜很多 CV task 了。
Graph Transformer 将 Transformer 的结构引入到图里面,谷歌曾指出 Transformer 就是一种图网络。
Graph 原本也是有连接关系的,但更多是近邻连接,远距离学习能力就比较差,需要通过网络的堆叠实现。 但是 Transformer 天然就是全连接的,所以即使节点邻居关系比较远,也更容易学习到关系。
另外,Transformer 给图网络引入了 position embedding,Graph 里面很少会引入 position embedding,GNN、GCN、GAT等都没有。另外它还引入了 structure embedding,一般用拉普拉斯频谱来计算,或者是用一些图结构来计算。
最后,Graph Transformer 本身具有 Transformer 的很多 technical details,残差、layers normalization 等。大图里面用 batch normalization 效果会比较好,但小图里面不用会比较好,这是现在的训练经验。
图神经网络从某种意义上来说还缺少一个大型的 Foundation Model,这也是大家一直在关注的方向,一旦有相关工作出现将会非常轰动。
▼
04.
ChatGPT 对图学习范式的影响
预训练、表示学习、对比学习、强化学习等图学习范式的学界发展现状如何?ChatGPT 给图学习范式带来了哪些影响?
图学习范式中,预训练、对比学习比较受关注。对于预训练,原本图任务中,node level、graph level、link level 都是独立的,比如 2020 年,Stanford SNAP 小组就考虑使用 Transformer 架构进行图预训练, 但是只关注在单一任务。行业希望能有一种统一的方式来实现图预训练。
今年一个 WWW 学术会议的一篇论文是用 prompt learning 来实现这一目标的。比如做 node classification,可以用基于 graph pooling、link prediction 等任务训练来让模型的节点分类性能更强。
对比学习是自监督学习的一种,非常火。因为它是无监督形式的,一般也是作为网络的预训练方法,或者在做 classification 的时候作为一个额外的 loss 对模型的性能进行增强。当然,对比学习实际上一定程度上也是来自于 CV、NLP,所以 CV、NLP 有很多的结构可以借鉴到图对比学习上面进行扩展。
ChatGPT 让强化学习火的程度更上一层楼。图里面也有,用强化学习学习图网络, 把图结构引入到强化学习的 loop 里等。 ChatGPT 确实引发了人们对 human in the loop 的关注,未来也可能引入图领域中。
另一方面,ChatGPT 也带火了 foundation model 的产业化,影响很多公司今年的产业布局。
值得关注的是,它还引入了安全管控。GPT-3 原本会有泄露数据的问题。现在如果你提的问题比较隐私,或者比较恶意的话,ChatGPT 不会回答你的问题。
局限性方面,可能就是多模态能力,这一点被 GPT-4 在逐渐补足。
表示学习可以引入了一些规则、结构,使网络具有更强的学习能力。
还有一个比较有价值的方向是 continue learning 即持续学习。 图数据量规模太大之后,标注是一个非常复杂的任务。那么,是不是可以通过持续学习去挑选那些未标注数据里面重要的数据进行标注,从而达到性能最大化?类似于现在的一些 budget training ,比如只给了你一台 GPU,只能训练 24 小时,使模型性能最大化。未来在业界,持续学习可能会越来越受关注。因为从产业上来讲,不可能无限制地找人去标注数据,最好有一种方式能找出那些核心数据来标记。
▼
05.
图学习任务的发展现状
节点分类、链接预测、图分类、图结构学习等图学习任务的学界、业界发展现状如何?
图基础任务,去年到现在比较受关注的有图生成,特别是 diffusion model。 图网络中也有很多在用 diffusion model 去进行分子增强,进行药物发现,效果也非常的好。
链接预测分两种,一种是节点信息传递,用最后一层对两个节点之间计算它们的关联,还有一种是边会显式地给出来 relation。但是这一类网络由于计算的是边,比如 10 个节点可能会有 100 条边,计算开销会指数型上升。
图分类跟图节点分类不一样的是,图分类会用到 graph pooling 。现在最常用的策略,一类是 top-k,即逐层保留重要节点。还有一类是 hierarchy,即每一次生成新的检验点,把图规模变得越来越小。现在的预训练范式很希望把图分类和图节点分类用 uniform 的 model 计算出来。
图结构学习主要是把边进行重新学习。但图结构学习的计算时间复杂度比较大。模型压缩现在在图网络中也比较火。在 CV 或 NLP 中可以借鉴 graph pooling 或图结构学习来实现。并且图模型压缩压缩的是边,而不是神经网络中的权重。
▌2023数据智能创新与实践大会
4大体系,专业解构数据智能 16个主题论坛,覆盖当下热点与趋势 70+演讲,兼具创新与最佳实践 1000+专业观众,内行人的技术盛会第四届DataFunCon数据智能创新与实践大会将于⏰ 7月21-22日 在北京召开,会议主题为新基建·新征程,聚焦数据智能四大体系: 数据架构 、 数据效能 、 算法创新 、 智能应用 。在这里, 你将 领略到数据智能技术实践最前沿的景观 。
欢迎大家 点击下方链接 获取大会门票~
▌数据智能专家访谈
“数据智能专家访谈”是 DataFun 新推出的内容系列,本系列旨在访谈不同公司的核心技术人员,得到专家在不同领域的洞察,包括但不限于行业重点、热点、难点,增加读者对行业技术的了解。
▌大话数智
大话数智,是DataFun策划的智库类公众号,包括但不限于知识地图、深度访谈、直播、课程等学习资料,旨在为广大数据智能从业者、数据智能团队提供一个日常学习成长的平台,促进先进的数据智能技术的传播与广泛落地。
关键词:
新京报贝壳财经讯(记者张晓翀)4月19日国家发展改革委发言人孟玮表示,一季度消费市场形势开局良好,为全年恢复和扩大消费打下坚实基础。但消费
解答:1、逆风的方向最适合飞行。2、对于一艘盲目航行的船来说,所有的风都是逆风。3、逆风:迎面而来的风。4、风筝飞得高是
这使得新的X8M谣言可以与至少已有两年历史的X7M谣言作斗争。后来的一些理论认为,功能强大的X7M会超越刚刚发布的
1、个人认为是与身体原因有很大关系的。2、很多人认为放屁的过程就是身体在解毒。3、所以,你放屁越多越好。4、其实,放屁并不是排毒的过程,
4月18日,北京核心区体量最大的棚改项目——东城区望坛棚改安置房迎来首批入住的回迁居民。多年来周转在外的老街坊们,怀着激动喜悦的心情重回
4月19日,在易凯资本中国健康产业峰会2023上,《2023易凯资本中国健康产业白皮书》发布,这是易凯资本自2019年首次推出后第五次正式发布该系列
4月18日,一季度经济“成绩单”公布,GDP表现大超预期,消费大幅反弹成为推动经济回升的主要推动力。从数据上看,国内消费市场逐月回暖,3月社
外交部:中国经济整体呈现恢复向好态势为世界各国发展提供了更多机遇,中国,外交部,汪文斌,第二大经济体
恒帅股份(SZ300969,收盘价:62 46元)发布公告称,2023年4月18日15:00-17:00,恒帅股份接受面向全体投资者调研,公司董事长、总经理许宁宁、
保单如果在两年内没有缴费就会进入到中止期,在这个中止期内我们都是可以去退保的,并且在这个时间内如果大家还想要继续缴纳保险,也可以申请
新京报贝壳财经讯(记者张晓翀)4月19日国家发展改革委发言人孟玮表示,下一步,发改委将会同有关方面,通过建机制、强服务、重前期、优环境、促
ST中珠:中珠医疗控股股份有限公司关于公司股票继续实施其他风险警示的公告
为切实解决党员学习教育中遇到的问题,近日,华夏银行南昌分行对新办公大楼党员之家建设开展需求分析,制定设计方案,规划了智慧党建区域、VR
4月19日,国家发展改革委发言人孟玮表示,近一段时间,铁矿石价格出现一波明显上涨。发改委多次组织市场机构和业内专家召开会议,分析研判铁矿
格隆汇4月19日丨申能股份公布,经统计,2023年第一季度公司控股发电企业完成发电量134 09亿千瓦时,同比减少3 33%。1、煤电完成102 85亿千瓦时
Copyright 2015-2022 北冰洋双创网 版权所有 备案号:沪ICP备2020036824号-3 联系邮箱:562 66 29@qq.com
随着全光网络越织越密 如何进一步增强消费者和产业界的“获得感”?
近年来,在5G和宽带双千兆牵引下,新项目、新试点、新应用层出不穷。随着全光网络越织越密,如何进一步增强消费者和产业界的获得感?湖北日
致敬老将!热爱可抵岁月漫长
<script src= "http: tv people com cn img player v js ">< script><script>showPlayer({id: " pvservice xml 202
微视频|字里藏情迎元宵
<script src= "http: tv people com cn img player v js ">< script><script>showPlayer({id: " pvservice xml 202