稍微看一下之后备用。
【图神经网络综述】GNN原理+落地应用+实现框架全解_gnn实现-CSDN博客
GNN相比CNN最大的区别在于数据结构,CNN一般作用在二维、三维数据里,如图像、表格数据等,可以进行卷积操作。而GNN作用在一个由节点和边构成的图上
为什么要研究图?其应用价值是什么?
特殊的数据结构和任务,比如社交网络、分子结构等
研究区别在哪?
数据结构不再对称、没有移位不变性、局部连通性、组合性等,更没法直接利用卷积
任务目标是什么?
任务分类?
图嵌入的无监督学习可以做因果发现吗?
怎么研究?
1.魔改CNN-ConvGNNs:把原本中心像素和周围像素的关系改为中心节点和周围邻接节点的关系
基于空间域的图卷积GCNs(ConvGNNs)_基于空间的图卷积操作本质上是将节点信息作为沿边的消息传播-CSDN博客
2.图信号处理
如何从零开始学习数字信号处理? - 知乎
准备有空学一下数字信号处理,有时候用到傅里叶也会看到……
感谢运总推荐资料hhh
大概就是时域、频域只是表示方法(取的基)不同,都是同一种信号
信号需要分离(时域不好分、转化为不同变化域上好分)
包括jpeg的压缩也是分离信号
FACT 说白了就是认为傅里叶变换后的振幅没意义,所以做了数据增强……
卷积更是没有方向的“互相关”(求一个挪一个点)
果然 神经网络就是叠层数高了导致黑盒了的草台班子