├── README.md ├── datasets ├── BlogCatalog3.zip ├── citeseer.zip ├── cora_raw.zip ├── datasets.png ├── evaluated.png ├── pubmed.zip └── readme.md └── notes └── Graph_Neural_Networks-A_Review of_Methods_and_Applications.md /README.md: -------------------------------------------------------------------------------- 1 | # GNN 2 | 3 | 神经网络的迅速发展,也推动着将神经网络运用到图这一特殊的数据结构的相关研究。 4 | 5 | 图是一种**非欧式**结构的结构化数据,它由一系列的对象(nodes)和关系类型(edges)组成,具有局部连接的特点,能表示更为复杂的信息;熟悉和运用图神经网络的方法很有必要。 6 | 7 | 基于此,将收集和整理相关论文和笔记,便于入门和个人回顾,便于快速发现论文基本信息和主要资源。 8 | 9 | 10 | 11 | ## 论文获取 12 | 13 | + 在[网址](http://arxitics.com/search?q=GNN&sort=updated)中查询最新论文数据; 14 | + 由Jie Zhou等整理的详细的[论文列表](https://github.com/thunlp/GNNPapers) ; 15 | + 知乎相关[话题精华](https://www.zhihu.com/topic/20747184/top-answers) 16 | 17 | 18 | 19 | + 部分相关关键词:关系推理,关系预测,知识图谱;图表示学习,图嵌入;节点分类 20 | 21 | 22 | 23 | ## 列表目录 24 | 25 | ### 综述 26 | 27 | > 需要注意的是,几篇综述的参数表示和图GNN的分类角度存在不同,不要搞混 28 | 29 | + A Comprehensive Survey on Graph Neural Networks. arxiv 2019. [论文地址](https://arxiv.org/pdf/1901.00596.pdf) 30 | + [知乎笔记](https://zhuanlan.zhihu.com/p/54241746) 31 | + 作者将图神经网络分为四类:循环图神经网络、卷积图神经网络、图自动编码器和时空图神经网络;并总结了图神经网络的数据集、开放源代码和模型评估。 32 | 33 | + Graph Neural Networks: A Review of Methods and Applications. arxiv 2018. [论文地址](https://arxiv.org/pdf/1812.08434.pdf) 34 | + [CSDN笔记](https://blog.csdn.net/ssq183/article/details/101118929) 35 | + 作者将GNN划分为五大类别,分别是:图卷积网络(Graph Convolution Networks,GCN)、 图注意力网络(Graph Attention Networks)、图自编码器( Graph Autoencoders)、图生成网络( Graph Generative Networks) 和图时空网络(Graph Spatial-temporal Networks) 36 | 37 | + Deep Learning on Graphs: A Survey. arxiv 2018. [论文地址](https://arxiv.org/pdf/1812.04202.pdf) 38 | 39 | + 图卷积神经网络综述 2020 [论文下载](https://kns.cnki.net/kcms/detail/11.1826.tp.20191104.1632.006.html) 40 | 41 | 42 | ### 模型 43 | 44 | > [知乎: 图神经网络从入门到入门](https://zhuanlan.zhihu.com/p/136521625) 45 | 46 | #### 图卷积网络(Graph Convolution Networks,GCN) 47 | 48 | > GCN的本质目的就是用来提取拓扑图的空间特征。基于频谱的方法建立在**全局的**归一化的图拉普拉斯矩阵(实对称矩阵,是**无向图**的数学表示)之上,故而假定了图为无向图,难以处理大规模图,有向图以及动态图;而基于空间的方法较为灵活,可以引入采样技术来提高效率,从而近年来基于空间的模型越来越受到关注。 49 | 50 | **基于频谱** spectral domain 51 | 52 | > 基础知识可以 [参考](https://zhuanlan.zhihu.com/p/124727955) 53 | > 54 | > + 特征值、特征向量与[特征分解](https://baike.baidu.com/item/%E7%89%B9%E5%BE%81%E5%88%86%E8%A7%A3)(谱分解) 55 | > + 拉普拉斯算子(描述的是**二维空间点与上、下、右邻居局部差异的和**)与[**拉普拉斯矩阵**](https://en.wikipedia.org/wiki/Laplacian_matrix)(对角线元素对应着各个结点的度数,非对角线元素对应着图的邻接矩阵) 56 | > + 傅里叶变化与卷积操作(特征抽取技术) 57 | 58 | + Spectral Networks and Locally Connected Networks on Graphs. ICLR 2014. [论文地址](https://arxiv.org/pdf/1312.6203.pdf) 59 | + Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering. NIPS 2016. [论文地址](https://arxiv.org/pdf/1606.09375.pdf) 60 | + Semi-Supervised Classification with Graph Convolutional Networks ICLR 2017. [论文地址](https://arxiv.org/pdf/1609.02907.pdf) 61 | + [知乎笔记](https://zhuanlan.zhihu.com/p/31067515) 62 | 63 | **基于空域** spatial domain 64 | 65 | > 每层 GCN 网络就是对邻居结点的特征进行聚合的操作,但提取特征的效果可能没有频域卷积好。 66 | > 67 | > 主要问题:如何获取邻居节点(采样),如何处理邻居节点的特征(聚合) 68 | 69 | + 空域GCN Learning Convolutional Neural Networks for Graphs ICML 2016. [论文地址](https://proceedings.mlr.press/v48/niepert16.pdf) 70 | + [知乎笔记](https://zhuanlan.zhihu.com/p/27587371) 71 | + GraphSAGE:**Inductive Representation Learning on Large Graphs.** NIPS 2017. [论文地址](https://arxiv.org/pdf/1706.02216.pdf) 72 | + **Graph Sample and Aggregate(GraphSAGE)** 能够处理 large graphs,克服了GCN训练时内存和显存的限制,即使在图中加入新节点,也能计算出节点表示。 73 | + 训练时仅保留训练样本到训练样本的边(Inductive Learning),对邻居采用有放回的重采样/负采样方法进行定长抽样(Sample),之后汇聚(Aggregate)这些邻居的特征以更新自己信息。 74 | + 同时适用于有监督与无监督表示学习 75 | + 缺点:采样没有考虑到不同邻居节点的重要性不同,聚合时没有区分中心节点与邻居节点 76 | 77 | 78 | 79 | #### 图注意力网络(Graph Attention Networks)GAT 80 | 81 | > 注意力机制能够放大数据中最重要的部分产生的影响。可以利用注意力函数,自适应地控制相邻节点j对节点i的贡献,或者集成多个模型,或者用于引导节点采样。 82 | 83 | + **Graph Attention Networks.** ICLR 2018. [论文地址](https://arxiv.org/pdf/1710.10903.pdf) 84 | + 借鉴Transformer中self-attention机制,根据邻居节点的特征来分配不同的权值 85 | + 训练GCN无需了解整个图结构,只需知道每个节点的邻居节点即可 86 | + 为了提高模型的拟合能力,还引入了多头的self-attention机制 87 | 88 | 89 | 90 | #### 图自编码器(Graph Auto-Encoder)(GAE) 91 | 92 | > 其目的是利用神经网络结构将图的顶点表示为低维向量。 93 | 94 | + Variational Graph Auto-Encoders(NIPS2016) [论文地址](https://arxiv.org/pdf/1611.07308.pdf) 95 | + [知乎笔记](https://zhuanlan.zhihu.com/p/78340397) 96 | + 将变分自编码器(Variational Auto-Encoders)迁移到图领域,用已知的图经过编码(图卷积)学到节点低维向量表示的分布(均值和方差),在分布中采样得到节点的向量表示,然后进行解码(链路预测)重新构建图。 97 | + 损失函数衡量生成图和真实图之间的差异,并加入各独立正态分布和标准正态分布的散度以限定各个正态分布的形式。 98 | 99 | 100 | #### Graph Pooling 101 | 102 | + 简单的max pooling和mean pooling (不高效而且忽视了节点的顺序信息) 103 | + **Differentiable Pooling** (**DiffPool**) Hierarchical Graph Representation Learning with Differentiable Pooling. NeurIPS 2018. [论文下载](https://arxiv.org/pdf/1806.08804.pdf) 104 | + 通过一个**可微池化操作模块**去分层的聚合图节点 105 | 106 | 107 | #### 结构优化 108 | 109 | + DROPEDGE: TOWARDS DEEP GRAPH CONVOLU-TIONAL NETWORKS ON NODE CLASSIFICATION [论文下载](https://openreview.net/forum?id=Hkx1qkrKPr) [代码](https://github.com/DropEdge/DropEdge) 110 | 本文解决的是图神经网络无法加深的问题,提出DropEdge机制加深GNN,用于节点分类任务。 111 | 112 | ### 应用 113 | 114 | > 图神经网络广泛用于计算机视觉、推荐系统、交通拥堵情况、生物化学结构、社交网络信息等 115 | 116 | + Spam Review Detection with Graph Convolutional Networks [论文地址](https://arxiv.org/pdf/1908.10679.pdf) 117 | + Abusive Language Detection with Graph Convolutional Networks [论文地址](https://arxiv.org/pdf/1904.04073.pdf) 118 | + **推荐系统** Graph Convolutional Neural Networks for Web-Scale Recommender Systems [论文地址](https://arxiv.org/pdf/1806.01973.pdf) 119 | 120 | 121 | 122 | ## 挑战与疑惑 123 | 124 | + 浅层结构 VS 深层网络 125 | + 目前的GNN还只能在较浅层的网络上发挥优势,而深层GCN性能会出现下降; 126 | + 社交网络中存在“六度空间”理论,多层卷积将使得节点获取了所有节点的信息而失去了局部性,并且可能使得所有节点的表示趋于相同,即过于平滑 127 | + 可拓展性 VS 完整性 128 | + 大规模的图网络计算量大难以处理,通过采样和聚类等方法都会丢失部分图的信息; 129 | + 同构图 VS 异构图 130 | + 异构图中包含了大量类型的节点和边的信息,同构图的方法未能良好运用 131 | + 没有较为合理的通用方法解决异构图数据信息 132 | + 动态图 VS 静态图 133 | + 目前大多方法只能应用在静态图上,对于动态图还没有特别好的解决方案 134 | 135 | 136 | 137 | ## 代码 138 | 139 | > 大量基于tensorflow的代码都是1.x版本,如果安装的时2.x时,需要在代码中将`import tensorflow as tf 改为import tensorflow.compat.v1 as tf` 140 | > 141 | > [部分基础知识](https://github.com/ageron/handson-ml ) 142 | 143 | + [PyG框架](https://github.com/rusty1s/pytorch_geometric) Geometric Deep Learning Extension Library for PyTorch 144 | + [官方文档](https://pytorch-geometric.readthedocs.io/) 145 | + PyG包含有大量的基准数据集 146 | 147 | + Implementation of Graph Convolutional Networks in TensorFlow https://github.com/tkipf/gcn 148 | + 包含 multi-layer perceptron(多层感知机)gcn ChebyshevGCN 149 | 150 | ## 数据集 151 | 152 | > 部分常用的数据集和说明已经放在datasets文件夹下 153 | 154 | + **引文网络** 155 | + Cora 156 | + .content文件包含论文描述,每一行: + ,特征应该有 1433 个维度 157 | + .cites文件包含语料库的引用关系,每一行:< ID of cited paper > < ID of citing paper> 158 | + 处理方式 [参考](https://github.com/tkipf/gcn/blob/master/gcn/utils.py) 159 | + CiteSeer 160 | + 数据集包含3312种科学出版物,分为六类之一。引用网络由4732个链接组成。数据集中的每个出版物都用一个0/1值的词向量描述,该词向量指示字典中是否存在相应的词。该词典包含3703个独特的单词。 161 | + **社交网络** 162 | + BlogCatalog数据集是一个社交网络,它由博客作者及其社交关系组成。博客的类别代表了他们的个人兴趣。 163 | + Reddit数据集是一个无向图,由从Reddit论坛收集的帖子组成。如果两个帖子包含同一用户的评论,就会被链接。每个帖子都有一个标签,表明它所属的社区。 164 | + https://linqs.soe.ucsc.edu/data 165 | + https://github.com/shiruipan/graph_datasets 涉及化合物,引文网络,情感网络,脑功能等五个数据库 166 | + **graph kernel datasets** https://ls11-www.cs.tu-dortmund.de/staff/morris/graphkerneldatasets 167 | + Stanford Large Network Dataset Collection https://snap.stanford.edu/data/index.html 168 | + https://github.com/awesomedata/awesome-public-datasets 169 | + 图像数据集 http://homepages.inf.ed.ac.uk/rbf/CVonline/Imagedbase.htm 170 | + 视频数据集 https://research.google.com/youtube8m/download.html 171 | + 情感文本数据集 http://thinknook.com/twitter-sentiment-analysis-training-corpus-dataset-2012-09-22/ 172 | + 推荐系统数据集 https://research.yahoo.com/datasets https://grouplens.org/datasets/hetrec-2011/ 173 | 174 | ## 研究团队 175 | 176 | > 此处列举的只是一部分,重要的学者远比我看到的多得多。 177 | 178 | > **根据作者来搜索相关工作** 179 | > 180 | > 1. 个人网站(大部分学校所配置的,与其邮箱名有一定的关系),Github(部分编写了代码的论文一般会放在GitHub等平台上) 181 | > 2. 数据库查询,利用Author项进行筛选(需要注意中文名与英文名存在的不同之处),并添加领域classification,机构/单位,和关键词abstract的限定,以增强查询的效果 182 | > 3. 部分作者在某些数据库认证过,可以尝试在mendeley等管理软件打开后从details中,从网页查看论文,并获取作者的主页 183 | 184 | + Maosong Sun(孙茂松 教授), Zhiyuan Liu(刘知远 助理研究员), Jie Zhou(周界), 清华大学计算机科学与技术学院 185 | + 沈华伟 **中国科学院计算技术研究所** 186 | + 唐杰 187 | + Kipf 188 | 189 | ## 其他资源 190 | 191 | + 图神经网络在视频理解中的探索 https://www.bilibili.com/video/av48201125/ 192 | + 图神经网络介绍-Introduction to Graph Neural Network https://www.bilibili.com/video/av62661713 193 | + 唐杰-图神经网络及认知推理-图神经网络学习班 https://www.bilibili.com/video/av77934956 194 | + 图神经网络在线研讨会2020 https://www.bilibili.com/video/BV1zp4y117bB 195 | 196 | - **图分析分析工具** Graphchi,SNAP,Pajek,Echarts 197 | - **可视化工具** Gephi,Graphviz 198 | - **图数据库** Neo4j 199 | - **数据挖掘工具** WEKA(无需编程),AlphaMiner 200 | 201 | 202 | # 说明 203 | 204 | + 本仓库仅作为学术研究使用,笔记不一定完全表述了原作者的想法,如果出现问题欢迎探讨,也建议与原作者联系。 205 | + 如果部分内容作者或出版社有异议,内容存在错误,请联系我进行删除或修改。 206 | 207 | 208 | # 图传播算法 209 | 210 | ## PageRank 211 | 212 | + 有节点不存在外链,如果一直不断迭代计算下去,R全部都会变成0 213 | 214 | + 有些节点只存在指向自己的外链,则计算下去会快速的发现,最后D的R值为1,其他节点都为0。 215 | 216 | + 假设每个节点都有一个假想的外链指向其它任一节点,这样整个图就变成了一个强连通图了。当然,为了尽量不影响最终计算的PageRank值,节点通过假想外链传递的PageRank值会乘一个权重因子β,β一般取0.2或者更小。 217 | 218 | 219 | ## **HITS** 220 | 221 | + **Authority**:可理解为权威页面,一般包含高质量内容。 222 | + **hub**:可理解为导航页面,指向很多Authority页面。 223 | + 被越多的hub页面所指向的页面,内容质量越高。一个hub页面会尽可能地指向更高质量的内容页面。 224 | + 在迭代过程中,为了保证算法的收敛性,HITS会对Authority值与hub值分别作为均方根归一化。 225 | 226 | ## Weisfeiler-Lehman算法 227 | 228 | + 图的相似性 229 | + 同时从节点的attribute和structure两方面来做辨别。其中structure信息还是通过节点的邻居来刻画,Identifaction可以通过hashing来高效判断。 230 | -------------------------------------------------------------------------------- /datasets/BlogCatalog3.zip: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/joeat1/GNN_note/ed15b80652e7ef99292b3c8df8439eb69c7427bb/datasets/BlogCatalog3.zip -------------------------------------------------------------------------------- /datasets/citeseer.zip: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/joeat1/GNN_note/ed15b80652e7ef99292b3c8df8439eb69c7427bb/datasets/citeseer.zip -------------------------------------------------------------------------------- /datasets/cora_raw.zip: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/joeat1/GNN_note/ed15b80652e7ef99292b3c8df8439eb69c7427bb/datasets/cora_raw.zip -------------------------------------------------------------------------------- /datasets/datasets.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/joeat1/GNN_note/ed15b80652e7ef99292b3c8df8439eb69c7427bb/datasets/datasets.png -------------------------------------------------------------------------------- /datasets/evaluated.png: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/joeat1/GNN_note/ed15b80652e7ef99292b3c8df8439eb69c7427bb/datasets/evaluated.png -------------------------------------------------------------------------------- /datasets/pubmed.zip: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/joeat1/GNN_note/ed15b80652e7ef99292b3c8df8439eb69c7427bb/datasets/pubmed.zip -------------------------------------------------------------------------------- /datasets/readme.md: -------------------------------------------------------------------------------- 1 | # 常用数据集 2 | > 参考:《A Comprehensive Survey on Graph Neural Networks》 3 | 4 | ![datasets](datasets.png) 5 | 6 | ## 引文网络 7 | 8 | + Cora:https://s3.us-east-2.amazonaws.com/dgl.ai/dataset/cora_raw.zip 9 | + Pubmed:https://s3.us-east-2.amazonaws.com/dgl.ai/dataset/pubmed.zip 10 | + Citeseer:https://s3.us-east-2.amazonaws.com/dgl.ai/dataset/citeseer.zip 11 | 12 | ## 社交网络 13 | 14 | + Reddit:https://github.com/linanqiu/reddit-dataset 15 | + Epinions:http://www.trustlet.org/downloaded_epinions.html 16 | + BlogCatalog: https://figshare.com/articles/BlogCatalog_dataset/11923611 17 | 18 | ## 生物化学结构 19 | 20 | + PPI:http://snap.stanford.edu/graphsage/ppi.zip 21 | + QM9:https://github.com/geekinglcq/QM9nano4USTC 22 | -------------------------------------------------------------------------------- /notes/Graph_Neural_Networks-A_Review of_Methods_and_Applications.md: -------------------------------------------------------------------------------- 1 | # 图神经网络 2 | 3 | > 在许多领域中,深度学习的成功部分归因于快速发展的计算资源(如GPU)和大量训练数据的可用性,部分归因于深度学习从欧氏空间数据中提取潜在表示的有效性。 4 | > 图是一种结构化数据,它由一系列的对象(nodes)和关系类型(edges)组成;具有局部连接的特点。 5 | 6 | ## 0x0 图嵌入 7 | 8 | + 图神经网络的研究与图嵌入(或网络嵌入)密切相关 9 | + 图嵌入旨在通过保留图的网络拓扑结构和节点内容信息,将图中顶点表示为低维向量空间,以便使用简单的机器学习算法 10 | + 许多图嵌入算法通常是无监督的算法,它们大致可划分为三类,即矩阵分解、随机游走和深度学习方法。其中图嵌入的深度学习方法主要包括基于图自动编码器的算法(如 DNGR和SDNE)和无监督训练的图卷积神经网络(如GraphSage)。 11 | 12 | ## 0x1 GNN的分类 13 | 14 | > 划分为五大类别,分别是:图卷积网络(Graph Convolution Networks,GCN)、 图注意力网络(Graph Attention Networks)、图自编码器( Graph Autoencoders)、图生成网络( Graph Generative Networks) 和图时空网络(Graph Spatial-temporal Networks) 15 | > 每个节点的定义是由该节点的特征和相关节点来共同表示的。通过一个被所有节点共享的局部转化函数f根据输入的领域信息,来更新节点v的状态h(向量化表示)。再通过一个局部输出函数g产生节点的输出。训练过程即学习出函数f和g,通过基于梯度下降算法优化loss信息。 16 | 17 | ### 图卷积网络(Graph Convolution Networks,GCN) 18 | 19 | > 近年来空间模型越来越受到关注 20 | 21 | + 基于频谱 22 | 23 | + 图被假定为无向图,无向图的一种鲁棒数学表示是正则化图拉普拉斯矩阵,正则化图拉普拉斯矩阵具有实对称半正定的性质,该矩阵的特征向量构成一组正交基。 将输入图信号(由图的各个节点的N维特征向量组成)投影到正交空间,即对图X的傅里叶变换。在变换中加入滤波器g,即可进行图卷积行为。滤波器的不同将产生不同的模式。 24 | 25 | 其中使用的是归一化之后的邻接矩阵 26 | 27 | + 缺点: 28 | 29 | + 需要将整个图加载到内存中以执行图卷积,在处理大型图时是不高效的; 30 | + 模型假定图为一个固定的图,很难在图中添加新的节点; 31 | + 仅限于在无向图上工作,有向图上的拉普拉斯矩阵没有明确的定义,有向图转换为无向图则部分信息将丢失。 32 | 33 | + 基于空间 34 | 35 | + 将图像与图关联起来,每个像素代表一个节点,每个像素直接连接到其附近的像素。通过一个3×3的窗口,每个节点的邻域是其周围的8个像素,对该3×3窗口应用一个滤波器。 36 | + 有潜力处理大型图,当相邻节点数量增加时,可以引入采样技术来提高效率。在每个节点本地执行图卷积,可以轻松地在不同的位置和结构之间共享权重。 37 | 38 | 39 | 40 | 任何一个图卷积层都可以写成一个非线性函数,需要对邻接矩阵A添加自传播能力(节点自身的信息传递)和归一化效果(避免单边在讨论时的权重相差较大),自传播采用D(度矩阵)与A的差,并使用D的开方后的逆矩阵进行归一化。 41 | 42 | 43 | 44 | ### 图注意力网络(Graph Attention Networks) 45 | 46 | > 注意力机制如今已经被广泛地应用到了基于序列的任务中,它的优点是能够放大数据中最重要的部分的影响。 47 | 48 | + 在聚集特征信息时将注意力权重分配给不同的邻居节点,利用注意力函数,自适应地控制相邻节点j对节点i的贡献 49 | + 根据注意力权重将多个模型集合起来 50 | + 使用注意力权重引导随机行走 51 | 52 | ### 图自编码器( Graph Autoencoders) 53 | 54 | + 其目的是利用神经网络结构将图的顶点表示为低维向量。 55 | 56 | 57 | ### 图时空网络(Graph Spatial-temporal Networks) 58 | 59 | + 同时捕捉时空图的时空相关性,图形时空网络的目标可以是预测未来的节点值或标签,或者预测时空图标签。 60 | 61 | 62 | ## 0x2 图的类型 63 | 64 | ### 有向图(Directed graphs) 65 | 66 | + 有向边相对与无向边来说能够表达更为丰富的信息。要以不同的形式来对待父类和子类的信息传播过程,如ADGPM中使用两种不同的矩阵 67 | 68 | ### 异构图( Heterogeneous Graphs) 69 | 70 | + 将每个节点的类型转换为一个与原始特征连接的热特征向量。 71 | + GraphInception 引入metapath,使得可以根据相邻节点的类型和距离对其进行分组。 72 | 73 | ### 带边的权重或类型图(Graph with Edge Information) 74 | 75 | + 将图转换为二分图,其中原始边也成为节点,并且将一个原始边拆分为两个新边,这意味着边节点和开始/结束节点之间有两个新边。 76 | 77 | ## 传播类型(Propagation Types) 78 | 79 | > 使用不同的聚集器从每个节点的邻域收集信息,并指定更新器来更新节点的隐藏状态。 80 | 81 | ## 0x3 图神经网络的应用 82 | 83 | + 计算机视觉: 场景图生成、点云分类与分割、动作识别等 84 | + 推荐系统 85 | + 交通拥堵: 预测交通网络中的交通速度、交通量,进行路线规划和流量控制 86 | + 化学:研究分子的图结构,学习分子指纹、预测分子性质、推断蛋白质结构、合成化合物。 87 | 88 | ## 0x4 未来挑战 89 | 90 | + 浅层结构:目前GNN还只能在较浅层的网络上发挥优势,随着层数的加深,网络会出现退化。 91 | + 动态图:目前大多方法只能应用在静态图上,对于动态图还没有特别好的解决方案。 92 | + 非结构化场景:还没有一个通用的方法来合理的处理非结构化数据。 93 | + 扩展性:将图网络应用于大规模数据上仍然面临着不小的困难。 94 | --------------------------------------------------------------------------------