如何找做网站的公司,自媒体怎么做,如何在微信内做网站,wang域名建的网站文章目录 摘要文献阅读1-1 题目1-2 创新点1-3 本文工作2-1 题目2-2 什么是图2-3 图神经网络2-4 信息传递3-1 题目3-2 创新点3-3 本文工作 深度学习1.GNN的构建步骤2.构建图的方法3.GNN的简单样例 总结 摘要
本周阅读了三篇文章#xff0c;第一篇是基于物理信息深度学习和激光… 文章目录 摘要文献阅读1-1 题目1-2 创新点1-3 本文工作2-1 题目2-2 什么是图2-3 图神经网络2-4 信息传递3-1 题目3-2 创新点3-3 本文工作 深度学习1.GNN的构建步骤2.构建图的方法3.GNN的简单样例 总结 摘要
本周阅读了三篇文章第一篇是基于物理信息深度学习和激光雷达测量的时空风场预测它将将Navier-Stokes方程编码到深度神经网络中从而减小模型产生的误差同时解决了深度学习中常遇到的过拟合问题第二篇是图神经网络的简单介绍从什么数据可以表示成一张图、图跟别的数据不同在哪、GNN模型是怎么样的以及提供一个GNN的环境这四个方面去探索和说明图神经网络的原理第三篇是用于属性预测的几何增强分子表征学习它提出了一个几何的GNN模型能够利用到以前方法忽视的空间信息即键角信息实验结果表明该方法明显优于其他基线。
I read three articles this week. The first is a spatiotemporal wind prediction based on deep learning of physical information and liDAR measurements, which will code Navier-Stokes equations into deep neural networks, thereby reducing the errors generated by the model and solving the overfitting problem often encountered in deep learning. The second part is a brief introduction of graph neural network, exploring and explaining the principle of graph neural network from four aspects: what data can be represented as a graph, what is the difference between graph and other data, how GNN model is, and providing a GNN environment. The third part is about the geometric enhanced molecular representation learning for property prediction. A geometric GNN model is proposed in this paper, which can make use of the spatial information neglected by previous methods, that is, the bond Angle information. Experimental results show that this method is significantly better than other baselines. 文献阅读
1-1 题目
文献链接Spatiotemporal wind field prediction based on physics-informed deep learning and LIDAR measurements
1-2 创新点
1.能够对整个流域的流动动力学预测包括无法测量的空间位置通过NS方程隐式地考虑了测量之间的时空相关性使得模型的精度高通过强制物理约束去解决深度学习中经常遇到的过拟合问题。
2.首次将物理定律和数据融合到风力应用的深度学习模型训练中以最小化拟合LIDAR测量值和执行NS方程的误差。
3.实验结果表明该方法在多种不同场景下都能很好地预测整个流域的时空流速同时验证了该方法的鲁棒性。
1-3 本文工作 1.具有大自由度的深度神经网络结构可以近似为由偏微分方程控制的复杂非线性系统于是构建了一个深度全连接神经网络共12层隐藏层神经元数为128然后将Navier-Stokes方程提供了非常好的大气边界层流动描述编码到深度神经网络中并将一个观测过程嵌入到神经网络中使深度神经网络具有在整个流域内学习流场演化动力学的能力。
2.采用基于高保真度风电场模拟器SOWFA对该方法进行了评估结果表明该方法准确地预测了风速和风向这是因为在不同位置测量的视线风速之间的相关性通过Navier-Stokes残差项被隐含地考虑在内从而减小模型产生的误差。
3.采用的Navier-Stokes方程是二维的目前的研究没有捕捉到三维的流动结构和热效应模型的性能会受到潜在物理定律的限制。因此需要考虑更精确的物理模型即三维Navier-Stokes方程来提高预测性能。
2-1 题目
文献链接A Gentle Introduction to Graph Neural Networks
2-2 什么是图 1.图是表示实体之间的关系其中实体就是一个点关系就是一条边。
2.图上有四种信息顶点的属性、边的属性、全局的信息以及连接性。
3.怎么表示连接性 1邻接矩阵有n个顶点邻接矩阵是n*n的矩阵。存在的问题是矩阵非常大又比较稀疏放在GPU上浪费计算资源。 2邻接列表表的长度与边的个数一样第i项代表第i条边。具有储存高效对顺序无关的特点。
2-3 图神经网络 1.GNN是一个对图上所有的属性包括顶点、边、全局的上下文进行一个可以优化的变换这个变换是能够保持住图的对称信息的而对称信息是指将这些顶点进行另外一个排序后整个结果仍然保持不变。
2.GNN采用一个信息传递的框架输入是一个图输出也是一个图。
3.GNN的构造 1针对顶点集、边集、全局性构造一个MLP即一个GNN的层输入的大小和输出的大小一致取决于输入的张量最后得到的输出是属性都被更新过但结构没有发生变化的。 2MLP只对张量独自作用不会考虑所有的连接信息。
4.汇聚 当有某个顶点没有张量信息的时候可以通过pooling汇聚的操作得到这个顶点的信息。在CNN中常见的pooling方法是maxpooling和maxpooling。
5.局限性 1GNN blocks中并没有使用图的结构信息即在对每个属性做变换的时候每个属性进入MLP但不会注意这个顶点与其它相连边的信息。 2并没有把整个图信息更新进入属性中导致最终结果并不能充分利用这个图所蕴含的信息。
2-4 信息传递
1.多轮消息传递的本质是多层汇聚是更新节点嵌入的重要手段。类似于CNN的多层卷积网络末端层的一个元素可由输入层多个元素汇聚而成。
2.两个阶段 1某节点向周围所有相连的节点发出消息 2该节点从周围节点接收消息并更新自身也从而了解周边环境
3.全局信息 假设构建的图比较大且连接不紧密又因为信息的传递是顶点到相邻顶点的导致相距较远的点传递信息很慢。因此设置一个master node它是一个虚拟的点它可以与所有的边相连。
4.模型的可解释性 为了知道模型从图中学到了什么可以从中抓取子图进行观察。
5.存在的问题 1图上面做优化很困难因为它是一个稀疏的架构每个结构是动态的如何在GPU上进行计算很困难。 2对超参数、采样、优化都非常敏感。
3-1 题目
文献链接ChemRL-GEM: Geometry Enhanced Molecular Representation Learning for Property Prediction
3-2 创新点
1.设计了一个几何的GNN架构可以同时模拟分子中的原子、键和键角。
2.给一个分子设计双图一张图编码了原子键关系另一张图编码了键角关系。
3.提出了几种新的几何级自监督学习策略利用局部和全局分子三维结构来学习空间知识。
3-3 本文工作 1.设计了一个基于几何的GNN来学习原子-键-角关系该GNN通过在原子-键图之上引入键-角图来利用键角信息将原子和键的拓扑结构视为一个图并将每个元素的消息传播给相邻元素编码分子的拓扑和几何信息。
2.构建了多种几何级自监督学习方法来预测分子几何形状即键长预测键角预测原子距离矩阵预测以获取分子三维空间知识解决标记数据稀疏的问题。
3.进行大量实验与多个竞争性基线进行了比较实验结果表明在12个基准测试中显著优于其他方法。
4.在未来工作中将考虑其他几何参数如扭转角以进一步提高分子表示能力还将研究将分子表征应用于其他分子相关问题的性能包括预测药物-靶标相互作用和分子之间的相互作用。
深度学习
1.GNN的构建步骤
1定义图结构首先明确问题是基于图数据的构建一个图用节点表示实体边表示节点之间的关系。然后给每个节点和边分配特征将这些特征用于模型的输入。 2选择合适的GNN模型如GCN、GGNN、GAT等根据数据集的性质来确定因为有些要考虑到空间信息因此就需要更为合适的模型。同时需要确定定义模型的层和激活函数以及在每一层中执行节点更新和信息聚合的方式。 3定义信息传播规则这一部分非常关键有了信息传递的方式就可以使模型学习整个图的信息。其中每个节点根据其邻居节点的信息进行更新因此需要注意到如何聚合邻居节点的信息并将其与当前节点的特征进行融合之类的问题。 4模型的训练和调优因为GNN对超参数、采样、优化都非常敏感因为这一步也同样关键一个简单的改变就会产生差异较大的变化。
2.构建图的方法
对于GNN来说图的构建十分重要主要取决于处理的问题和可用的数据 1如果数据相对简单只需要明确定义节点和边并将它们映射到数据集中的实体和关系上就可以手动构建图。 2根据关联矩阵构建图用每行和每列分别表示图中的节点矩阵的元素表示节点之间的关联或权重。 3根据空间位置构建图用节点表示地理位置边表示地理接近性或连接性。 4基于知识图谱构建图构建自己的知识图谱并将其转化为图结构。
3.GNN的简单样例
以下是一个基于Pytorch实现的GNN代码示例实现了一个有两个GraphConvLayer层的GNN模型。具体来说模型的输入为一个特征矩阵X和邻接矩阵A输出为一个预测标签。在训练过程中使用交叉嫡损失函数和Adam优化器来优化模型。在测试过程中使用新的输入和邻接矩阵来进行预测。
import torch
import torch.nn as nn
import torch.optim as optimclass GraphConvLayer(nn.Module):def __init__(self, input_dim, output_dim):super(GraphConvLayer, self).__init__()self.linear nn.Linear(input_dim, output_dim)def forward(self, X, A):X self.linear(X)X torch.matmul(A, X)return Xclass GraphNet(nn.Module):def __init__(self, input_dim, hidden_dim, output_dim):super(GraphNet, self).__init__()self.conv1 GraphConvLayer(input_dim, hidden_dim)self.conv2 GraphConvLayer(hidden_dim, hidden_dim)self.linear nn.Linear(hidden_dim, output_dim)def forward(self, X, A):X self.conv1(X, A)X torch.relu(X)X self.conv2(X, A)X torch.relu(X)X self.linear(X)return X# 构造模型和数据
input_dim 10
hidden_dim 16
output_dim 2
model GraphNet(input_dim, hidden_dim, output_dim)X torch.randn(32, input_dim)
A torch.randn(32, 32)
target torch.randn(32, 2)# 定义损失函数和优化器
loss_fn nn.CrossEntropyLoss()
optimizer optim.Adam(model.parameters())# 训练模型
for epoch in range(100):optimizer.zero_grad()output model(X, A)loss loss_fn(output, target)loss.backward()optimizer.step()# 测试模型
X_test torch.randn(16, input_dim)
A_test torch.randn(16, 16)
output_test model(X_test, A_test)总结
我们可以知道GNN的出现解决了传统深度学习方法难以应用到非规则形态数据上的痛点大大扩展了神经网络的应用空间并在一些问题上改进了模型的可解释性。同时GNN也遇到了一些挑战因为图与之前的图像和文本不同图的每个节点连接的邻居个数、节点类型以及边的类型不一样就制造了很多不规则的运算每个节点需要运算的程度不一样。然而计算机特别适合规则运算却不适合不规则运算图的计算就是不规则运算因此很难去解决这个问题。于是怎么处理数据去构造图以及怎么构建不同网络结构下 GNN是非常必要的。本周学习GNN的知识点理解其中的关键点实现了一个简单示例因此下周会实现更实际的GNN模型这会使模型具有更加复杂和更强的表达能力。