当前位置: 首页 > news >正文

免费微信小程序开店seo企业推广案例

免费微信小程序开店,seo企业推广案例,做胎儿羊水鉴定网站,程序员接活的平台网站目录概述数据集定义Data LoaderDGL中的batched graph定义模型训练参考概述 除了节点级别的问题——节点分类、边级别的问题——链接预测之外#xff0c;还有整个图级别的问题——图分类。经过聚合、传递消息得到节点和边的新的表征后#xff0c;映射得到整个图的表征。 数据… 目录概述数据集定义Data LoaderDGL中的batched graph定义模型训练参考概述 除了节点级别的问题——节点分类、边级别的问题——链接预测之外还有整个图级别的问题——图分类。经过聚合、传递消息得到节点和边的新的表征后映射得到整个图的表征。 数据集 dataset dgl.data.GINDataset(PROTEINS, self_loopTrue) g dataset[0] print(g) print(Node feature dimensionality:, dataset.dim_nfeats) print(Number of graph categories:, dataset.gclasses)(Graph(num_nodes42, num_edges204,ndata_schemes{label: Scheme(shape(), dtypetorch.int64), attr: Scheme(shape(3,), dtypetorch.float32)}edata_schemes{}), tensor(0)) Node feature dimensionality: 3 Number of graph categories: 2共1113个图每个图中的节点的特征维度是3图的类别数是2. 定义Data Loader from torch.utils.data.sampler import SubsetRandomSamplerfrom dgl.dataloading import GraphDataLoadernum_examples len(dataset) num_train int(num_examples * 0.8)train_sampler SubsetRandomSampler(torch.arange(num_train)) test_sampler SubsetRandomSampler(torch.arange(num_train, num_examples))train_dataloader GraphDataLoader(dataset, samplertrain_sampler, batch_size5, drop_lastFalse ) test_dataloader GraphDataLoader(dataset, samplertest_sampler, batch_size5, drop_lastFalse )取80%用作训练集其余用作测试集 mini-batch操作取5个graph打包成一个大的batched graph it iter(train_dataloader) batch next(it) print(batch)[Graph(num_nodes259, num_edges1201,ndata_schemes{label: Scheme(shape(), dtypetorch.int64), attr: Scheme(shape(3,), dtypetorch.float32)}edata_schemes{}), tensor([0, 1, 0, 0, 0])]DGL中的batched graph 在每个mini-batch里面batched graph是由dgl.batch对graph进行打包的 batched_graph, labels batch print(Number of nodes for each graph element in the batch:,batched_graph.batch_num_nodes(), ) print(Number of edges for each graph element in the batch:,batched_graph.batch_num_edges(), )# Recover the original graph elements from the minibatch graphs dgl.unbatch(batched_graph) print(The original graphs in the minibatch:) print(graphs)Number of nodes for each graph element in the batch: tensor([ 55, 16, 116, 31, 41]) Number of edges for each graph element in the batch: tensor([209, 70, 584, 153, 185]) The original graphs in the minibatch: [Graph(num_nodes55, num_edges209,ndata_schemes{label: Scheme(shape(), dtypetorch.int64), attr: Scheme(shape(3,), dtypetorch.float32)}edata_schemes{}), Graph(num_nodes16, num_edges70,ndata_schemes{label: Scheme(shape(), dtypetorch.int64), attr: Scheme(shape(3,), dtypetorch.float32)}edata_schemes{}), Graph(num_nodes116, num_edges584,ndata_schemes{label: Scheme(shape(), dtypetorch.int64), attr: Scheme(shape(3,), dtypetorch.float32)}edata_schemes{}), Graph(num_nodes31, num_edges153,ndata_schemes{label: Scheme(shape(), dtypetorch.int64), attr: Scheme(shape(3,), dtypetorch.float32)}edata_schemes{}), Graph(num_nodes41, num_edges185,ndata_schemes{label: Scheme(shape(), dtypetorch.int64), attr: Scheme(shape(3,), dtypetorch.float32)}edata_schemes{})]定义模型 class GCN(nn.Module):def __init__(self, in_feats, h_feats, num_classes):super(GCN, self).__init__()self.conv1 GraphConv(in_feats, h_feats)self.conv2 GraphConv(h_feats, num_classes)def forward(self, g, in_feat):h self.conv1(g, in_feat)h F.relu(h)h self.conv2(g, h)g.ndata[h] hreturn dgl.mean_nodes(g, h)#取所有节点的h特征的平均值来表征整个图 readoutmodel GCN(dataset.dim_nfeats, 16, dataset.gclasses) optimizer torch.optim.Adam(model.parameters(), lr0.01)一个batched graph中不同的图是完全分开的即没有边连接两个图所有消息传递函数仍然具有相同的结果和没有打包之前相比。 其次将对每个图分别执行readout功能。假设批次大小为B要聚合的特征维度为D则读取出的形状为B D。 训练 for epoch in range(20):num_correct 0num_trains 0for batched_graph, labels in train_dataloader:pred model(batched_graph, batched_graph.ndata[attr].float())loss F.cross_entropy(pred, labels)num_trains len(labels)num_correct (pred.argmax(1)labels).sum().item()optimizer.zero_grad()loss.backward()optimizer.step()print(train accuracy: , num_correct/num_trains)num_correct 0 num_tests 0 for batched_graph, labels in test_dataloader:pred model(batched_graph, batched_graph.ndata[attr].float())num_correct (pred.argmax(1)labels).sum().item()num_tests len(labels)print(Test accuracy: , num_correct/num_tests)train accuracy: 0.7404494382022472 train accuracy: 0.7426966292134831 train accuracy: 0.7471910112359551 train accuracy: 0.7539325842696629 train accuracy: 0.7584269662921348 train accuracy: 0.7674157303370787 train accuracy: 0.7629213483146068 train accuracy: 0.7617977528089888 train accuracy: 0.7584269662921348 train accuracy: 0.7707865168539326 train accuracy: 0.7629213483146068 train accuracy: 0.7651685393258427 train accuracy: 0.7629213483146068 train accuracy: 0.7561797752808989 train accuracy: 0.7606741573033707 train accuracy: 0.7584269662921348 train accuracy: 0.7617977528089888 train accuracy: 0.7707865168539326 train accuracy: 0.7629213483146068 train accuracy: 0.7539325842696629Test accuracy: 0.26905829596412556效果非常一般 明显过拟合 应该和没有边特征节点特征信息不足有关。 参考 https://docs.dgl.ai/tutorials/blitz/5_graph_classification.html
http://www.yingshimen.cn/news/37403/

相关文章:

  • 做电商有哪些网站怎么建设网站百度搜索的到
  • 网站地图怎么做的wordpress后台如何设置为中文
  • 是做网站好还是做游戏好有什么免费的wordpress
  • wordpress创建页面地址设置深圳网站建设网站优化服务
  • 中国做民宿的网站搜索推广是什么意思
  • 网站服务器租用多少钱wordpress更改编辑器
  • 哪个网站做兼职猎头毕业设计代做网站价格
  • 建设一个类似淘宝的网站网站建设服务中企动力推荐
  • 临汾网站建设电话网站浏览排名
  • 领券购买网站是怎么做的自定义颜色 网站
  • 如何用ip地址做网站建个公司网站多少钱
  • 网站代码检查网站做用户登录
  • 密云区免费网站建设二道网站建设
  • 上海网站建设网页制作培训网上找客户渠道
  • 免费做公司电子画册的网站个人网站制作体会
  • 物流网站设计论文网页怎么做才美观
  • 网站建设都用那些软件wordpress转换emlog
  • 利用js做简单的网站怎么样做网页设计
  • 建设网站浩森宇特购物网站英语
  • 湖北住房和城乡建设厅官方网站高端定制网站公司哪家好
  • 查看网站是什么语言做的做婚恋网站有哪些
  • 一般网站模块做装修效果图的网站有哪些
  • 免费的wordpress账号成都seo培训机构
  • 如何查看网站备案信息吗有那个网站做外贸
  • 企业标准化建设百度竞价seo排名
  • 国家城乡与住房建设部网站网站建设遵循原则
  • 如何利用wordpress编辑网站网站二次开发是什么意思
  • 石家庄求做网站网络加速器哪个好
  • 网站开发大概要多少钱免费ppt模板可编辑
  • 网站地图生成器品牌网站建设浩森宇特