当前位置: 首页 > news >正文

怎样查别人网站的外链广东省自然资源厅8号文

怎样查别人网站的外链,广东省自然资源厅8号文,电子商务网站建设实训内容,手机房屋平面设计软件本篇文章授权活动官方亚马逊云科技文章转发、改写权#xff0c;包括不限于在 亚马逊云科技开发者社区, 知乎#xff0c;自媒体平台#xff0c;第三方开发者媒体等亚马逊云科技官方渠道。 #xff08;全球 TMT 2023年12月6日讯#xff09;亚马逊云科技在 2023 re:Invent 全…本篇文章授权活动官方亚马逊云科技文章转发、改写权包括不限于在 亚马逊云科技开发者社区, 知乎自媒体平台第三方开发者媒体等亚马逊云科技官方渠道。 全球 TMT 2023年12月6日讯亚马逊云科技在 2023 re:Invent 全球大会上宣布推出五项 Amazon SageMaker 新功能帮助客户加速构建、训练和部署大语言模型和其他基础模型。自2017年推出以来Amazon SageMaker已经新增了380多个功能和特性为客户提供了规模化构建、训练和部署可投入生产的大规模模型所需的一切。 亚马逊云科技开发者社区为开发者们提供全球的开发技术资源。这里有技术文档、开发案例、技术专栏、培训视频、活动与竞赛等。帮助中国开发者对接世界最前沿技术观点和项目并将中国优秀开发者或技术推荐给全球云社区。如果你还没有关注/收藏看到这里请一定不要匆匆划过点这里让它成为你的技术宝库 其中包括了一项新功能进一步增强了 Amazon SageMaker 的模型扩展能力并加速了模型的训练。此外Amazon SageMaker 推出的另一项新功能能够通过降低模型部署成本和延迟时间优化了管理托管的机器学习基础设施。亚马逊云科技还推出了新的 SageMaker Clarify 功能可以让客户在负责任地使用 AI 的基础上根据质量参数更轻松地选择正确模型。为了帮助客户在企业范围内应用这些模型亚马逊云科技还在 Amazon SageMaker Canvas 中引入了新的无代码功能让客户更快、更容易地使用自然语言指令准备数据。同时Amazon SageMaker Canvas 继续推动模型构建和定制的普及让客户更轻松地使用模型提取洞察、进行预测和使用企业专有数据生成内容。这些创新均基于 Amazon SageMaker 丰富的功能帮助客户实现规模化机器学习创新。 1. 模型训练速度和效果 一些测评显示Amazon SageMaker 在模型训练方面表现出色。其支持分布式训练利用弹性计算资源能够显著缩短训练时间。用户可以选择使用内置算法或自定义脚本根据实际需求选择合适的训练方式。此外自动模型调优功能可以帮助用户优化模型性能提高训练效果。 2. 部署和管理的便捷性 Amazon SageMaker 提供了简单而强大的模型部署功能。它支持一键式部署并提供实时和离线推理选项适用于不同的应用场景。此外SageMaker Studio 作为一体化的集成开发环境为用户提供了方便的模型管理和监控工具使整个部署和管理过程更加便捷。 SageMaker pytorch Mnist SageMaker 与 Kubeflow 一个区别就在于 在 Kubeflow 中我们可以为管道内各组件挂载相同 PV 卷使其运行在同一文件系统环境下,或者像 Elyra,为整个 Pipeline 配置一个 Minio 的 Bucket作为共同的文件系统工作环境 在 SageMaker 里我们会建立一个会话并设置默认存储桶 Bucket之后将要用于模型训练的数据集上传至该存储桶中 下载、转化并上传数据至 S3 为当前 SageMaker 会话设置默认 S3 存储桶 URI创建一个新文件夹 prefix然后将数据集上传至该文件夹下。 import sagemakersagemaker_session sagemaker.Session()bucket sagemaker_session.default_bucket() prefix sagemaker/DEMO-pytorch-mnistrole sagemaker.get_execution_role()### 下载数据 from torchvision.datasets import MNIST from torchvision import transformsMNIST.mirrors [https://sagemaker-sample-files.s3.amazonaws.com/datasets/image/MNIST/]MNIST(data,downloadTrue,transformtransforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]), )### 上传数据至 Amazon S3 inputs sagemaker_session.upload_data(pathdata, bucketbucket, key_prefixprefix) print(input spec (in this case, just an S3 path): {}.format(inputs))训练模型脚本 和 Kubeflow 一样准备一份可以直接运行的训练模型脚本 ### ------------------------ mnist.py --------------------------# Based on https://github.com/pytorch/examples/blob/master/mnist/main.pyimport argparse import json import logging import os import sysimport torch import torch.distributed as dist import torch.nn as nn import torch.nn.functional as F import torch.optim as optim import torch.utils.data import torch.utils.data.distributed from torchvision import datasets, transformslogger logging.getLogger(__name__) logger.setLevel(logging.DEBUG) logger.addHandler(logging.StreamHandler(sys.stdout))class Net(nn.Module):def __init__(self):...def forward(self, x):...def _get_train_data_loader(batch_size, training_dir, is_distributed, **kwargs):logger.info(Get train data loader)dataset datasets.MNIST(training_dir,trainTrue,transformtransforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]),)train_sampler (torch.utils.data.distributed.DistributedSampler(dataset) if is_distributed else None)return torch.utils.data.DataLoader(dataset,batch_sizebatch_size,shuffletrain_sampler is None,samplertrain_sampler,**kwargs)def _get_test_data_loader(test_batch_size, training_dir, **kwargs):logger.info(Get test data loader)return torch.utils.data.DataLoader(datasets.MNIST(training_dir,trainFalse,transformtransforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]),),batch_sizetest_batch_size,shuffleTrue,**kwargs)def _average_gradients(model):# Gradient averaging.size float(dist.get_world_size())for param in model.parameters():dist.all_reduce(param.grad.data, opdist.reduce_op.SUM)param.grad.data / sizedef train(args):is_distributed len(args.hosts) 1 and args.backend is not Nonelogger.debug(Distributed training - {}.format(is_distributed))use_cuda args.num_gpus 0logger.debug(Number of gpus available - {}.format(args.num_gpus))kwargs {num_workers: 1, pin_memory: True} if use_cuda else {}device torch.device(cuda if use_cuda else cpu)if is_distributed:# Initialize the distributed environment.world_size len(args.hosts)os.environ[WORLD_SIZE] str(world_size)host_rank args.hosts.index(args.current_host)os.environ[RANK] str(host_rank)dist.init_process_group(backendargs.backend, rankhost_rank, world_sizeworld_size)logger.info(Initialized the distributed environment: {} backend on {} nodes. .format(args.backend, dist.get_world_size()) Current host rank is {}. Number of gpus: {}.format(dist.get_rank(), args.num_gpus))# set the seed for generating random numberstorch.manual_seed(args.seed)if use_cuda:torch.cuda.manual_seed(args.seed)train_loader _get_train_data_loader(args.batch_size, args.data_dir, is_distributed, **kwargs)test_loader _get_test_data_loader(args.test_batch_size, args.data_dir, **kwargs)logger.debug(Processes {}/{} ({:.0f}%) of train data.format(len(train_loader.sampler),len(train_loader.dataset),100.0 * len(train_loader.sampler) / len(train_loader.dataset),))logger.debug(Processes {}/{} ({:.0f}%) of test data.format(len(test_loader.sampler),len(test_loader.dataset),100.0 * len(test_loader.sampler) / len(test_loader.dataset),))model Net().to(device)if is_distributed and use_cuda:# multi-machine multi-gpu casemodel torch.nn.parallel.DistributedDataParallel(model)else:# single-machine multi-gpu case or single-machine or multi-machine cpu casemodel torch.nn.DataParallel(model)optimizer optim.SGD(model.parameters(), lrargs.lr, momentumargs.momentum)for epoch in range(1, args.epochs 1):model.train()for batch_idx, (data, target) in enumerate(train_loader, 1):data, target data.to(device), target.to(device)optimizer.zero_grad()output model(data)loss F.nll_loss(output, target)loss.backward()if is_distributed and not use_cuda:# average gradients manually for multi-machine cpu case only_average_gradients(model)optimizer.step()if batch_idx % args.log_interval 0:logger.info(Train Epoch: {} [{}/{} ({:.0f}%)] Loss: {:.6f}.format(epoch,batch_idx * len(data),len(train_loader.sampler),100.0 * batch_idx / len(train_loader),loss.item(),))test(model, test_loader, device)save_model(model, args.model_dir)def test(model, test_loader, device):model.eval()test_loss 0correct 0with torch.no_grad():for data, target in test_loader:data, target data.to(device), target.to(device)output model(data)test_loss F.nll_loss(output, target, size_averageFalse).item() # sum up batch losspred output.max(1, keepdimTrue)[1] # get the index of the max log-probabilitycorrect pred.eq(target.view_as(pred)).sum().item()test_loss / len(test_loader.dataset)logger.info(Test set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n.format(test_loss, correct, len(test_loader.dataset), 100.0 * correct / len(test_loader.dataset)))# 当estimator.deploy时需要显式定义出model_fn方法 def model_fn(model_dir):device torch.device(cuda if torch.cuda.is_available() else cpu)model torch.nn.DataParallel(Net())with open(os.path.join(model_dir, model.pth), rb) as f:model.load_state_dict(torch.load(f))return model.to(device)# 部署函数的参数允许我们设置将用于端点的实例的数量和类型。这些值不需要与我们训练模型时设置的值相同。我们可以在一组基于 GPU 的实例上训练模型然后在终端上部署基于CPU的模型实例但这需要我们确保将模型返回或另存为 CPU 模型 # 因此建议将模型返回或另存为 CPU 模型 def save_model(model, model_dir):logger.info(Saving the model.)path os.path.join(model_dir, model.pth)torch.save(model.cpu().state_dict(), path)if __name__ __main__:parser argparse.ArgumentParser()# 模型训练参数parser.add_argument(--batch-size,typeint,default64,metavarN,helpinput batch size for training (default: 64),)parser.add_argument(--test-batch-size,typeint,default1000,metavarN,helpinput batch size for testing (default: 1000),)parser.add_argument(--epochs,typeint,default10,metavarN,helpnumber of epochs to train (default: 10),)parser.add_argument(--lr, typefloat, default0.01, metavarLR, helplearning rate (default: 0.01))parser.add_argument(--momentum, typefloat, default0.5, metavarM, helpSGD momentum (default: 0.5))parser.add_argument(--seed, typeint, default1, metavarS, helprandom seed (default: 1))parser.add_argument(--log-interval,typeint,default100,metavarN,helphow many batches to wait before logging training status,)parser.add_argument(--backend,typestr,defaultNone,helpbackend for distributed training (tcp, gloo on cpu and gloo, nccl on gpu),)# 与 SageMaker 相关的环境参数parser.add_argument(--hosts, typelist, defaultjson.loads(os.environ[SM_HOSTS]))parser.add_argument(--current-host, typestr, defaultos.environ[SM_CURRENT_HOST])parser.add_argument(--model-dir, typestr, defaultos.environ[SM_MODEL_DIR])parser.add_argument(--data-dir, typestr, defaultos.environ[SM_CHANNEL_TRAINING])parser.add_argument(--num-gpus, typeint, defaultos.environ[SM_NUM_GPUS])train(parser.parse_args()) 但这里我们还需要通过访问环境变量获取部分有关训练环境的属性 SM_HOSTS: 包含所有主机的 JSON 编码列表在 Pytorch 中该列表长度等于 WORLD_SIZE SM_CURRENT_HOST: 当前容器名称在 Pytorch 中该容器序号等于 RANK SM_MODEL_DIR: 模型的保存路径该模型之后将上传至 S3; SM_NUM_GOUS: 当前容器可用的 GPU 数 注 Pytorch 分布式训练时dist.init_process_group(backend, rank, world_size)需要用到 WORLD_SIZE、RANK。 若在调用 PyTorch Estimator 的 fit() 方法时使用了名为 training 的输入通道则按照以下格式设置 SM_CHANNEL_[channel_name]: SM_CHANNEL_TRAINING: 输入通道 training 中数据的存储路径 该训练脚本从输入通道 training 的指定路径下加载数据使用超参数配置训练训练模型并将模型保存至 model_dir以便稍后托管。超参数作为参数传递给脚本可以使用 argparse.ArgumentParser 实例进行检索。 在 SageMaker 中训练 from sagemaker.pytorch import PyTorchestimator PyTorch(entry_pointmnist.py,rolerole,py_versionpy38,framework_version1.11.0,instance_count2,instance_typeml.c5.2xlarge,hyperparameters{epochs: 1, backend: gloo}, )estimator.fit({training: inputs})sagemaker.pytorch.estimator.PyTorch 是 sagemaker 针对 Pytorch 开发的 Estimator,包含以下主要参数 entry_point 训练脚本的执行入口 py_version、framework_version python 及 pytorch 的版本SageMaker 将分配满足该版本要求的计算资源 instance_count、instance_type 计算资源的数量、类型 hyperparameters 训练脚本的超参数 image_uri 若指定Estimator 将使用此 Image 作为训练和部署的运行环境而 py_version、framework_version 将失效image_uri 必须是 ECR url 或 dockerhub image 部署并测试该模型 mnist.py 中model_fn 方法需要由我们显式定义出来而 input_fn, predict_fn, output_fn 和 transform_fm 已经默认定义在 sagemaker-pytorch-containers 中。 ### 部署该 Predictor predictor estimator.deploy(initial_instance_count1, instance_typeml.m4.xlarge)### 生成测试数据 import gzip import numpy as np import random import osdata_dir data/MNIST/raw with gzip.open(os.path.join(data_dir, t10k-images-idx3-ubyte.gz), rb) as f:images np.frombuffer(f.read(), np.uint8, offset16).reshape(-1, 28, 28).astype(np.float32)mask random.sample(range(len(images)), 16) # randomly select some of the test images mask np.array(mask, dtypenp.int) data images[mask]### 测试该Predictor response predictor.predict(np.expand_dims(data, axis1)) print(Raw prediction result:) print(response) print()labeled_predictions list(zip(range(10), response[0])) print(Labeled predictions: ) print(labeled_predictions) print()labeled_predictions.sort(keylambda label_and_prob: 1.0 - label_and_prob[1]) print(Most likely answer: {}.format(labeled_predictions[0]))### 删除部署端点并释放资源 sagemaker_session.delete_endpoint(endpoint_namepredictor.endpoint_name)3. 使用 Amazon SageMaker Studio 可提高生产率这是第一个用于机器学习的完全集成式开发环境 (IDE) Amazon SageMaker Studio 提供了一个基于 Web 的单一视觉界面您可以在其中执行所有 ML 开发步骤。对于构建、训练和部署模型所需的每个步骤SageMaker Studio 为您提供了完整的访问、控制权和可见性。您可以快速上传数据、新建笔记本、训练和调试模型、在各个步骤之间来回移动从而实现在一处调整实验、比较结果并将模型部署到生产环境中使您的生产效率大大提高。可以在统一的 SageMaker Studio 可视界面中执行所有的 ML 开发活动包括笔记本、实验管理、自动模型创建调试和模型偏差检测。 4. 使用 Amazon SageMaker 笔记本加速构建和协作 通过管理计算实例来查看、运行或共享笔记本非常繁琐。Amazon SageMaker 笔记本提供了一键式 Jupyter 笔记本使您能够在几秒钟之内立即开始工作。底层的计算资源具有充分的弹性因此您可以轻松地调高或调低可用资源并且后台会自动进行更改而不会中断您的工作。SageMaker 还支持一键分享笔记本。所有代码依赖项都是自动捕获的因此您可以与他人轻松协作。他们会得到保存在同一位置的完全相同的笔记本。 5. 借助 Amazon SageMaker Autopilot 自动构建、训练和调试完全可视和可控的模型 Amazon SageMaker Autopilot 是业界首个自动机器学习工具实现了 ML 模型的完全控制和可见性。典型的自动化机器学习方法无法让您深入了解用于创建模型的数据或模型创建背后的逻辑。因此即使是普通的模型也无法使之进化。另外由于典型的自动化 ML 解决方案只能提供一个模型供选择因此您无法灵活地权衡例如牺牲一些准确性实现较低延迟的预测。 SageMaker Autopilot 会自动检查原始数据、应用特色处理器、选择最佳算法集、训练和调试多个模型、跟踪其性能并在随后根据性能对模型进行排名所有这些仅需几次单击。其结果是部署性能最佳的模型所花费的时间只有该模型通常所需训练时间的几分之一。模型的创建方式以及内容对您完全可见并且 SageMaker Autopilot 与 Amazon SageMaker Studio 相集成。在 SageMaker Studio 中您可以了解多达 50 种由 SageMaker Autopilot 生成的不同模型轻松地为您的用例选择最佳模型。没有机器学习经验的人可以使用 SageMaker Autopilot 轻松生成模型而经验丰富的开发人员使用它可以快速开发出基础模型供团队进一步迭代。 6. 使用 Amazon SageMaker Ground Truth 将数据标记成本降低多达 70% 成功的机器学习模型是建立在大量高质量训练数据的基础上的。但是建立这些模型所需的训练数据的创建过程往往非常昂贵、复杂和耗时。Amazon SageMaker Ground Truth 可帮助您快速构建和管理高度准确的训练数据集。通过 Amazon Mechanical TurkGround Truth 提供了对标签机的便捷访问并为它们提供了预构建工作流和接口用于执行常见的标记任务。您还可以使用自己的标签机或通过亚马逊云科技 Marketplace 使用 Amazon 推荐的供应商。此外Ground Truth 还不断学习人类制作的标签制作高质量的自动注释显著降低标记成本。 7. Amazon SageMaker 支持领先的深度学习框架 支持的框架包括TensorFlow、PyTorch、Apache MXNet、Chainer、Keras、glion、Horovod、Scikit-learn 和 Deep Graph Library。 使用体验 Amazon SageMaker 在模型部署方面表现卓越通过多样的部署选项包括云端和边缘计算实现了极大的灵活性。一键式部署简化了流程使用户能够迅速将模型推送到生产环境。支持多模型部署提高了资源利用率而实时和离线推理选项满足了不同场景的需求。SageMaker Studio 作为集成开发环境提供便捷的模型管理工具加强了整个部署过程的便捷性。这些特点使 SageMaker 在机器学习模型部署领域脱颖而出为用户提供了全方位的灵活、简便、适应各种场景的解决方案。 总结 综合来看Amazon SageMaker 在机器学习生命周期的各个阶段都提供了强大的功能和灵活性。其性能和便捷性得到了用户的一致好评。然而一些用户也提到了成本方面的考虑因此在选择时需要权衡各种因素。总体而言Amazon SageMaker 在云端机器学习服务中占据着重要地位为用户提供了一体化的解决方案有助于简化和优化机器学习工作流程。 文章来源智能部署之巅Amazon SageMaker 引领机器学习革新
http://www.yingshimen.cn/news/20048/

相关文章:

  • 桥东区网站建设wordpress 文章背景色
  • 佛山响应式网站公司中国建设银行官方网
  • 网站加入我们页面网站备案管局电话
  • 有没有高质量的网站都懂的公司可以备案几个网站
  • 衡水做企业网站的价格10个网站做站群
  • 网站建设提成微网站ui多少钱
  • 做外贸需要建英文网站吗西安黄页
  • 万户网站建设公司遵义网站建设托管公司
  • 直播课网站怎样做的网页设计个人主页模板图片
  • wordpress前端登录插件关于seo的行业岗位有哪些
  • php做的购物网站系统下载运营哪里学的比较专业
  • 做网站找哪个软件用邮箱做网站
  • 菜篮网网站开发技术南京网站建设南京
  • 制作微信公众号的网站查询网站whois
  • 江西网站建设技术类似稿定设计的网站
  • 做网站的框架做网站收入
  • 广东广州重大新闻模版网站可以做seo吗
  • 医药网站建设宝安中心区范围
  • 有哪些国外网站做的好的效果图公司网站建设 wordpress
  • 太原网站建设信息推荐做个网页大概多少钱
  • 网站中的搜索功能怎么做最好网站开发公司电话
  • 广西响应式网站建设iis怎么做IP网站
  • 邯郸企业网站建设费用网站建设 图片上传
  • 创建一个网站 优帮云网站后缀tw
  • 可以做女的游戏视频网站电脑配置会影响wordpress吗
  • 广西网站建设开发外包网页传奇血饮龙纹攻略
  • 工商公司注册核名查询杭州最专业的seo公司
  • 专业公司做网站网页制作的网站
  • 商业空间设计案例分析厦门seo收费
  • 高校校园网站建设培训班电子商务网站开发与设计