当前位置: 首页 > news >正文

秦皇岛建设网站官网辽宁建设工程信息网发完公告后还能更改资格要求吗

秦皇岛建设网站官网,辽宁建设工程信息网发完公告后还能更改资格要求吗,著名软件开发公司,网络系统的主要设备有单机可以搭建伪分布式hadoop环境#xff0c;用来测试和开发使用#xff0c;hadoop包括#xff1a; hdfs服务器 yarn服务器#xff0c;yarn的前提是hdfs服务器#xff0c; 在前面两个的基础上#xff0c;课可以搭建hive服务器#xff0c;不过hive不属于hadoop的必须部…单机可以搭建伪分布式hadoop环境用来测试和开发使用hadoop包括 hdfs服务器 yarn服务器yarn的前提是hdfs服务器 在前面两个的基础上课可以搭建hive服务器不过hive不属于hadoop的必须部分。 过程不要想的太复杂其实挺简单这里用最糙最快最直接的方法在我的单节点虚拟机上搭建一个hdfsyarnhive 首先要配置好Java的JAVA_HOME和PATHetc/hadoop/hadoop-env.sh里的JAVA_HOME要改为本机的JAVA_HOME还是有ssh本机的免密码登录。 然后下载hadoop安装包这个包就包括了hdfs服务器和yarn服务器的执行文件和配置脚本。解压后先配置 hdfs 服务器端主要是两个配置文件core-site.xml 和 hdfs-site.xml 这个site我估计就是服务器端配置的意思。我是用root用户配置和执行的 etc/hadoop/core-site.xml 这里9000是hfds服务器监听端口号这里要用自己的IP地址如果用127.0.0.1远程集群连不进来 configurationpropertynamefs.defaultFS/namevaluehdfs://172.32.155.57:9000/value/property/configuration etc/hadoop/hdfs-site.xml dfs.namenode.name.dir 和 dfs.namenode.data.dir是服务器上存储元数据和数据的目录。 configurationpropertynamedfs.replication/namevalue1/value/propertypropertynamedfs.namenode.name.dir/namevalue/mnt/disk01/hadoop/dfs/name/value/propertypropertynamedfs.datanode.data.dir/namevalue/mnt/disk01/hadoop/dfs/data/value/property/configuration对上面配置的目录进行初始化/格式化 $ bin/hdfs namenode -format 执行sbin里的start-dfs.sh就可以启动hdfs文件系统服务器了,可以jps查看一下有哪些java进程 如果在本地服务器上执行 hdfs dfs -ls / 就可以查看hdfs上的文件了还可以用其它命令操作hdfs hdfs dfs -mkdir /user/root hdfs dfs -mkdir input 上面只是配置了hdfs服务器要想跑hive或mapreduce还需要配置和启动调度器yarn etcd/hadoop/mapred-site.xml  configurationpropertynamemapreduce.framework.name/namevalueyarn/value/propertypropertynamemapreduce.application.classpath/namevalue$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*/value/property /configurationetcd/hadoop/yarn-site.xml (这里 yarn.resourcemanager.hostname 要写自己的IPyarn.nodemanager.env-whitelist 设置Container的能继承NodeManager的哪些环境变量) configuration!-- Site specific YARN configuration properties --propertynameyarn.resourcemanager.hostname/namevalue172.32.155.57/value/propertypropertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/propertypropertynameyarn.nodemanager.env-whitelist/namevalueJAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME/value/property/configurationMapReducer执行时会在NodeManager上创建Container在Container上执行TaskJAVA程序该程序需要环境变量如JDK、HADOOP_MAPRED_HOME…该参数就是 设置Container的能继承NodeManager的哪些环境变量。 -- 引自  HADOOP_MAPRED_HOME${full path of your hadoop distribution directory}-CSDN博客 启动yarn start-yarn.sh [rootneoap082 hadoop-3.3.6]# jps 430131 Jps 422691 ResourceManager 416862 NameNode 417388 SecondaryNameNode 422874 NodeManager 417082 DataNode 执行 mapreduce 任务java程序 $ bin/hdfs dfs -mkdir -p /user/root$ bin/hdfs dfs -mkdir input$ bin/hdfs dfs -put etc/hadoop/*.xml input$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar grep input output dfs[a-z.]$ bin/hdfs dfs -cat output/* 安装hive hive的元数据一般使用mysql存储也可以使用hive自带的数据库derby如果使用derby那么hive的安装、配置、启动非常简单 先要单独下载hive 不需要修改任何hive的配置文件就是最简情况下只要配置好hdfs和yarn不需要配置hive。 但是第一次使用以前需要初始化 hive hdfs dfs -mkdir -p /user/hive/warehouse bin/schematool -dbType derby -initSchema然后直接执行 bin目录下的hive这样就进入了hive命令行也启动了hive服务器这种只能用来学习测试不过也足够了。 CREATE TABLE basic_data_textfile (     k00 INT,     k01 DATE,     k02 BOOLEAN,     k03 TINYINT,     k04 SMALLINT,     k05 INT    ,     k06 BIGINT ,     k07 BIGINT,     k08 FLOAT  ,     k09 DOUBLE ,     k10 DECIMAL(9,1) ,     k11 DECIMAL(9,1) ,     k12 TIMESTAMP,     k13 DATE ,     k14 TIMESTAMP,     k15 CHAR(2),     k16 STRING,     k17 STRING ,     k18 STRING    )  row format delimited fields terminated by \| ; # 从本地文件加载 load data local inpath /opt/doris_2.0/basic_data.csv into table basic_data; # 从hdfs路径加载 load data inpath /user/root/basic_data.csv into table basic_data_lzo; hive表数据是一个hdfs目录下的文件可以设置这些文件存储时的格式和压缩算法例如下面的basic_data_lzop表一lzo压缩压缩文件格式为lzop set hive.exec.compress.outputtrue; set mapred.output.compression.codeccom.hadoop.compression.lzo.LzopCodec; set io.compression.codecscom.hadoop.compression.lzo.LzopCodec; CREATE TABLE basic_data_lzop (     k00 INT,     k01 DATE,     k02 BOOLEAN,     k03 TINYINT,     k04 SMALLINT,     k05 INT    ,     k06 BIGINT ,     k07 BIGINT,     k08 FLOAT  ,     k09 DOUBLE ,     k10 DECIMAL(9,1) ,     k11 DECIMAL(9,1) ,     k12 TIMESTAMP,     k13 DATE ,     k14 TIMESTAMP,     k15 CHAR(2),     k16 STRING,     k17 STRING ,     k18 STRING    )  row format delimited fields terminated by \| ; insert into basic_data_lzop select * from basic_data; basic_data_orc_snappy 表以orc格式存储数据块以snappy压缩 CREATE TABLE basic_data_orc_snappy (     k00 INT,     k01 DATE,     k02 BOOLEAN,     k03 TINYINT,     k04 SMALLINT,     k05 INT    ,     k06 BIGINT ,     k07 BIGINT,     k08 FLOAT  ,     k09 DOUBLE ,     k10 DECIMAL(9,1) ,     k11 DECIMAL(9,1) ,     k12 TIMESTAMP,     k13 DATE ,     k14 TIMESTAMP,     k15 CHAR(2),     k16 STRING,     k17 STRING ,     k18 STRING    )  row format delimited fields terminated by \|  stored as orc tblproperties (orc.compressSNAPPY); insert into basic_data_orc_snappy select * from basic_data_textfile;
http://www.yingshimen.cn/news/79616/

相关文章:

  • 联通专线做网站php网站接入支付宝
  • 网站首页特效大连百度seo
  • 网站的域名起什么好处网站必做外链
  • 德育工作网站建设方案小程序模板是什么意思
  • 写作的网站哪个好建设网站的安全性
  • 期刊类网站建设成都网络优化托管公司
  • c 网站登录验证码怎么做昆山品牌设计公司
  • 免费安全正能量网站大全国外创意产品设计作品
  • 在百度上做购物网站上蔡网站建设公司
  • 成都企业建设网站WordPress页面支持文件上传
  • 做商城网站用什么框架网站推广的看法
  • 深圳黑马品牌网站设计阿里域名
  • seo建站教程wordpress 以年—月目录形式组织上传内容
  • 柬埔寨做网站网站聊城做网站的公司渠道
  • seo排名咨询包头seo哪家好
  • 青岛网站建设好不好怎么登录小程序平台
  • 潍坊可以做网站的公司中国商标网官方查询系统
  • 孝感英文网站建设网络建设公司排名
  • 做网站需要什么服务器配置网站建设实训报告册
  • 余姚网站建设报价台州网页设计招聘
  • 厦门中科做网站总打电话来企业文化内容范本
  • html电影网站模板下载麻涌网站仿做
  • 手机网站开发企业单页网站域名
  • 马鞍山网站建设服务开发正规招聘网站有哪些
  • 北京哪里能学做网站北京搬家公司收费价目表
  • 网站网页跳转如何建外贸网站
  • 网站开发技术的比较企业管理说白了是干嘛的
  • wordpress前端上传图片网站内容优化细节
  • 许昌 网站开发网站开发分包
  • 工艺品网站设计做瞹网站