秦皇岛建设网站官网,辽宁建设工程信息网发完公告后还能更改资格要求吗,著名软件开发公司,网络系统的主要设备有单机可以搭建伪分布式hadoop环境#xff0c;用来测试和开发使用#xff0c;hadoop包括#xff1a;
hdfs服务器
yarn服务器#xff0c;yarn的前提是hdfs服务器#xff0c;
在前面两个的基础上#xff0c;课可以搭建hive服务器#xff0c;不过hive不属于hadoop的必须部…单机可以搭建伪分布式hadoop环境用来测试和开发使用hadoop包括
hdfs服务器
yarn服务器yarn的前提是hdfs服务器
在前面两个的基础上课可以搭建hive服务器不过hive不属于hadoop的必须部分。
过程不要想的太复杂其实挺简单这里用最糙最快最直接的方法在我的单节点虚拟机上搭建一个hdfsyarnhive
首先要配置好Java的JAVA_HOME和PATHetc/hadoop/hadoop-env.sh里的JAVA_HOME要改为本机的JAVA_HOME还是有ssh本机的免密码登录。
然后下载hadoop安装包这个包就包括了hdfs服务器和yarn服务器的执行文件和配置脚本。解压后先配置 hdfs 服务器端主要是两个配置文件core-site.xml 和 hdfs-site.xml 这个site我估计就是服务器端配置的意思。我是用root用户配置和执行的 etc/hadoop/core-site.xml 这里9000是hfds服务器监听端口号这里要用自己的IP地址如果用127.0.0.1远程集群连不进来
configurationpropertynamefs.defaultFS/namevaluehdfs://172.32.155.57:9000/value/property/configuration
etc/hadoop/hdfs-site.xml dfs.namenode.name.dir 和 dfs.namenode.data.dir是服务器上存储元数据和数据的目录。
configurationpropertynamedfs.replication/namevalue1/value/propertypropertynamedfs.namenode.name.dir/namevalue/mnt/disk01/hadoop/dfs/name/value/propertypropertynamedfs.datanode.data.dir/namevalue/mnt/disk01/hadoop/dfs/data/value/property/configuration对上面配置的目录进行初始化/格式化 $ bin/hdfs namenode -format
执行sbin里的start-dfs.sh就可以启动hdfs文件系统服务器了,可以jps查看一下有哪些java进程 如果在本地服务器上执行
hdfs dfs -ls /
就可以查看hdfs上的文件了还可以用其它命令操作hdfs
hdfs dfs -mkdir /user/root
hdfs dfs -mkdir input
上面只是配置了hdfs服务器要想跑hive或mapreduce还需要配置和启动调度器yarn
etcd/hadoop/mapred-site.xml
configurationpropertynamemapreduce.framework.name/namevalueyarn/value/propertypropertynamemapreduce.application.classpath/namevalue$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*/value/property
/configurationetcd/hadoop/yarn-site.xml (这里 yarn.resourcemanager.hostname 要写自己的IPyarn.nodemanager.env-whitelist 设置Container的能继承NodeManager的哪些环境变量)
configuration!-- Site specific YARN configuration properties --propertynameyarn.resourcemanager.hostname/namevalue172.32.155.57/value/propertypropertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/propertypropertynameyarn.nodemanager.env-whitelist/namevalueJAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME/value/property/configurationMapReducer执行时会在NodeManager上创建Container在Container上执行TaskJAVA程序该程序需要环境变量如JDK、HADOOP_MAPRED_HOME…该参数就是 设置Container的能继承NodeManager的哪些环境变量。 -- 引自 HADOOP_MAPRED_HOME${full path of your hadoop distribution directory}-CSDN博客 启动yarn
start-yarn.sh
[rootneoap082 hadoop-3.3.6]# jps
430131 Jps
422691 ResourceManager
416862 NameNode
417388 SecondaryNameNode
422874 NodeManager
417082 DataNode 执行 mapreduce 任务java程序 $ bin/hdfs dfs -mkdir -p /user/root$ bin/hdfs dfs -mkdir input$ bin/hdfs dfs -put etc/hadoop/*.xml input$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar grep input output dfs[a-z.]$ bin/hdfs dfs -cat output/*
安装hive
hive的元数据一般使用mysql存储也可以使用hive自带的数据库derby如果使用derby那么hive的安装、配置、启动非常简单
先要单独下载hive 不需要修改任何hive的配置文件就是最简情况下只要配置好hdfs和yarn不需要配置hive。
但是第一次使用以前需要初始化 hive hdfs dfs -mkdir -p /user/hive/warehouse
bin/schematool -dbType derby -initSchema然后直接执行 bin目录下的hive这样就进入了hive命令行也启动了hive服务器这种只能用来学习测试不过也足够了。 CREATE TABLE basic_data_textfile ( k00 INT, k01 DATE, k02 BOOLEAN, k03 TINYINT, k04 SMALLINT, k05 INT , k06 BIGINT , k07 BIGINT, k08 FLOAT , k09 DOUBLE , k10 DECIMAL(9,1) , k11 DECIMAL(9,1) , k12 TIMESTAMP, k13 DATE , k14 TIMESTAMP, k15 CHAR(2), k16 STRING, k17 STRING , k18 STRING ) row format delimited fields terminated by \| ; # 从本地文件加载 load data local inpath /opt/doris_2.0/basic_data.csv into table basic_data; # 从hdfs路径加载 load data inpath /user/root/basic_data.csv into table basic_data_lzo; hive表数据是一个hdfs目录下的文件可以设置这些文件存储时的格式和压缩算法例如下面的basic_data_lzop表一lzo压缩压缩文件格式为lzop set hive.exec.compress.outputtrue; set mapred.output.compression.codeccom.hadoop.compression.lzo.LzopCodec; set io.compression.codecscom.hadoop.compression.lzo.LzopCodec; CREATE TABLE basic_data_lzop ( k00 INT, k01 DATE, k02 BOOLEAN, k03 TINYINT, k04 SMALLINT, k05 INT , k06 BIGINT , k07 BIGINT, k08 FLOAT , k09 DOUBLE , k10 DECIMAL(9,1) , k11 DECIMAL(9,1) , k12 TIMESTAMP, k13 DATE , k14 TIMESTAMP, k15 CHAR(2), k16 STRING, k17 STRING , k18 STRING ) row format delimited fields terminated by \| ; insert into basic_data_lzop select * from basic_data; basic_data_orc_snappy 表以orc格式存储数据块以snappy压缩 CREATE TABLE basic_data_orc_snappy ( k00 INT, k01 DATE, k02 BOOLEAN, k03 TINYINT, k04 SMALLINT, k05 INT , k06 BIGINT , k07 BIGINT, k08 FLOAT , k09 DOUBLE , k10 DECIMAL(9,1) , k11 DECIMAL(9,1) , k12 TIMESTAMP, k13 DATE , k14 TIMESTAMP, k15 CHAR(2), k16 STRING, k17 STRING , k18 STRING ) row format delimited fields terminated by \| stored as orc tblproperties (orc.compressSNAPPY); insert into basic_data_orc_snappy select * from basic_data_textfile;