❶ 大數據伺服器主要應用的類型大致可分為幾類
(一) 直立式伺服器(塔式伺服器):
為可獨立放置於桌面或地面的伺服器,大都具有較多的擴充槽及硬碟空間。無需額外設備,插上電即可使用,因此使用最為廣泛。
(二) 機架式伺服器:
為可裝上機櫃之伺服器,主要作用為節省空間,機台高度以1U為單位,1U約44mm,因空間較局限,擴充性較受限制,例如1U的伺服器大都只有1到2個PCI擴充槽。此外,散熱性能成為十分重要的因素,此時,各家廠商的功力就在此展現了。缺點是需要有機櫃等設備,多為伺服器用量較大的企業使用。
(三) 刀片伺服器:
可算是比機架式伺服器更節省空間的產品。主要結構為一大型主體機箱,內部可插上許多卡片,一張卡片即相當於一台伺服器。當然,散熱性在此非常重要,往往各家廠商都裝上大型強力風扇來散熱。此型伺服器雖然空間較節省,但光是主體機箱部份可能就所費不貲,除大型企業外較少使用。
❷ 大數據的特徵有什麼
大數據的特徵是什麼?接下來就由小編來給大家解答。
大數據有4個特點,為別為:Volume(大量)、Variety(多樣)、Velocity(高速)、Value(價值),一般將這四個特點稱之為4V。
大量:大數據的特徵首先就體現為「大」,從先Map3時代,一個小小的MB級別的Map3就可以滿足很多人的需求,然而隨著時間的推移,存儲單位從過去的GB到TB,乃至現在的PB、EB級別。
多樣:廣泛的數據來源,決定了大數據形式的多樣性。任何形式的數據都可以產生作用,目前應用最廣泛的就是推薦系統,如淘寶,網易雲音樂、今日頭條等。
高速:大數據的產生非常迅速,主要通過互聯網傳輸。生活中每個人都離不開互聯網,也就是說每天個人每天都在向大數據提供大量的資料。伺服器中大量的資源都用於處理和計算數據,很多平台都需要做到實時分析。誰的速度更快,誰就有優勢。
價值:這也是大數據的核心特徵。現實世界所產生的數據中,有價值的數據所佔比例很小。
以上就是小編的一些回答,希望能夠有所幫助。
❸ 什麼是大數據什麼是大數據伺服器
大數據
大數據技術(big data),或稱巨量資料,指的是所涉及的資料量規模巨大到專無法通過目前主流軟屬件工具,在合理時間內達到擷取、管理、處理、並整理成為幫助企業經營決策更積極目的的資訊。(在維克托·邁爾-舍恩伯格及肯尼斯·庫克耶編寫的《大數據時代》中[2] 大數據指不用隨機分析法(抽樣調查)這樣的捷徑,而採用所有數據的方法)大數據的4V特點:Volume(大量)、Velocity(高速)、Variety(多樣)、value(價值)
大數據伺服器
一台或多台計算機和資料庫管理系統軟體共同構成了資料庫伺服器,資料庫伺服器為客戶應用提供服務,這些服務是查詢、更新、事務管理、索引、高速緩存、查詢優化、安全及多用戶存取控制等
小南國永生花
❹ 什麼是雲計算什麼是大數據二者有何聯系
雲計算的關鍵詞在於「整合」,無論你是通過現在已經很成熟的傳統的虛擬機切分型技術,還是通過google後來所使用的海量節點聚合型技術,他都是通過將海量的伺服器資源通過網路進行整合,調度分配給用戶,從而解決用戶因為存儲計算資源不足所帶來的問題。
大數據正是因為數據的爆發式增長帶來的一個新的課題內容,如何存儲如今互聯網時代所產生的海量數據,如何有效的利用分析這些數據等等。
他倆之間的關系你可以這樣來理解,雲計算技術就是一個容器,大數據正是存放在這個容器中的水,大數據是要依靠雲計算技術來進行存儲和計算的。
(4)伺服器大數據擴展閱讀:
雲計算常與網格計算、效用計算、自主計算相混淆。
網格計算:分布式計算的一種,由一群鬆散耦合的計算機組成的一個超級虛擬計算機,常用來執行一些大型任務;
效用計算:IT資源的一種打包和計費方式,比如按照計算、存儲分別計量費用,像傳統的電力等公共設施一樣;
自主計算:具有自我管理功能的計算機系統。
事實上,許多雲計算部署依賴於計算機集群(但與網格的組成、體系結構、目的、工作方式大相徑庭),也吸收了自主計算和效用計算的特點。
被普遍接受的雲計算特點如下:
(1) 超大規模
「雲」具有相當的規模,Google雲計算已經擁有100多萬台伺服器, Amazon、IBM、微軟、Yahoo等的「雲」均擁有幾十萬台伺服器。企業私有雲一般擁有數百上千台伺服器。「雲」能賦予用戶前所未有的計算能力。
(2) 虛擬化
雲計算支持用戶在任意位置、使用各種終端獲取應用服務。所請求的資源來自「雲」,而不是固定的有形的實體。應用在「雲」中某處運行,但實際上用戶無需了解、也不用擔心應用運行的具體位置。只需要一台筆記本或者一個手機,就可以通過網路服務來實現我們需要的一切,甚至包括超級計算這樣的任務。
(3) 高可靠性
「雲」使用了數據多副本容錯、計算節點同構可互換等措施來保障服務的高可靠性,使用雲計算比使用本地計算機可靠。
(4) 通用性
雲計算不針對特定的應用,在「雲」的支撐下可以構造出千變萬化的應用,同一個「雲」可以同時支撐不同的應用運行。
(5) 高可擴展性
「雲」的規模可以動態伸縮,滿足應用和用戶規模增長的需要。
(6) 按需服務
「雲」是一個龐大的資源池,你按需購買;雲可以像自來水,電,煤氣那樣計費。
大數據特徵:
1 容量(Volume):數據的大小決定所考慮的數據的價值和潛在的信息;
2 種類(Variety):數據類型的多樣性;
3 速度(Velocity):指獲得數據的速度;
4 可變性(Variability):妨礙了處理和有效地管理數據的過程。
5 真實性(Veracity):數據的質量
6 復雜性(Complexity):數據量巨大,來源多渠道
7 價值(value):合理運用大數據,以低成本創造高價值
想要系統的認知大數據,必須要全面而細致的分解它,著手從三個層面來展開:
第一層面是理論,理論是認知的必經途徑,也是被廣泛認同和傳播的基線。在這里從大數據的特徵定義理解行業對大數據的整體描繪和定性;從對大數據價值的探討來深入解析大數據的珍貴所在;洞悉大數據的發展趨勢;從大數據隱私這個特別而重要的視角審視人和數據之間的長久博弈。
第二層面是技術,技術是大數據價值體現的手段和前進的基石。在這里分別從雲計算、分布式處理技術、存儲技術和感知技術的發展來說明大數據從採集、處理、存儲到形成結果的整個過程。
第三層面是實踐,實踐是大數據的最終價值體現。在這里分別從互聯網的大數據,政府的大數據,企業的大數據和個人的大數據四個方面來描繪大數據已經展現的美好景象及即將實現的藍圖。
❺ 兩台伺服器手動部署大數據平台
兩台伺服器手動部署大數據平台
##### 初始伺服器數量
- 2台centos7
##### 建議配置
- 32G(RAM)
- 24cpu
- 10t(SATA)
### 1.環境
- 系統centos7
- jdk:1.8.0_171(64位)
- zookeeper:3.4.8
- spark-2.1.0-bin-hadoop2.6
- kafka_2.10-0.10.2.1
- hadoop-2.7.0
- hbase-1.2.6
- elasticsearch-6.3.0
### 2.系統准備
對應的安裝包文件:
elasticsearch-6.3.0.tar.gz
hadoop-2.7.0.tar.gz
hbase-1.2.6-bin.tar.gz
jdk-8u171-linux-x64.tar.gz
kafka_2.10-0.10.2.1.tgz
mysql-5.7.23-1.el7.x86_64.rpm-bundle.tar
spark2.1.0hadoop2.6.tgz.gz
zookeeper-3.4.8.tar.gz
一、 配置好hosts
```
兩台設備的host
ip1 hello1
ip2 hello2
關閉防火牆
systemctl stop firewalld
systemctl disable firewalld
二、機器之間做好免密
1. 在hello1伺服器中,cd /root/
2. ssh-keygen -trsa (全部按回車,走默認配置)
3. cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
4. chmod 600 ~/.ssh/authorized_keys
5. scp ~/.ssh/authorized_keys root@hello2:~/.ssh/
到此處時可以實現hello1機器上通過root賬戶登錄到hello2中,但從hello2中無法通過免密碼登錄到hello1伺服器。
6. 在hello2伺服器中,cd /root/
7. ssh-keygen -trsa (全部按回車,走默認配置)
8. cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
9. scp ~/.ssh/authorized_keys root@hello1:~/.ssh/
到此處時可以實現hello1機器與hello2機器之間免密碼互通
三、建立一個用戶操作elasticsearch用戶,後期所有安裝軟體放在該目錄下(當前使用root賬戶安裝)
1.添加用戶:
useradd -m -s /bin/bash es
2.為該用戶設置密碼:
password es
四、安裝JDK
如果系統自帶openjdk,先將其卸載掉!
1.創建jdk安裝路徑(hello1、hello2都執行)
執行: mkdir /usr/java
2.解壓縮jdk到安裝目錄
執行: tar -zxvf jdk-8u171-linux-x64.tar.gz -C /usr/java/
3.添加環境變數
vi /etc/profile,添加以下語句
export JAVA_HOME=/usr/java/jdk1.8.0_171
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
執行:source /etc/profile
4.復制安裝包和數據目錄到hello2
scp -r /usr/java/jdk1.8.0_171 hello2:/usr/java/
scp /etc/profile hello2:/etc/
登錄到hello2上,進入/home/es目錄
執行: source /etc/profile
5、驗證:
兩台伺服器上分別執行: java -version,查看輸出的版本是否與安裝的版本一致。
五、安裝mysql
1.如果centos系統中自帶mariadb,先卸載mariadb。
2.解壓mysql安裝包程序
執行:tar -xvf mysql-5.7.23-1.el7.x86_64.rpm-bundle.tar
3.依次安裝裡面rpm包組建
rpm -ivh mysql-community-common-5.7.23-1.el7.x86_64.rpm
rpm -ivh mysql-community-libs-5.7.23-1.el7.x86_64.rpm
rpm -ivh mysql-community-client-5.7.23-1.el7.x86_64.rpm
rpm -ivh mysql-community-server-5.7.23-1.el7.x86_64.rpm
rpm -ivh mysql-community-devel-5.7.23-1.el7.x86_64.rpm
4.啟動MySQL
執行: systemctl start mysqld
5.登錄mysql伺服器
這種方式安裝好後,會再my.cnf文件中自動生成一個密碼,
執行:cat /var/log/mysqld.log | grep password, 出現如下記錄:
2017-09-15T01:58:11.863301Z 1 [Note] A temporary password is generated for root@localhost: m-NdrSG4ipuO
其中「m-NdrSG4ipuO」為mysql root賬戶的初始密碼。
登錄:
執行: mysql -uroot -p
輸入密碼: m-NdrSG4ipuO,即可進入mysql伺服器。
後續可自行修改root密碼,創建新賬戶等操作。
六、安裝zookeeper
1.解壓zookeeper安裝包到指定目錄(/home/es)
tar -zxvf zookeeper-3.4.8.tar.gz -C /home/es
2.創建程序軟連接
cd /home/es/
ln -s zookeeper-3.4.8 zookeeper
3.添加執行路徑環境
vi /etc/profile
添加
export ZOOKEEPER_HOME=/home/es/zookeeper
export PATH=$PATH:$ZOOKEEPER_HOME/bin
執行
source /etc/profile
4.修改配置文件
cd /home/es/zookeeper
cp conf/zoo_sample.cfg conf/zoo.cfg
在/home/data下創建對應的zookeeper數據存儲目錄
mkdir /home/data/zookeeper
mkdir /home/data/zookeeper/data
mkdir /home/data/zookeeper/log
修改配置文件:conf/zoo.cfg,添加以下語句
dataDir=/home/data/zookeeper/data
dataLogDir=/home/data/zookeeper/log
server.1=hello1:2888:3888
server.2=hello2:2888:3888
5.創建server表示符文件
touch /home/data/zookeeper/data/myid
echo echo 1>/home/data/zookeeper/data/myid
6.復制安裝包和數據目錄到hello2
scp -r /home/es/zookeeper-3.4.8 es@hello2:/home/es
scp -r /home/data/zookeeper es@hello2:/home/data
scp /etc/profile es@hello2:/etc
登錄到hello2上
cd /home/es
ln -s zookeeper-3.4.8 zookeeper
echo echo 2>/home/data/zookeeper/data/myid
執行
source /etc/profile
7.兩台機器上分別執行
zkServer.sh start
8.驗證
jps | grep QuorumPeerMain,查看是否有該進程
zkServer.sh status,查看服務狀態
六、安裝kafka
1.解壓kafka安裝包到指定目錄(/home/es)
tar -zxvf kafka_2.10-0.10.2.1.tgz -C /home/es
2.創建程序軟連接
cd /home/es/
ln -s kafka_2.10-0.10.2.1 kafka
3.修改配置文件
備份:
cp config/server.properties config/server.properties.bak
創建kafka日誌目錄:
mkdir /home/data/kafka
mkdir /home/data/kafka/kafka-logs
修改:config/server.properties,具體對應欄位如下:
broker.id=0
delete.topic.enable=true
num.network.threads=10
num.io.threads=32
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/home/data/kafka/kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
zookeeper.connect=hello1:2181,hello2:2181
zookeeper.connection.timeout.ms=6000
6.復制安裝包和數據目錄到hello2
scp -r /home/es/kafka_2.10-0.10.2.1 es@hello2:/home/es
scp -r /home/data/kafka es@hello2:/home/data
修改hello2中的配置
登錄到hello2上,cd /home/es/kafka,修改config/server.properties中broker.id值為2.
7.啟動kafka
在兩台機器的/home/es/kafka中,創建一個日誌存放目錄:mkdir start_log,執行以下命令:
nohup bin/kafka-server-start.sh config/server.properties > start_log/kafka_start_log 2>&1 &
8.驗證運行情況
jps | grep Kafka,查看進程
通過kafka命令查看topic。
七、安裝hadoop
1.解壓hadoop安裝包到指定目錄(/home/es)
tar -zxvf hadoop-2.7.0.tar.gz -C /home/es
2.創建程序軟連接
cd /home/es/
ln -s hadoop-2.7.0 hadoop
3.創建數據存放目錄
mkdir /home/data/hadoop
mkdir /home/data/hadoop/tmp
mkdir /home/data/hadoop/dfs
mkdir /home/data/hadoop/dfs/data
mkdir /home/data/hadoop/dfs/name
4.修改配置文件
修改/home/es/hadoop/etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hello1:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/data/hadoop/tmp</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131702</value>
</property>
</configuration>
修改/home/es/hadoop/etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/data/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/data/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hello1:9001</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
修改/home/es/hadoop/etc/hadoop/mapred-site.xml
<configuration>
<property>
<name>maprece.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>maprece.jobhistory.address</name>
<value>hello1:10020</value>
</property>
<property>
<name>maprece.jobhistory.webapp.address</name>
<value>hello1:19888</value>
</property>
</configuration>
修改/home/es/hadoop/etc/hadoop/yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>maprece_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.maprece.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>hello1:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheler.address</name>
<value>hello1:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>hello1:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>hello1:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>hello1:8088</value>
</property>
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>768</value>
</property>
</configuration>
配置/home/es/hadoop/etc/hadoop目錄下hadoop-env.sh、yarn-env.sh的JAVA_HOME(不設置的話,啟動不了)
export JAVA_HOME=/usr/java/jdk1.8.0_171
配置/home/es/hadoop/etc/hadoop目錄下的slaves,刪除默認的localhost,增加2個從節點,
hello1
hello2
5、將配置好的Hadoop復制到各個節點對應位置上,通過scp傳送
scp -r /home/es/hadoop-2.7.0 hello2:/home/es/
scp -r /home/data/hadoop hello2:/home/data/
登錄到hello2上,進入/home/es目錄
執行: ln -s hadoop-2.7.0 hadoop
6、格式化nameNode及啟動hadoop
在主伺服器啟動hadoop,從節點會自動啟動,進入/home/es/hadoop目錄
初始化,輸入命令,bin/hdfs namenode -format
全部啟動sbin/start-all.sh,也可以分開sbin/start-dfs.sh、sbin/start-yarn.sh
輸入命令,jps,可以看到相關信息
7、驗證hadoop運行情況
瀏覽器打開http://hello1:8088/
瀏覽器打開http://hello1:50070/
8、添加hadoop環境變數到/etc/profile
export HADOOP_HOME=/home/es/hadoop export PATH=$PATH:$HADOOP_HOME/sbin
export PATH=$PATH:$HADOOP_HOME/bin
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
執行: source /etc/profile
八、安裝Hbase
1.解壓hbase安裝包到指定目錄(/home/es)
tar -zxvf hbase-1.2.6-bin.tar.gz -C /home/es
2.創建程序軟連接
cd /home/es/
ln -s hbase-1.2.6 hbase
3.添加hbase環境變數到/etc/profile
export HBASE_HOME=/home/es/hbase
export PATH=$HBASE_HOME/bin:$PATH
執行:source /etc/profile
4.修改HBASE配置文件
vi /home/es/hbase/conf/hbase-env.sh
增加: export JAVA_HOME=/usr/java/jdk1.8.0_171
修改: export HBASE_MANAGES_ZK=false
vi /home/es/hbase/conf/hbase-site.xml
修改類容:
<configuration>
<property>
<name>hbase.rootdir</name> <!-- hbase存放數據目錄 -->
<value>hdfs://hello1:9000/hbase/hbase_db</value>
<!-- 埠要和Hadoop的fs.defaultFS埠一致-->
</property>
<property>
<name>hbase.cluster.distributed</name> <!-- 是否分布式部署 -->
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name> <!-- list of zookooper -->
<value>hello1,hello2</value>
</property>
<property><!--zookooper配置、日誌等的存儲位置 -->
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/es/hbase/zookeeper</value>
</property>
</configuration>
配置regionservers,vi /home/es/hbase/conf/regionservers
去掉默認的localhost,加入hello1、hello2
5、將配置好的hbase復制到各個節點對應位置上,通過scp傳送
scp -r /home/es/hbase-1.2.6 hello2:/home/es/
scp /etc/profile hello2:/etc/
登錄到hello2上,進入/home/es目錄
執行: ln -s hbase-1.2.6 hbase
source /etc/profile
6、hbase的啟動
hello1中執行: start-hbase.sh
7、驗證hbase運行情況
輸入jps命令查看進程是否啟動成功,若 hello1上出現HMaster、HRegionServer、HQuormPeer,hello2上出現HRegionServer、HQuorumPeer,就是啟動成功了。
輸入hbase shell 命令 進入hbase命令模式,輸入status命令,查看運行狀態。
在瀏覽器中輸入http://hello1:16010就可以在界面上看到hbase的配置
注意事項:
正常安裝後,創建普通不帶壓縮表可以正常讀寫,當使用snappy進行壓縮創建表時,該表無法再regionServer中啟動!
解決方法:
1.在hbase-site.xml文件中添加一下屬性
<property>
<name>hbase.regionserver.codecs</name>
<value>snappy</value>
</property>
2.每台機器中將hadoop_native.zip解壓縮到hbase安裝目錄的lib下,執行 unzip hadoop_native.zip $HBASE_HOME/lib/
3.在$HBASE_HOME/conf/hbase-env.sh 中添加:export HBASE_LIBRARY_PATH=/home/es/hbase/lib/native
4.重啟Hbase服務即可
九、Spark安裝
1.解壓hbase安裝包到指定目錄(/home/es)
tar -zxvf spark2.1.0hadoop2.6.tgz.gz -C /home/es
2.創建程序軟連接
cd /home/es/
ln -s spark2.1.0hadoop2.6 spark
3.修改配置文件
mv /home/es/spark/conf/spark-env.sh.template /home/es/spark/conf/spark-env.sh
vi /home/es/spark/conf/spark-env.sh
修改對應配置:
export JAVA_HOME=/usr/java/jdk1.8.0_171
export SPARK_MASTER_IP=hello1
export SPARK_MASTER_PORT=7077
export SPARK_LOCAL_IP=hello1
修改slaves文件
mv /home/es/spark/conf/slaves.template /home/es/spark/conf/slaves
vi /home/es/spark/conf/slaves
將localhost修改成:
hello1
hello2
5、將配置好的hbase復制到各個節點對應位置上,通過scp傳送
scp -r /home/es/spark2.1.0hadoop2.6 hello2:/home/es/
登錄到hello2上,進入/home/es目錄
執行: ln -s spark2.1.0hadoop2.6 spark
在hello2中修改/home/es/spark/conf/spark-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_171
export SPARK_MASTER_IP=hello1
export SPARK_MASTER_PORT=7077
export SPARK_LOCAL_IP=hello2
6、啟動spark
cd /home/es/spark
執行: sbin/start-all.sh
7、檢測執行結果
jps | grep Worker,看是否有相應的進程。
十、安裝elasticsearch
由於elasticsearch,用root賬戶無法啟動,故該組件用es賬戶安裝
1、切換到es賬戶: su es
2、解壓hbase安裝包到指定目錄(/home/es)
tar -zxvf elasticsearch-6.3.0.tar.gz -C /home/es/
創建程序軟連接
cd /home/es/
ln -s elasticsearch-6.3.0 elasticsearch
3、修改配置文件
vi /home/es/elasticsearch/config/elasticsearch.yml
# 集群的名字
cluster.name: crrc-health
# 節點名字
node.name: node-1
# 數據存儲目錄(多個路徑用逗號分隔)
path.data: /home/data1/elasticsearch/data
# 日誌目錄
path.logs: /home/data1/elasticsearch/logs
#本機的ip地址
network.host: hello1
#設置集群中master節點的初始列表,可以通過這些節點來自動發現新加入集群的節點
discovery.zen.ping.unicast.hosts: ["hello1", "hello2"]
# 設置節點間交互的tcp埠(集群),(默認9300)
transport.tcp.port: 9300
# 監聽埠(默認)
http.port: 9200
# 增加參數,使head插件可以訪問es
http.cors.enabled: true
http.cors.allow-origin: "*"
4、創建elasticsearch數據和存儲目錄
mkdir /home/data1/elasticsearch
mkdir /home/data1/elasticsearch/data
mkdir /home/data1/elasticsearch/logs
5、修改linux系統的默認硬限制參數
切換至root用戶: su root
vim /etc/security/limits.conf
添加:
es soft nofile 65536
es hard nofile 65536
退出es登錄,重新用es賬戶登錄,使用命令:ulimit -Hn查看硬限制參數。
vi /etc/sysctl.conf
添加:
vm.max_map_count=655360
執行:
sysctl -p
6、將配置好的elasticsearch復制到各個節點對應位置上,通過scp傳送
scp -r /home/es/elasticsearch-6.3.0 hello2:/home/es/
scp -r /home/data1/elasticsearch hello2:/home/data1/
登錄到hello2上,進入/home/es目錄
執行: ln -s elasticsearch-6.3.0 elasticsearch-6.3.0
在hello2中修改/home/es/elasticsearch/config/elasticsearch.yml
修改: network.host: hello2
7、啟動elasticsearch
使用es賬戶
執行:
/home/es/elasticsearch/bin/elasticsearch -d
8、驗證
控制台中輸入:curl http://hello1:9200