4 回答

TA貢獻1772條經(jīng)驗 獲得超6個贊
[Hadoop@master ~]$ cd $HIVE_HOME --進入Hive目錄
[hadoop@master hive]$ bin/hive --進入hive環(huán)境
hive> show databases; 顯示已有數(shù)據(jù)庫
hive> use test; 使用數(shù)據(jù)庫
hive> select * from test_1; 顯示表中數(shù)據(jù)

TA貢獻1834條經(jīng)驗 獲得超8個贊
hive是基于Hadoop的一個數(shù)據(jù)倉庫工具,可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射為一張數(shù)據(jù)庫表,并提供簡單的sql查詢功能,可以將sql語句轉(zhuǎn)換為MapReduce任務(wù)進行運行。其優(yōu)點是學習成本低,可以通過類SQL語句快速實現(xiàn)簡單的MapReduce統(tǒng)計,不必開發(fā)專門的MapReduce應(yīng)用,十分適合數(shù)據(jù)倉庫的統(tǒng)計分析。它提供了一系列的工具,可以用來進行數(shù)據(jù)提取轉(zhuǎn)化加載(ETL),這是一種可以存儲、查詢和分析存儲在 Hadoop中的大規(guī)模數(shù)據(jù)的機制。 (1).hive由FaceBook開源用于解決海量結(jié)構(gòu)化日志的數(shù)據(jù)統(tǒng)計。 (2).hive是基于hadoop的一個數(shù)據(jù)倉庫工具,可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射成一張表,并提供類SQL查詢功能。 (3).hive是構(gòu)建在hadoop之上的數(shù)據(jù)倉庫:
使用HQL語句作為查詢接口
使用HDFS進行存儲
使用mapreduce進行計算。 (4).hive本質(zhì)是:將HQL轉(zhuǎn)化成MapReduce程序。 (5).靈活和擴展性比較好:支持UDF,自定義存儲格式。 (6).適合離線處理。 (7).查詢和管理在分布式存儲的大的數(shù)據(jù)集(數(shù)據(jù)庫:增刪改查,hive不支持增刪該)。管理主要是對表的管理。

TA貢獻1884條經(jīng)驗 獲得超4個贊
步驟
Hive提供了jdbc驅(qū)動,使得我們可以連接Hive并進行一些類關(guān)系型數(shù)據(jù)庫的sql語句查詢等操作,首先我們需要將這些驅(qū)動拷貝到報表工程下面,然后再建立連接,最后通過連接進行數(shù)據(jù)查詢。
拷貝jar包到FR工程
將hadoop里的hadoop-common.jar拷貝至報表工程appname/WEB-INF/lib下;
將hive里的hive-exec.jar、hive-jdbc.jar、hive-metastore.jar、hive-service.jar、libfb303.jar、log4j.jar、slf4j-api.jar、slf4j-log4j12.jar拷貝至報表工程appname/WEB-INF/lib下。
配置數(shù)據(jù)連接
啟動設(shè)計器,打開服務(wù)器>定義數(shù)據(jù)連接,新建JDBC連接。
在Hive 0.11.0版本之前,只有HiveServer服務(wù)可用,在程序操作Hive之前,必須在Hive安裝的服務(wù)器上打開HiveServer服務(wù)。而HiveServer本身存在很多問題(比如:安全性、并發(fā)性等);針對這些問題,Hive0.11.0版本提供了一個全新的服務(wù):HiveServer2,這個很好的解決HiveServer存在的安全性、并發(fā)性等問題,所以下面我們分別介紹HiveServer和HiveServer2配置數(shù)據(jù)連接的方式。
HiveServer
數(shù)據(jù)庫驅(qū)動:org.apache.hadoop.hive.jdbc.HiveDriver;
URL:jdbc:hive://localhost:10000/default
注:hive服務(wù)默認端口為10000,根據(jù)實際情況修改端口;另外目前只支持默認數(shù)據(jù)庫名default,所有的Hive都支持。
測試連接,提示連接成功即可。
4
數(shù)據(jù)庫驅(qū)動:org.apache.hive.jdbc.HiveDriver;
URL:jdbc:hive2://localhost:10000/default
注:該連接方式只支持Hive0.11.0及之后版本。
添加回答
舉報