第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號(hào)安全,請(qǐng)及時(shí)綁定郵箱和手機(jī)立即綁定

Spark整合Hive過(guò)程及遇到的問(wèn)題

標(biāo)簽:
大數(shù)據(jù) Spark

Spark整合Hive过程及遇到的问题

一、前置步骤

安装MySQL,创建用户(当然也可以直接用root用户)并授权

CREATE USER 'bigdata'@'%' IDENTIFIED BY '123568'; 
GRANT ALL PRIVILEGES ON hivedb.* TO 'bigdata'@'%' IDENTIFIED BY '123568' WITH GRANT OPTION;
FLUSH PRIVILEGES;

二、将hive-site.xml放到$SPARK_HOME/conf目录下(可以不安装Hive,只要有配置文件就好了)

<configuration>

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

<description>driver class</description>

</property>

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://127.0.0.1:3306/hive</value>

<description>mysql url</description>

</property>

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>spark</value>

<description>bigdata</description>

</property>

<property>

  <name>javax.jdo.option.ConnectionPassword</name>

  <value>123568</value>

  <description>mysql passwd</description>

</property>

</configuration>

三、添加驱动jar包(当然你也可以在运行是指定)

将mysql-connector-java-5.1.28.jar添加到$SPARK_HOME/jars目录下,并在$SPARK_HOME/conf下的spark-defaults.conf中

添加如下语句:

spark.executor.extraClassPath     $SPARK_HOME/jars/mysql-connector-java-5.1.22.jar:$SPARK_CLASSPATH

四、启动spark-sql

spark/bin/spark-sql --master spark://briup-vm:7077


五、异常

1、启动之后就碰到了问题


com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: Specified key was too long; max key length is 767 bytes

一直报这个错,后面查到了是因为hive需要设置数据库字符集为latin

解决办法:

查看字符集设置

SHOW VARIABLES LIKE 'character%';

如果character_set_database的值不是latin1,执行如下语句:

alter database hivedb character set latin1;

再试着启动spark-sql,如果还是不行,就将hivedb删除,再创建hivedb,然后use hivedb,再执行alter database hivedb character set latin1;

正常启动之后,查看hivedb中的表,其中DBS表中的DB_LOCATION_URI 中的值是你在spark-sql中创建的表的位置,

如果你发现你的这个值不是hadoop集群中的值(格式如hdfs://....),说明你没有把HADOOP_CONF_DIR export到你的环境变量中,所以你要在你的

/etc/profile或者.bashrc中添加

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

(如果你没有配置HADOOP_HOME,也需要配置,按理说如果没配HADOOP_HOME,那应该就没有搭HADOOP集群2333....)

然后你可以修改DBS表中的DB_LOCATION_URI,改成一个hdfs路径,这样你的表就会存放在集群上了

六、建表

在spark-sql中建表

 create table t_boy(
         > id int,
         > name string,
         > age int)
         > row format delimited
         > fields terminated by ','
         > ;

在mysql中执行select * from TBLS;可以看到你建的表哦!


點(diǎn)擊查看更多內(nèi)容
1人點(diǎn)贊

若覺得本文不錯(cuò),就分享一下吧!

評(píng)論

作者其他優(yōu)質(zhì)文章

正在加載中
感謝您的支持,我會(huì)繼續(xù)努力的~
掃碼打賞,你說(shuō)多少就多少
贊賞金額會(huì)直接到老師賬戶
支付方式
打開微信掃一掃,即可進(jìn)行掃碼打賞哦
今天注冊(cè)有機(jī)會(huì)得

100積分直接送

付費(fèi)專欄免費(fèi)學(xué)

大額優(yōu)惠券免費(fèi)領(lǐng)

立即參與 放棄機(jī)會(huì)
微信客服

購(gòu)課補(bǔ)貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動(dòng)學(xué)習(xí)伙伴

公眾號(hào)

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號(hào)

舉報(bào)

0/150
提交
取消