Hive:使用JDK8仍然出现“AppClassLoader无法转换为URLClassLoader”错误

11

安装完jdk9后,我一直看到这个问题:

$hive
Java HotSpot(TM) 64-Bit Server VM warning: Ignoring option MaxPermSize; support was removed in 8.0
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/local/Cellar/hive/2.3.1/libexec/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/local/Cellar/hadoop/2.8.1/libexec/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Exception in thread "main" java.lang.ClassCastException: java.base/jdk.internal.loader.ClassLoaders$AppClassLoader cannot be cast to java.base/java.net.URLClassLoader
    at org.apache.hadoop.hive.ql.session.SessionState.<init>(SessionState.java:394)
    at org.apache.hadoop.hive.ql.session.SessionState.<init>(SessionState.java:370)
    at org.apache.hadoop.hive.cli.CliSessionState.<init>(CliSessionState.java:60)
    at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:708)
    at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:686)
    at java.base/jdk.internal.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at java.base/jdk.internal.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at java.base/jdk.internal.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.base/java.lang.reflect.Method.invoke(Method.java:564)
    at org.apache.hadoop.util.RunJar.run(RunJar.java:234)
    at org.apache.hadoop.util.RunJar.main(RunJar.java:148)

但是我已经更新$PATH指向了Java8。

$java -version
java version "1.8.0_144"
Java(TM) SE Runtime Environment (build 1.8.0_144-b01)
Java HotSpot(TM) 64-Bit Server VM (build 25.144-b01, mixed mode)

更新 hive 可执行文件以指定java8

vi $(which hive)

#!/bin/bash
JAVA_HOME="$(/usr/libexec/java_home --version 1.8)" HIVE_HOME="/usr/local/Cellar/hive/2.3.1/libexec" exec "/usr/local/Cellar/hive/2.3.1/libexec/bin/hive" "$@"

已验证更新的Java版本确实指向JDK8

$/usr/libexec/java_home --version 1.8
/Library/Java/JavaVirtualMachines/jdk1.8.0_144.jdk/Contents/Home

我还应该在这里寻找什么?

这是在macOS上的hive 2.3.1

 $hive --version
Hive 2.3.1
Git git://jcamachorodriguez-rMBP.local/Users/jcamachorodriguez/src/workspaces/hive/HIVE-apache/hive -r 7590572d9265e15286628013268b2ce785c6aa08
Compiled by jcamachorodriguez on Thu Oct 19 18:37:58 PDT 2017
From source with checksum 03c91029a6103bd91f25a6ff8a01fbcd

1
有更新版本的Hive吗?自JDK 8以来,MaxPermSize已经过时。ClassCastException是Hive做出的一种假设,即系统类加载器是URLClassLoader(这在JDK 9中发生了变化,请参见此处的发布说明:http://www.oracle.com/technetwork/java/javase/9-relnote-issues-3704069.html#JDK-8142968)。 - Alan Bateman
1
如OP中所提到的,我已经更新指向JDK8以避免您提到的JDK9问题。 - WestCoastProjects
4个回答

4

我安装了jdk8并在hadoop-env.sh中相应地更改了路径,这对我起到了作用。


2
我在Ubuntu上尝试安装Hive时遇到了相同的问题。我安装了Hadoop 3.3.6和Hive 3.1.3。我同时安装了Java 11和Java 8。我尝试在shell中更改JAVA_HOME,但没有起作用。解决方案是将hadoop_env.sh中的JAVA_HOME从java11更改为java8,正如Legend-IDK上面提到的那样。现在Hive在我的Ubuntu笔记本电脑上可以工作了。

1

我遇到了同样的问题,我只是卸载了JDK 9而没有改变环境,问题就解决了。

看看hive,它使用

JAVA_HOME="$(/usr/libexec/java_home --version 1.7+)" 
HIVE_HOME="/usr/local/Cellar/hive/2.3.1/libexec" 
exec "/usr/local/Cellar/hive/2.3.1/libexec/bin/hive" "$@".

2
我需要在系统上安装JDK9。也许这种方法可以作为一种解决方法,但希望有一种基于配置的解决方案。 - WestCoastProjects

0

在设置Hive时,我遇到了同样的错误,最初我认为可能是因为不同的Java版本。

但是在检查Java版本时,它是jdk 1.8。

最后,在检查已安装的JDK目录(/Library/Java/JavaVirtualMachine)时,我发现jdk 1.8和jdk 10都存在。

我删除了jdk 10,最终问题得到解决。


网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接