使用
在我的情况下,
但事实并非如此。 要重现,请考虑这些试验矩阵:
scipy
,我想计算广义特征值问题(请参阅此链接)。在我的情况下,
矩阵A
是对称的和实数的,尽管不是正定的(据我所知它不需要是)。矩阵B
是实数、对称和正定的。因此,scipy
算法eig
和eigh
都应该起作用,并且我期望它们产生相同的结果。但事实并非如此。 要重现,请考虑这些试验矩阵:
A = [[-0.19031723,-0.40125581],[-0.40125581,-0.19031723]]
B = [[1.0,0.38703254],[0.38703254,1.0]]
>>> scipy.linalg.eig(A,B)
# Eigenvalues:
[-0.42650264+0.j, 0.34412688+0.j]
# Eigenvectors:
[[-0.70710678, -0.70710678],[-0.70710678, 0.70710678]]
>>> scipy.linalg.eigh(A,B)
# Eigenvalues:
[-0.42650264, 0.34412688]
# Eigenvectors:
[[-0.60040137, 0.90316332],[-0.60040137, -0.90316332]]
这不仅在我的电脑上发生了,而且在不同的机器上也可以重现。
我很困惑,为什么两个算法中的特征向量不相同?我需要担心吗?
可复制的代码(例如在https://www.katacoda.com/courses/python/playground):
import scipy.linalg as la
A = [[-0.19031723,-0.40125581],[-0.40125581,-0.19031723]]
B = [[1.0,0.38703254],[0.38703254,1.0]]
print("Result of scipy.linalg.eig(A,B)")
print(la.eig(A,B))
print("------------------")
print("Result of scipy.linalg.eigh(A,B)")
print(la.eigh(A,B))