我想要计算对数正态分布的均值和标准差,其中mu=0.4104857306,sigma=3.4070874277012617,我期望均值为500,标准差为600。但我不确定我做错了什么。以下是代码:
import scipy.stats as stats
import numpy as np
a = 3.4070874277012617
b = 0.4104857306
c = stats.lognorm.mean(a,b)
d = stats.lognorm.var(a,b)
e = np.sqrt(d)
print("Mean =",c)
print("std =",e)
以下是输出结果:
Mean = 332.07447304207903
sd = 110000.50047821256
提前感谢您。
编辑:
非常感谢您的帮助。我检查后发现有一些计算错误。现在我可以得到平均值=500,但仍然无法获得标准差=600。这是我使用的代码:
import numpy as np
import math
from scipy import exp
from scipy.optimize import fsolve
def f(z):
mean = 500
std = 600
sigma = z[0]
mu = z[1]
f = np.zeros(2)
f[0] = exp(mu + (sigma**2) / 2) - mean
f[1] = exp(2*mu + sigma**2) * exp(sigma**2 - 1) - std**2
return f
z = fsolve (f,[1.1681794012855686,5.5322865416282365])
print("sigma =",z[0])
print("mu =",z[1])
print(f(z))
sigma = 1.1681794012855686
mu = 5.5322865416282365
我已经尝试使用计算器检查结果,可以得到所需的std = 600,但是使用 lognorm.std(sigma,scale = np.exp(mu))
仍然会得到 853.5698320847896 。