为一系列2D电影帧生成频谱图

24

我有一些数据,由视频帧序列组成,代表相对于移动基线随时间变化的亮度变化。在这些视频中,有两种可能发生的“事件” - “本地化”事件,由聚集像素的小组亮度变化组成,以及影响框架大部分像素的污染性“扩散”事件:

enter image description here

我希望能够将亮度中的局部变化与扩散事件分离出来。我打算通过减去适当低通滤波版本的每个帧来实现此目的。为了设计最佳滤波器,我想知道框架的哪些空间频率在扩散和本地事件期间调制,即我想生成一个随时间变化的电影频谱图。

我可以找到很多关于为1D数据(例如音频)生成频谱图的信息,但是我还没有找到关于为2D数据生成频谱图的信息。到目前为止,我尝试过的是从帧的傅里叶变换生成2D功率谱,然后围绕DC分量进行极坐标变换,再沿角度平均得到1D功率谱:

enter image description here

然后将此应用于电影中的每个帧,并生成随时间变化的频谱功率的光栅图:

enter image description here

这个方法看起来合理吗?有没有更“标准”的方法来对2D数据进行谱分析?

以下是我的代码:

import numpy as np
# from pyfftw.interfaces.scipy_fftpack import fft2, fftshift, fftfreq
from scipy.fftpack import fft2, fftshift, fftfreq
from matplotlib import pyplot as pp
from matplotlib.colors import LogNorm
from scipy.signal import windows
from scipy.ndimage.interpolation import map_coordinates

def compute_2d_psd(img, doplot=True, winfun=windows.hamming, winfunargs={}):

    nr, nc = img.shape
    win = make2DWindow((nr, nc), winfun, **winfunargs)

    f2 = fftshift(fft2(img*win))
    psd = np.abs(f2*f2)
    pol_psd = polar_transform(psd, centre=(nr//2, nc//2))

    mpow = np.nanmean(pol_psd, 0)
    stdpow = np.nanstd(pol_psd, 0)

    freq_r = fftshift(fftfreq(nr))
    freq_c = fftshift(fftfreq(nc))
    pos_freq = np.linspace(0, np.hypot(freq_r[-1], freq_c[-1]), 
        pol_psd.shape[1])

    if doplot:
        fig,ax = pp.subplots(2,2)

        im0 = ax[0,0].imshow(img*win, cmap=pp.cm.gray)
        ax[0,0].set_axis_off()
        ax[0,0].set_title('Windowed image')

        lnorm = LogNorm(vmin=psd.min(), vmax=psd.max())
        ax[0,1].set_axis_bgcolor('k')
        im1 = ax[0,1].imshow(psd, extent=(freq_c[0], freq_c[-1], 
            freq_r[0], freq_r[-1]), aspect='auto', 
            cmap=pp.cm.hot, norm=lnorm)
        # cb1 = pp.colorbar(im1, ax=ax[0,1], use_gridspec=True)
        # cb1.set_label('Power (A.U.)')
        ax[0,1].set_title('2D power spectrum')

        ax[1,0].set_axis_bgcolor('k')
        im2 = ax[1,0].imshow(pol_psd, cmap=pp.cm.hot, norm=lnorm, 
            extent=(pos_freq[0],pos_freq[-1],0,360), 
            aspect='auto')
        ax[1,0].set_ylabel('Angle (deg)')
        ax[1,0].set_xlabel('Frequency (cycles/px)')
        # cb2 = pp.colorbar(im2, ax=(ax[0,1],ax[1,1]), use_gridspec=True)
        # cb2.set_label('Power (A.U.)')
        ax[1,0].set_title('Polar-transformed power spectrum')

        ax[1,1].hold(True)
        # ax[1,1].fill_between(pos_freq, mpow - stdpow, mpow + stdpow, 
        #   color='r', alpha=0.3)
        ax[1,1].axvline(0, c='k', ls='--', alpha=0.3)
        ax[1,1].plot(pos_freq, mpow, lw=3, c='r')
        ax[1,1].set_xlabel('Frequency (cycles/px)')
        ax[1,1].set_ylabel('Power (A.U.)')
        ax[1,1].set_yscale('log')
        ax[1,1].set_xlim(-0.05, None)
        ax[1,1].set_title('1D power spectrum')

        fig.tight_layout()

    return mpow, stdpow, pos_freq

def make2DWindow(shape,winfunc,*args,**kwargs):
    assert callable(winfunc)
    r,c = shape
    rvec = winfunc(r,*args,**kwargs)
    cvec = winfunc(c,*args,**kwargs)
    return np.outer(rvec,cvec)

def polar_transform(image, centre=(0,0), n_angles=None, n_radii=None):
    """
    Polar transformation of an image about the specified centre coordinate
    """
    shape = image.shape
    if n_angles is None:
        n_angles = shape[0]
    if n_radii is None:
        n_radii = shape[1]
    theta = -np.linspace(0, 2*np.pi, n_angles, endpoint=False).reshape(-1,1)
    d = np.hypot(shape[0]-centre[0], shape[1]-centre[1])
    radius = np.linspace(0, d, n_radii).reshape(1,-1)
    x = radius * np.sin(theta) + centre[0]
    y = radius * np.cos(theta) + centre[1]

    # nb: map_coordinates can give crazy negative values using higher order
    # interpolation, which introduce nans when you take the log later on
    output = map_coordinates(image, [x, y], order=1, cval=np.nan, 
        prefilter=True)
    return output

2
你所做的事情类似于数字半色调世界中所知的RAPS(径向平均功率谱),因此从一般意义上讲是有意义的,但不确定对于你的视频应用是否适用... - Jaime
我将通过对每个帧进行阈值处理来解决这个问题,以便仅将事件二值化,使用ndimage标记二值化的帧并检查数目/群集大小是否超过上限。 - Dschoni
@Dschoni,从那个具体的例子中并不是很清楚,但也有一些“本地化”的事件会同时在大量的圆形斑点(实际上是脑细胞)中表现出来,并且还有“扩散”的事件,它们仍然“模糊”,但影响到帧的更小部分。因此,在我这种情况下,阈值化每个帧的平均像素值(我认为这就是你建议的)可能效果不太好。我有一个半工作的解决方案,它使用时空ICA提取稀疏的空间和时间信号。 - ali_m
@ali_m:那么你基本上如何区分“事件”和噪声呢?据我所知,您会以某种方式(通过灰度值的变化?)进行区分,然后想要区分不同类型的事件。 - Dschoni
@ali_m:基本上,您可以将所有图像沿时间域堆叠,并拥有一个三维图像体积。然后,时间上的稀疏性变成了沿z轴的稀疏性,您可以对这些稀疏的三维斑点进行体积分析...只是随口想想。 - Dschoni
显示剩余4条评论
1个回答

2

我相信你所描述的方法通常是进行此分析的最佳方式。

然而,我在你的代码中发现了一个错误,如下:

np.abs(f2*f2)

如果你想计算复数数组f2的功率谱密度(PSD),你需要将f2乘以它的复共轭,而不是乘以它本身(|f2^2|与|f2|^2并不相同)。

因此,你应该这样做:

(f2*np.conjugate(f2)).astype(float)

或者,更加简洁地说:
np.abs(f2)**2.

在二维功率谱中的振荡是这种错误的一个明显标志(我自己也曾经犯过这种错误!)


网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接