精华内容
下载资源
问答
  • 提出了一种基于复杂网络的多维时间序列分析建模方法。 分析了收盘价的回报率顺序和上证指数,深成指,标准普尔500指数和道琼斯工业平均指数的交易量波动顺序。 二维时间序列被转换成一个复杂的网络。 我们分析网络的...
  • 复杂网络理论是时间序列分析中一种有力的工具,但在面对高频数据时,现有建网方法是低效的。因此,提出利用时间序列符号化技术压缩原始序列,并构造网络的方法。该方法使用最小二乘估计时序分段斜率,提取序列的局部...
  • 用幅度差的的方法将时间序列数据转换成复杂网络 并进行单位权值与点权的计算
  • 1. 时间序列 取9.5~10.5之间的随机数(保留两位小数),随机序列,组成100个数值的序列数据。 2.符号化时间序列 A∈【9.5,9.7);...定义不同符号化模式作为复杂网络节点,相邻模式之间转化频次确定节点之间连...

    1. 时间序列
    取9.5~10.5之间的随机数(保留两位小数),随机序列,组成100个数值的序列数据。
    在这里插入图片描述
    2.符号化时间序列
    A∈【9.5,9.7);B∈【9.7,9.9);C∈【9.9,10.1);D∈【10.1,10.3);E∈【10.3,10.5】.
    转化结果:ACAADEADBCABDCACBDBB…
    3.加权网络表征
    定义不同符号化模式作为复杂网络节点,相邻模式之间转化频次确定节点之间连边及权重。
    连边:AB,AC,AD, AE,BC,BD,BE,CD,CE,DE(不考虑相同模式自身的转化)。
    权重:某一模式出现频数/总频数
    在这里插入图片描述
    4. 结论

    复杂网络呈现的出小世界网络特征,应证了原时间序列是在一定范围内随机波动的序列数据。

    展开全文
  • 本篇笔记主要介绍使用可视图方法转换时间序列复杂网络的基本内容

    一、引言

    使用可视图方法转换时间序列为复杂网络的方法最早可以追溯到2008年Lucas Lacasa, Bartolo Luque, Fernando Ballesteros, Jordi Luque, and Juan Carlos Nun的论文《From time series to complex networks:
    The visibility graph》

    https://www.pnas.org/content/105/13/4972.full

    本篇笔记主要围绕该篇论文介绍使用可视图方法转换时间序列为复杂网络的相关内容。

    二、研究问题

    使用可视图方法转换时间序列为复杂网络,也就是通过可视图直观地展示时间序列映射后的复杂网络,此时的复杂网络继承了时间序列的属性。
    而该篇论文研究的核心思想,正是研究使用复杂网络的方法在多大程度上可以继承时间序列属性,从而用作表示时间序列方式的问题。
    研究将时间序列划分为ordered (periodic) series有序(周期)时间序列; random series随机时间序列;fractal series分形时间序列;并提出了最适宜其转换的复杂网络结构图。

    三、转换模式

    (一)有序(周期)时间序列

    有序时间序列可以转换为regular graphs 规则图,以论文中的数据为例,可以将下述时间序列转换为如下复杂网络
    Fig.1
    在这里插入图片描述

    Example of a time series (20 data values) and the associated graph derived from the visibility algorithm. In the graph, every node corresponds, in the same order, to series data. The visibility rays between the data define the links connecting nodes in the graph.

    Fig.1中时间序列数据的关系用landscape进行刻画,数据间的对应关系用visivility(可见性)进行描述。
    那么,在本篇论文中,如何描述数据间的可见性呢?其实很简单,论文中对可见性进行如下定义

    visibility line does not intersect any intermediate data height.

    可以把数值的柱状图想象成一座座高楼,可见线想象成站在高楼上的一个人的视线,这里的可见性其实就是描述站在柱状图,这个高楼的楼顶,能够看到其他哪些高楼(如果视线被高楼挡住了,那就不能被看见,这时候就是不存在可见性关系)
    这便是论文中所定义的可见性关系。
    我们可以把时间序列数据中的时间信息转换为复杂网络的节点位置信息,时间序列中的可见性关系转换为复杂网络中节点与节点间的连线关系,这种可见性的连接关系同样刻画了时间序列数据中数值的相对大小关系。这时候,时间序列数据的两个维度t(时间)和y(数值)维度就通过复杂网络进行可视化图的展示和描述了。
    为什么关系连线可以刻画数值关系呢?举个很简单的例子,有两个点A( t a t_a ta, y a y_a ya)和点B( t b t_b tb, y b y_b yb)存在可见性关系,这时候如果他们中间有其他节点C( t c t_c tc, y c y_c yc),那么此时点C的值一定满足公式 y c < y b + ( y a − y b ) ( t b − t c ) / ( t b − t a ) y_c<y_b+(y_a-y_b)(t_b-t_c)/(t_b-t_a ) yc<yb+(yayb)(tbtc)/(tbta)
    关于这一算法的复现,可参考Rgarcia Herrera前辈的代码

    由此观之,我们很容易发现,从时间序列数据中提取出的网络图存在如下三个性质。

    We can easily check that by means of the present algorithm, the associated graph extracted from a time series is always:
    Connected: each node sees at least its nearest neighbors (left and right).
    Undirected: the way the algorithm is built up, there is no direction defined in the links.
    Invariant under affine transformations of the series data: the visibility criterion is invariant under rescaling of both horizontal and vertical axes, and under horizontal and vertical translations .

    1. Connected
      连接关系,每个节点至少与左右两个邻近节点存在可见性关系
    2. Undirected
      无向性,此时刻画的复杂网络,节点间的路径不存在方向。

    不过,需要注意的是,虽然在该网络图中没有刻画方向,但其实复杂网络同样可以实现方向的描述,可以通过入度和出度数值进行刻画,入度记作 k i k_i ki n _n n,出度记作 k o k_o ko u _u u t _t t,即可实现有向图的刻画。

    1. Invariant under affine transformations of the series data
      在时间序列的仿射变换下仿射不变。仿射变化大概是描述数据经过水平轴和垂直轴按比例缩放变化或水平方向、垂直方向的平移变化。经过仿射变化后,可见性标准仍然保持不变

    在fig.1中特性3体现的不太明显,可以通过fig.2进行理解
    Fig.2
    在这里插入图片描述

    The visibility graph of a time series remains invariant under several transformation of the time series. (a) Original time series with visibility links. (b) Translation of the data. © Vertical rescaling. (d) Horizontal rescaling. (e) Addition of a linear trend to the data. As can be seen in the bottom diagram, in all these cases the visibility graph remains invariant.

    图2展示了另一种,由Zhang and Small (ZS)提出的转换方法,与图1的时间序列对象有所不同,ZS算法更关注伪周期时间序列,也就是表面上是随机的,实际上是有一定规律的时间序列数据。
    上述算法,都通过可见图保留和继承了时间序列数据中的规律。

    (二)随机时间序列数据

    随机时间序列数据在Mapping后被刻画为一种指数随机图。
    随机时间序列数据的选取,本文以“在[0,1]上的均匀分布提取的 1 0 6 10^6 106个数据值的时间序列数据”作为实验集进行展示。
    Fig.3
    在这里插入图片描述

    Random series. (Left) First 250 values of R(t), where R is a random series of 106 data values extracted from U[0,1]. (Right) Degree distribution P(k) of the visibility graph associated with R(t) (plotted in semilog). Although the beginning of the curve approaches the result of a Poisson process, the tail is clearly exponential. This behavior is due to data with large values (rare events), which are the hubs.

    用t刻画时间维度,可以得到时间t及其对应的(随机)时间取值R(t),如图3左图所示;k表示转化为复杂网络后的节点数量,P(k)表示对应度数k的出现概率,如图3右图所示。
    大量随机数据往往应当呈现泊松分布,不过我们可以发现,虽然分布图的曲线起点是接近泊松分布的,但是尾部数据是出现指数分布的。这是因为尾部数据指代的是那些拥有很大度的hub节点,应当是稀有事件,在时间序列数据中是很难发生的,因此,只要尾部的形式与枢纽分布有关,在这种情况下,我们应该期望的度尾部分布是指数分布exponential,而不是泊松分布Poissonian。

    (三)分形时间序列数据

    分形时间序列数据fractal series在Mapping后被刻画为一种无标度图。

    1.分形特性

    fractal series其实就是指代那些满足分形特性的时间序列数据,具体什么样的特性是分形特性,可以参考Matrix67前辈的博文👉Matrix67: The Aha Moments
    降维理解,分形就是通过扭曲图像的一小部分,生成新的形状,我们把这样的图形称作自相似图形。(如果不断迭代这样的过程,就会围成一个周长无限,但是面积却有限的图像。)
    在这里插入图片描述

    图片来源:Matrix67

    2.无标度特性

    无标度特性,是指代网络中的少数的Hub节点有极多的连接,大多数的节点只有少量的连接的特性,此时少数的Hub节点在网络中起主导作用,度分布符合幂律分布。

    3.分形时间序列数据转换为无标度网络的刻画

    Fig.4
    在这里插入图片描述
    Fig.5
    在这里插入图片描述

    以上内容仅为个人理解,如果有误,欢迎批评指正。

    展开全文
  • 这篇文章实现的算法来源于PNAS杂志: ... # coding: utf-8 from itertools import combinations import networkx as nx def visibility_graph(series): g = nx.Graph() # convert list of magnitudes into list of t

    这篇文章实现的算法来源于PNAS杂志:

    PNAS paper:From time series to complex networks:The visibility graph


    代码参考:

    # coding: utf-8
    import networkx as nx
    import matplotlib.pyplot as plt
    from itertools import combinations
    
    def visibility_graph(series):
        visibility_graph_edges=[]
        # convert list of magnitudes into list of tuples that hold the index
        tseries = []
        n = 1
        for magnitude in series:
            tseries.append( (n, magnitude ) )
            n += 1
    
        for a,b in combinations(tseries, 2):
            # two points, maybe connect
            (ta, ya) = a  #实现(1,2)(1,3)(1,4)(1,5)--(2,3)(2,4)(2,5)--(3,4)(3,5)--(4,5)任意两个边相互比较
            (tb, yb) = b
            connect = True
            medium=tseries[ta:tb-1]#此处需要多留意,ta是1到k,而tseris是从0下标开始  所以此处不能不是[ta+1:tb]
    
            for tc,yc in medium:
                #print yc,(yb + (ya - yb) * ( float(tb - tc) / (tb - ta) ))#一定要float(tb-tc)/(tb-ta)因为计算机里1/2为0,1.0/2才为0.5
                if yc > yb + (ya - yb) * ( float(tb - tc) / (tb - ta) ):
                        connect =False
            if connect:
                visibility_graph_edges.append((ta,tb))
        return visibility_graph_edges
    
    def DrawVisibilityGraph(graphEdges):
    
        G=nx.Graph()  #G=nx.Graph()无向图    G=nx.DiGraph()有向图
        #add the edge to graph G
        for i in graphEdges:
            G.add_edge(i[0],i[1])
    
        pos=nx.spring_layout(G)
        nx.draw_networkx_nodes(G,pos,node_size=700)
        nx.draw_networkx_edges(G,pos,width=5)
        nx.draw_networkx_labels(G,pos,font_size=20,font_family='sans-serif')
        #plt.savefig("test.png")   #save the picture
        plt.show()
    
    if __name__=="__main__":
       #time series
       series = [0.87,0.49,0.36,0.83,0.87]
       #get the graph edges
       graphEdges=visibility_graph(series)
       #draw the visibility graph
       DrawVisibilityGraph(graphEdges)
    
    

    代码运行结果:



    绘图参考链接:

    http://networkx.github.io/documentation/latest/examples/drawing/weighted_graph.html





    展开全文
  • 黎曼流形上混沌时间序列复杂网络
  • 使用VAR模型和复杂网络测度对多变量时间序列进行因果分析
  • 时间序列】时间卷积神经网络

    千次阅读 2021-05-20 00:16:48
    在深度学习的知识宝库中,除了前面文章中介绍的RNN,还有一个重要的分支:卷积神经网络(CNN),其广泛应用于视觉,视频等二维或者多维的图像领域。卷积网络具有深度,可并行等多种特性,这种技术...

    在深度学习的知识宝库中,除了前面文章中介绍的RNN,还有一个重要的分支:卷积神经网络(CNN),其广泛应用于视觉,视频等二维或者多维的图像领域。卷积网络具有深度,可并行等多种特性,这种技术是否可以应用于解单维度的时间序列问题呢?本文介绍一种最近提出的新技术:时间卷积神经网络 (Temporal Convolutional Network,TCN),由Lea等人于2016年首次提出,起初应用于视频里动作的分割,后逐渐拓展到了一般性时序领域。

    到目前为止,深度学习背景下的序列建模主题主要与递归神经网络架构(如LSTM和GRU)有关。然而,随着深度学习的高速发展,这种思维方式已经过时。在对序列数据进行建模时,最近很多学者将卷积网络作为主要候选者之一加以考虑。他们能够表明,在许多任务中,卷积网络可以取得比RNNs更好的性能,同时避免了递归模型的常见缺陷,如梯度爆炸/消失问题或缺乏内存保留。此外,使用卷积网络而不是递归网络可以提高性能,因为它允许并行计算输出

    时间序列预测,最容易想到的就是马尔可夫模型:

    就是计算某一个时刻的输出值,已知条件就是这个时刻之前的所有特征值。上面公式中,P表示概率,可以不用管这个, 表示k时刻的输出值(标签), 表示k时刻的特征值。

    如果使用LSTM或者是GRU这样的RNN模型,自然是可以处理这样的时间序列模型的,毕竟RNN生来就是为了这个的。但是这个时间序列模型,宏观上思考的话,其实就是对这个时刻之前的数据做某个操作,然后生成一个标签,回想一下在卷积在图像中的操作,其实有异曲同工。

    一维卷积

    相似于卷积神经网络,一维卷积网络以一个三维张量作为输入,也输出一个三维张量。输入张量具有形状(batch_size、input_length、input_size),而输出张量具有形状(batch_size、input_length、output_size)。由于每一层都有相同的输入和输出长度,所以只有输入和输出张量的第三维是不同的。在单变量情况下,input_size和output_size都等于1。在更一般的多变量情况下,input_size和output_size可能不同。

    为了了解单个层如何将其输入转换为输出,让我们看一下批处理的一个元素(对批处理中的每个元素都进行相同的处理)。让我们从最简单的例子开始,其中input_channels和output_channels都等于1。在这种情况下,我们看到的是一维输入和输出张量。下图显示了输出张量的一个元素是如何计算的。

    我们可以看到,要计算输出的一个元素,我们需要查看输入的一系列长度为kernel_size的连续元素。在上面的例子中,我们选择了一个3的kernel_size。为了得到输出,我们取输入的子序列和相同长度的已学习权值的核向量的点积。输出的下一个元素,相同的应用程序,但kernel_size-sized窗口的输入序列是由一个元素转移到正确的(对于本预测模型,stride 总是设置为1)。请注意,相同的一组内核权重将被用来计算每输出一个卷积层。下图显示了两个连续的输出元素及其各自的输入子序列。

    为了更直观的演示,我们来看下面这个例子:

    假设有一个时间序列,总共有五个时间点,比方说股市,有一个股票的价格波动:[10,13,12,14,15]:

    我们使用的卷积核大小为2,那么可想而知,对上面5个数据做一个卷积核为2的卷积是什么样子的:

    五个数据经过一次卷积,可以变成四个数据,但是每一个卷积后的数据都是基于两个原始数据得到的,所以说,目前卷积的视野域是2。

    可以看到是输入是5个数据,但是经过卷积,变成4个数据了,在图像中有一个概念是通过padding来保证卷积前后特征图尺寸不变,所以在时间序列中,依然使用padding来保证尺寸不变:

    padding是左右两头都增加0,如果padding是1的话,就是上图的效果,其实会产生6个新数据,但是秉着:“输入输出尺寸相同”和“我们不能知道未来的数据”,所以最后边那个未来的padding,就省略掉了,之后再代码中会体现出来。

    总之,现在我们大概能理解,对时间序列卷积的大致流程了,也就是对一维数据卷积的过程(图像卷积算是二维)。

    因果卷积

    对于因果关系,对于{0,…,input_length - 1}中的每一个i,输出序列的第i个元素可能只依赖于索引为{0,…,i}的输入序列中的元素。换句话说,输出序列中的元素只能依赖于输入序列中在它之前的元素。

    • 因果卷积(Causal Convolutions)是在wavenet这个网络中提出的,之后被用在了TCN中。

    如前所述,为了确保一个输出张量与输入张量具有相同的长度,我们需要进行零填充。如果我们只在输入张量的左侧填充零,那么就可以保证因果卷积。要理解这一点,请考虑最右边的输出元素。假设输入序列的右边没有填充,它所依赖的最后一个元素就是输入的最后一个元素。现在考虑输出序列中倒数第二个输出元素。与最后一个输出元素相比,它的内核窗口向左移动了1,这意味着它在输入序列中最右边的依赖项是输入序列中倒数第二个元素。根据归纳,对于输出序列中的每个元素,其在输入序列中的最新依赖项与其本身具有相同的索引。下图展示了一个input_length为4,kernel_size为3的示例。

    我们可以看到,在两个条目的左填充为零的情况下,我们可以获得相同的输出长度,同时遵守因果关系规则。事实上,在没有扩展的情况下,维持输入长度所需的零填充条目的数量总是等于kernel_size - 1。

    我们将上面的概念应用到之前的股票的预测的案例中,希望这个决策模型可以考虑到这个时间点之前的4个时间点的股票价格进行决策,总共有3种决策:

    • 0:不操作,1:买入,2:卖出

    所以其实就是一个分类问题。因为要求视野域是4,所以按照上面的设想,要堆积3个卷积核为2的1维卷积层:

    三次卷积,可以让最后的输出,拥有4个视野域。就像是上图中红色的部分,就是做出一个决策的过程。

    股票数据,往往是按照分钟记录的,那少说也是十万、百万的数据量,我们决策,想要考虑之前1000个时间点呢?视野域要是1000,那意味着要999层卷积?啥计算机吃得消这样的计算。所以需要引入膨胀因果卷积。

    膨胀因果卷积

    卷积层上下文中的膨胀是指输入序列的元素之间的距离,该元素用于计算输出序列的一个条目。因此,传统的卷积层可以看作是扩展度为1的扩散层,因为1个输出值的输入元素是相邻的。下图显示了一个扩展度为2的扩散层的示例,其input_length为4,kernel_size为3。

    与扩散度为1的情况相比,该层的接收场沿5而不是3的长度扩展。更普遍地,具有内核大小k的d扩散层的接收场沿1 + d的长度扩展。如果d是固定的,那么仍然需要输入张量的长度为线性的数字才能实现完全的接收场覆盖。

    这个问题可以通过在层中向上移动时d的值呈指数增加来解决。为此,我们选择一个常数b,它将使我们根据其下的层数i来计算特定层的膨胀d,即d = b^i。下图显示了一个网络,其中input_length为10,kernel_size为3,dilation_base为2,这将导致3个膨胀的卷积层完全覆盖。

    这里我们只显示影响输出最后一个值的输入的影响。同样,只显示最后一个输出值所必需的补零项。显然,最后的输出值依赖于整个输入覆盖率。实际上,给定超参数,input_length最多可以使用15,同时保持完全的接收野覆盖。一般来说,每增加一层,当前接受野宽度就增加一个d*(k-1)值,其中d计算为d=b^i, i表示新层下面的层数。因此,给出了基b指数膨胀时TCN的感受场宽度w、核大小k和层数n为

    然而,根据b和k的值,这个接受野可能会有“洞”。考虑以下网络,其dilation_base为3,内核大小为2:

    接受野的范围确实大于输入的大小(即15)。然而,接受野是有洞的;也就是说,在输入序列中有输出值不依赖的条目(如上面红色所示)。为了解决这个问题,我们需要将内核大小增加到3,或者将膨胀基数减小到2。一般来说,对于没有孔的感受野,核的大小k至少要与膨胀基b一样大。

    考虑到这些观察结果,我们可以计算出我们的网络需要多少层才能覆盖整个历史。给定核大小k,膨胀基b,其中k≥b,输入长度l,为了实现全历史覆盖,必须满足以下不等式:

    我们可以求解n,得到所需的最小层数

    我们可以看到,在输入长度方面,层数现在是对数的,而不是线性的。这是一个显著的改进,可以在不牺牲接受野覆盖率的情况下实现。

    现在,唯一需要指定的是每一层所需的零填充项的数量。假设膨胀基为b,核大小为k,当前层以下有i个层,则当前层所需的补零项数p计算如下:

    还是接着上面的例子,当扩展度为2的时候,与之前的区别有两个:

    • 看红色区域:可以看到卷积核大小依然是2,但是卷积核之间变得空洞了,隔过去了一个数据;如果dilation=3的话,那么可以想而知,这个卷积核中间会空的更大,会隔过去两个数据。

    • 看淡绿色数据:因为dilation变大了,所以相应的padding的数量从1变成了2,所以为了保证输入输出的特征维度相同,padding的数值等于dalition的数值(在卷积核是2的情况下,严格说:padding=(kernel_size-1)*dilation)

    然后我们依然实现上面那个例子,每次决策想要视野域为4:

    可以看到,第一次卷积使用dilation=1的卷积,然后第二次使用dilation=2的卷积,这样通过两次卷积就可以实现视野域是4.

    那么假设视野域要是8呢?那就再加一个dilation=4的卷积。dilation的值是2的次方,然后视野域也是2的次方的增长,那么就算是要1000视野域,那十层大概就行了。

    TCN的结构

    TCN基本就是一个膨胀因果卷积的过程,只是上面我们实现因果卷积就只有一个卷积层。而TCN的稍微复杂一点:

    • 卷积结束后会因为padding导致卷积之后的新数据的尺寸B>输入数据的尺寸A,所以只保留输出数据中前面A个数据;

    • 卷积之后加上个ReLU和Dropout层。

    • 然后TCN中并不是每一次卷积都会扩大一倍的dilation,而是每两次扩大一倍的dilation

    • 总之TCN中的基本组件:TemporalBlock()是两个dilation相同的卷积层,卷积+修改数据尺寸+relu+dropout+卷积+修改数据尺寸+relu+dropout

    小结

    TCN可以接受任意长度的序列,并将其输出为相同长度。因果卷积在使用一维全卷积网络结构时使用。一个关键的特征是t时刻的输出只与t之前的元素进行卷积。下图展示了一个基于TCN的“编码器-解码器”结构:

    随着严等人(2020)最近发表的有关TCN用于天气预报任务的研究成果,TCN上甚至出现了有关TCN的讨论。在他们的工作中,进行了TCN和LSTM的对比实验。他们的结果之一是,在其他方法中,TCN在时间序列数据的预测任务中表现良好。

    尽管卷积神经网络(CNNs)通常与图像分类任务相关,但经过适当的修改,它已被证明是进行序列建模和预测的有价值的工具。

    公众号:AI蜗牛车

    保持谦逊、保持自律、保持进步

    个人微信

    备注:昵称+学校/公司+方向

    如果没有备注不拉群!

    拉你进AI蜗牛车交流群

    展开全文
  • 网络游戏-基于可视角度测算的时间序列加权复杂网络构建方法.zip
  • 由于混沌系统的演化规律复杂,直接对混沌时间序列进行长期预测通常难以达到较好的效果.针对此问题,利用变分模态分解方法将混沌时间序列转化为一系列特征子序列,利用排列熵评估选取子序列个数的合理性,保证特征子序列...
  • 为了解决神经网络算法预测海量金融时间序列数据会出现训练速度慢,内存开销大等问题,提出一种基于最小二乘支持向量机的复杂金融数据时间序列预测方法。该方法将传统的支持向量机中的不等式约束改为等式约束,且将...
  • 从混沌时间序列中找到复杂网络中的隐藏社区
  • 综述了复杂网络理论应用于时间序列分析的研究进展。报道了对这些问题开展的一些探索性的工作,包括混合序列中不同成分的竞争、二维地貌的复杂网络描述、多种序列分析方法的联合应用等。
  • 行业分类-作业装置-基于复杂网络的生物活动时间序列分析方法和装置.7z
  • 网络游戏-基于复杂网络的城市湖库藻类水华混沌时间序列预测方法.zip
  • 复杂系统的历史故障数据出发,提出了一种基于长短期记忆(LSTM)循环神经网络的故障时间序列预测方法,包括网络结构设计、网络训练和预测过程实现算法等,进一步以预测误差最小为目标,提出了一种基于多层网格搜索的LSTM...
  • 复杂网络 用于创建复杂的地理空间时间序列数据网络的python库-此处为气候科学示例
  • 该算法首先对时间序列数据进行向量形式转换,计算出各个时间序列间的相似度并构建复杂网络,然后利用基于Normal矩阵的方法进行复杂网络社团划分,同一类的时间序列被划分到一个社团,即实现对时间序列数据的聚类。...
  • 这是一类相对比较复杂的预测建模问题,和回归分析模型的预测不同,时间序列模型是依赖于事件发生的先后顺序的,同样大小的值改变顺序后输入模型产生的结果是不同的。 举个栗子:根据过去两年某股票的每天的股价数据...
  • 基于时间序列网络流量分析与预测,何建,,随着计算机网络的迅速发展,目前的网络规模越来越庞大和复杂,相应面临对网络有效管理的要求就越来越高。本文通过对CERNET(China Educa
  • 以2000年~2010年中国股市深圳成指的收盘价数据为依据,利用可见图方法将指数时间序列转化为复杂网络,计算和分析了复杂网络的拓扑结构指标,发现该网络具有典型的小世界特征、无标度特征和自相似性,并针对网络所呈现的...
  • 然而,由于混沌时间序列高度复杂的非线性特征,很难从理论上定量研究。利用贝叶斯网络(BNs)在处理不确定知识方面的优势,并结合相空间重构理论,建立了混沌时间序列非线性全局预测模型,实现对其动力学特性分析,...
  • 我们演示有关温度预测问题的三个概念,我们使用建筑物屋顶上的传感器的时间数据序列。 概述 在本文中,我们将介绍三种提高循环神经网络性能和泛化能力的高级技术。在最后,您将了解有关将循环网络与Keras一起...
  • 估计波动率模型用RATS(Regression Analysis for Time Series, 时间序列的回归分析);实现神经网络和绘制PS格式的图形用S-Plus. 运行这些软件包所需的一些命令将在相应各章后的附录中给出.特别地,用来估计多元波动率...
  • 针对传统混沌时间序列预测模型的复杂性、低精度性和低时效性的缺点, 在倒差商连分式基础上提出全参数连分式模型, 并利用量子粒子群优化算法优化模型参数, 将参数优化问题转化为多维空间上的函数优化问题. 以二阶强迫...
  • 采用基于RBFNN的混合粒子群优化算法进行离散Henon和连续Mackey-Glass混沌时间序列预测仿真,结果表明该算法能快速精确地预测混沌时间序列,是研究复杂非线性动力系统辨识和控制的一种有效方法.</p>
  • 另一方面,RNN网络确实记住了之前的输入,但是处于一个非常复杂的水平。 我们再次输入“WISDOM”,并将其应用到一个复发性网络中。RNN网络中的单元或人造神经元在接收到“D”时也将其之前接收到的字符“S”作为...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 160,212
精华内容 64,084
关键字:

时间序列复杂网络