Introdução


SSA ou análise de espectro singular é uma nova técnica de análise de séries temporais que incorpora os elementos da análise clássica de séries temporais, estatísticas multivariadas, geometria multivariada, sistemas dinâmicos e processamento de sinais.

Apesar do fato que muitos elementos probabilísticos e estatísticos são empregados nos métodos baseados em SSA, relacionados à estacionariedade, ergodicidade, componentes principais e técnicas de bootstrap, o SSA não é um método estatístico em termos de estatística clássica.

Em particular, normalmente não fazemos nenhuma suposição estatística em relação ao sinal ou ao ruído ao realizar a análise e investigar as propriedades dos algoritmos.



1 Análise SSA de séries temporais


O nascimento da SSA é geralmente associado à publicação dos artigos de Broomhead and King (1986a, 1986b) e Broomhead et al. (1987). Desde então, a técnica tem atraído muita atenção. Atualmente, os trabalhos que tratam dos aspectos metodológicos e aplicações da SSA chegam a várias centenas; ver, por exemplo, Vautard et al. (1992), Ghil and Taricco (1997), Allen and Smith (1996), Danilov and Zhigljavsky (1997), Yiou et al. (2000) e as referências nele contidas. Uma introdução elementar ao assunto pode ser encontrada no recente livro de Elsner and Tsonis (1996).

O SSA provou ser muito bem-sucedido e já se tornou uma ferramenta padrão na análise de séries temporais climáticas, meteorológicas e geofísicas; ver, por exemplo, Vautard and Ghil (1989), Ghil and Vautard (1991) e Yiou et al. (1996). Portanto, não é surpreendente que entre os principais periódicos que publicam trabalhos de pesquisa relacionados à SSA estejam o Journal of Climate, o Journal of the Atmospheric Sciences e o Journal of Geophysical Research.

Vamos nos voltar para a descrição do SSA. A versão básica do SSA consiste em quatro etapas, que são executadas da seguinte maneira:



O esquema básico do SSA para análise de séries temporais e algumas modificações deste esquema são conhecidos na literatura SSA citada acima. Observe que o SSA é geralmente considerado como um método de identificação e extração de componentes oscilatórios da série original; ver, por exemplo, Yiou et al. (1996), Ghil and Taricco (1997), Fowler and Kember (1998).

A literatura SSA padrão, no entanto, não dá atenção suficiente aos aspectos teóricos que são muito importantes para entender como selecionar os parâmetros SSA e, em primeiro lugar, o tamanho da janela \(L\) para as diferentes classes de séries temporais. O conceito de separabilidade e aspectos metodológicos relacionados e resultados teóricos nos fornecem esse entendimento. É o estudo da separabilidade que faz a maior distinção entre esta monografia sobre análise SSA e a abordagem padrão para SSA.

A escolha dos parâmetros na realização da decomposição SSA, são eles o comprimento da janela \(L\) e a forma de agrupamento das matrizes \(X_i\), deve depender das propriedades da série original e do objetivo da análise.

O propósito geral da análise SSA é a decomposição (1) com componentes aditivos \(f_n^{(k)}\) que são séries temporais ‘independentes’ e ‘identificáveis’; é isso que queremos dizer quando falamos em analisar a estrutura de séries temporais por SSA.

Às vezes, pode-se também estar interessado em tarefas específicas, como ‘extração de sinal de ruído’, ‘extração de componentes oscilatórios’ e ‘suavização’. Para uma decomposição SSA bem feita, uma componente \(f_n^{(k)}\) em (1) pode ser identificada como uma tendência da série original, uma série oscilatória como por exemplo, sazonalidade ou ruído. Uma série oscilatória é uma série periódica ou quase periódica que pode ser pura ou modulada em amplitude. Ruído é qualquer série aperiódica. A tendência da série é, grosso modo, um componente aditivo de variação lenta da série com todas as oscilações removidas.

Observe que nenhum modelo paramétrico para os componentes em (1) é fixo e esses componentes são produzidos pela própria série. Assim, ao analisar séries da vida real com a ajuda do SSA, dificilmente se pode esperar obter os componentes na decomposição (1) como harmônicos exatos ou tendência linear, por exemplo, mesmo que esses harmônicos ou tendência linear estejam realmente presentes em a série. Esta é uma influência do ruído e uma consequência da natureza não paramétrica do método. Por harmônico queremos dizer qualquer série senoidal com alguma amplitude, frequência e fase.

Em muitos casos, no entanto, podemos obter uma boa aproximação dessas séries. Na situação ideal, os componentes em (1) devem ser “independentes”. Alcançar ‘independência’ ou ‘separabilidade’ dos componentes na decomposição SSA (1) é de primordial importância em SSA. A separabilidade dos componentes nesta decomposição é o principal problema teórico na pesquisa SSA e o principal alvo na seleção de parâmetros SSA. A separabilidade dos componentes é o problema central; é abordado em praticamente todas as seções.

Existem diferentes noções de separabilidade, mais precisamente, de \(L\)-separabilidade, uma vez que o fato da separabilidade depende do comprimento da janela \(L\). A mais importante é a separabilidade fraca, definida a seguir. Desde que a série temporal original \(f_n\) seja uma soma de \(m\) séries \(f_n^{(k)}\), \(k = 1,\cdots, m\), para um comprimento de janela fixo \(L\), \(L\)-separabilidade fraca significa que qualquer subsérie de comprimento \(L\) da \(k\)-ésima série \(f_n^{(k)}\) é ortogonal a qualquer subsérie de comprimento \(L\) da \(l\)-ésima série \(f_n^{(l)}\) com \(l\neq k\), e o mesmo vale para suas subséries de comprimento \(K = N - L + 1\).

Isso equivale ao fato de que existe uma forma de construir o SVD da matriz trajetória \(X\) e agrupar as matrizes \(X_j\) de forma que para cada \(k\) a matriz \(X_{I_k}\) seja a matriz trajetória da série \(f_n^{(k)}\).

A exigência de separabilidade exata dos componentes é um requisito estrito que raramente ocorre na prática. A noção de separabilidade aproximada é mais importante e muito menos restritiva, do que a exata. Para uma série relativamente longa, a separabilidade aproximada dos componentes é frequentemente alcançada devido ao conceito teórico de separabilidade assintótica que se aplica a uma classe bastante ampla de componentes. Para medir o grau de “separabilidade” dos componentes em (1), usamos várias características diferentes, como “coeficiente de correlação espectral” ou “coeficiente de correlação ponderada”.

A separabilidade fraca pode não ser suficiente para garantir que uma determinada decomposição SSA reflita adequadamente a estrutura da série temporal original. De fato, no caso em que dois ou mais dos valores singulares das matrizes de trajetória \(X^{(k)}\) e \(X^{(l)}\) correspondentes a dois componentes diferentes \(f_n^{(k)}\) e \(f_n^{(l)}\) da série original são iguais, na prática, se os valores singulares estiverem próximos, então o SVD não é definido exclusivamente e as duas séries \(f_n^{(k)}\) e \(f_n^{(l)}\) são misturadas, de modo que uma análise adicional, como rotações no espaço \(L\)-dimensional dos vetores defasados, é necessária para separar as duas séries.

Se houver separabilidade fraca aproximada e todos os autovalores correspondentes a diferentes componentes em (1) estiverem suficientemente isolados uns dos outros, então temos separabilidade forte aproximada, o que significa que, para um agrupamento adequado, a decomposição SSA aproximadamente coincide com o assumido.

A ausência de separabilidade forte aproximada é freqüentemente observada para séries com estrutura complexa. Para essas séries e séries de estrutura especial, existem diferentes formas de modificar o SSA. Várias modificações da técnica SSA básica podem ser interessantes, como o SSA com centralização simples e dupla, SSA Toeplitz e SSA sequencial, quando o esquema básico é aplicado várias vezes com parâmetros diferentes aos resíduos da análise anterior. SSA com centralização e SSA Toeplitz são baseados em decomposições não ótimas particulares das matrizes de trajetória; eles podem ser úteis na análise de séries temporais de estrutura especial, como séries com tendências lineares e séries estacionárias.

O SSA Toeplitz foi sugerido em Vautard and Ghill (1989); é uma modificação bem conhecida do método SSA básico. Em contraste, o SSA com centralização dupla da matriz de trajetória é uma nova versão do SSA.


2 Previsão SSA de séries temporais


Uma propriedade importante da decomposição SSA é o fato de que, se a série original \(f_n\) satisfaz uma fórmula recorrente linear (LRF) \[\begin{equation} \tag{2} f_n = a_1 f_{n-1}+\cdots a_d f_{n-d} \end{equation}\] de alguma dimensão \(d\) com alguns coeficientes \(a_1,\cdots,a_d\), então para qualquer \(N\) e \(L\) existem no máximo \(d\) valores singulares diferentes de zero no SVD da matriz de trajetória \(X\); portanto, mesmo que o comprimento da janela \(L\) e \(K = N - L+1\) sejam maiores que \(d\), precisamos apenas de no máximo \(d\) matrizes \(X_i\) para reconstruir a série.

O fato de a série \(f_n\) satisfazer um LRF (2) é equivalente à sua representabilidade como uma soma de produtos de exponenciais, polinômios e harmônicos, ou seja, \[\begin{equation} \tag{3} f_n=\sum_{k=1}^q \alpha_k(n) e^{\mu_k n}\sin\big( 2\pi\omega_k n+\varphi_k\big)\cdot \end{equation}\]

Aqui \(\alpha_k(n)\) são polinômios, \(\mu_k\), \(\omega_k\) e \(\varphi_k\) são parâmetros arbitrários. O número de termos linearmente independentes \(q\) em (3) é menor ou igual a \(d\).

A previsão SSA é baseada no fato que, grosso modo, afirma o seguinte: se o número de termos \(r\) no SVD da matriz de trajetória \(X\) é menor que o comprimento da janela \(L\), então a série satisfaz algum LRF de alguma dimensão \(d\leq r\).

Certamente, esta afirmação não deve ser entendida literalmente. Entretanto, para séries infinitas um fato similar pode ser encontrado em Gantmacher (1998). O teorema de Buchstaber (1994) amplia essas considerações para séries temporais finitas; este teorema diz que nas condições acima mencionadas a série, com a possível exceção dos últimos termos, satisfaz algum LRF. Essa afirmação, no entanto, não leva diretamente a um algoritmo de previsão, pois os últimos termos da série são muito importantes para a previsão.

Um resultado essencial para a previsão da SSA foi obtido em Danilov (1997a, 1997b). Ela pode ser formulada da seguinte forma: se a dimensão \(r\) do espaço linear \(\mathcal{L}_r\) gerado pelas colunas da matriz de trajetória for menor que o comprimento da janela \(L\) e esse espaço não for um espaço vertical, então a série satisfaz um LRF natural de dimensão \(L-1\).

Se \(e_L\notin \mathcal{L}_r\), onde \(e_L = (0,0,\cdots, 0, 1)^\top \in \mathbb{R}^L\), então dizemos que \(\mathcal{L}_r\) é um espaço ‘não vertical’.

Se tivermos uma série que satisfaça um LRF (2), então obviamente podemos continuá-la por um número arbitrário de passos usando o mesmo LRF. É importante que qualquer LRF que rege uma determinada série forneça a mesma continuação e, portanto, não precisamos necessariamente do LRF com o valor mínimo de \(d\). Assim, agora sabemos como continuar séries temporais com espaços não verticais e postos pequenos de matrizes de trajetória.

Obviamente, quando estamos lidando com séries temporais da vida real, dificilmente podemos esperar ter uma série temporal governada por um LRF de pequena dimensão, em termos de SVD, uma matriz de trajetória da ‘vida real’ com \(L\leq K\) tem, via de regra, posto \(L\). Porém, a classe de séries que pode ser aproximada pelas séries regidas pelas LRFs da forma (2) ou, de forma equivalente, pelas séries temporais determinísticas da forma (3) com um pequeno número de termos, é muito amplo e podemos tentar prever essas séries usando um método de previsão baseado em SSA. Também podemos estar interessados em continuar a prever alguns componentes periódicos, talvez modulados em amplitude, da série original e em prever a tendência, ignorando o ruído e todos os componentes oscilatórios da série.

A ideia da previsão SSA de um determinado componente da série temporal é a seguinte. A seleção de um grupo de matrizes \(r < \mbox{posto}(X)\), matrizes \(X_i\) de posto um no terceiro passo do algoritmo SSA básico implica a seleção de um espaço \(r\)-dimensional \(\mathcal{L}_r \subset \mathbb{R}^L\) gerado pelos vetores singulares esquerdos correspondentes.

Se o espaço \(\mathcal{L}_r\) é não vertical, então, como foi mencionado anteriormente, este espaço produz o LRF apropriado, que pode ser usado para previsão, chamada previsão recorrente do componente da série, correspondente às matrizes de posto um escolhidas.

Como no SSA básico, as características de separabilidade ajudam na seleção do comprimento da janela \(L\) e do espaço \(\mathcal{L}_r\). Além disso, a separabilidade está diretamente relacionada aos LRFs: grosso modo, se duas séries são separáveis, então elas satisfazem certos LRFs.

O algoritmo de previsão recorrente SSA pode ser modificado de várias maneiras. Por exemplo, podemos basear nossa previsão no SSA Toeplitz ou SSA com centralização em vez do SSA básico, o \(\mathcal{L}_r\) é então expandido pelas versões correspondentes dos vetores singulares esquerdos; em alguns casos, também podemos basear a previsão na LRF de ordem mínima. Talvez a modificação mais importante seja o chamado algoritmo de previsão vetorial SSA desenvolvido em Nekrutkin (1999). A ideia deste método é a seguinte.

Para qualquer grupo \(I\) de índices que selecionamos na etapa de agrupamento, a aplicação de SSA nos dá \(K = N - L + 1\) vetores \(\widehat{X}_1,\cdots,\widehat{X}_K\) que se encontram no suespaço de dimensão \(r\) \(\mathcal{L}_r\in\mathbb{R}^L\). Aqui \(r\) é o número de elementos em \(I\), para cada \(j\) \(\widehat{X}_j\) é a projeção do vetor \(L\)-desfasado \(X_j\) no subespaço \(\mathcal{L}_r\) e o subespaço \(\mathcal{L}_r\) é gerado pelos \(r\) autovetores esquerdos da matriz de trajetória \(X\) com os índices no grupo \(I\).

Continuamos então os vetores \(\widehat{X}_1,\cdots,\widehat{X}_K\) por \(M\) pasos de forma que:

A série de previsão é então obtida por meio da média diagonal desta matriz.

Enquanto o algoritmo de previsão recorrente realiza a continuação recorrente direta de uma série unidimensional, com a ajuda do LRF assim construído, o método de previsão vetorial faz a continuação dos vetores em um espaço \(r\)-dimensional e somente então retorna à representação em série temporal. Exemplos mostram que a previsão vetorial parece ser mais estável do que a recorrente, especialmente para previsões de longo prazo.

Os intervalos de confiança para as previsões podem ser muito úteis para avaliar a qualidade das previsões. No entanto, ao contrário das próprias previsões SSA a sua construção não requer formalmente qualquer informação preliminar sobre a série temporal, para a construção dos limites de confiança precisamos de impor alguns pressupostos à série e à componente residual, que associamos a ruído.

Consideramos dois tipos de limites de confiança; o primeiro é para os valores da própria série em algum ponto futuro \(N + M\) e o segundo é para os valores do sinal neste ponto futuro, sob a suposição de que a série original consiste em um sinal e ruído aditivo.

Esses dois tipos de intervalo de confiança são construídos de maneiras distintas: no primeiro caso, utilizamos as informações sobre erros de previsão obtidas durante a análise das séries; a segunda utiliza a tecnologia bootstrap.

Para construir os intervalos de confiança para a previsão de toda a série inicial, construímos o LRF de previsão de dimensão \(L-1\), no caso da previsão recorrente e o aplicamos repetidamente a todas as subséries da mesma dimensão dentro do período de observação \([0,N-1]\). Em seguida, comparamos os resultados com os valores correspondentes da série.

Sob a suposição de que a série residual é estacionária e ergódica, podemos estimar os quantis da distribuição marginal relacionada e, portanto, construir os limites de confiança.

A técnica bootstrap é útil para construir intervalos de confiança para o sinal \(F^{(1)}\) em algum tempo futuro \(N+M\) sob a suposição de que a série \(F_N = (f_0,\cdots,f_{N-1})\) é uma soma de um sinal \(F_N^{(1)}\) e ruído \(F_N^{(2)} = F_N - F_N^{(1)}\). Para fazer isso, primeiro obtemos a decomposição SSA \(F_N = \widetilde{F}_N^{(1)} + \widetilde{F}_N^{(2)}\), onde \(\widetilde{F}_N^{(1)}\), a série reconstruída aproxima \(F_N^{(1)}\) e \(\widetilde{F}_N^{(2)}\) é a série residual.

Assumindo que temos um modelo estocástico para os resíduos \(\widetilde{F}_N^{(2)}\), simulamos então algum número \(S\) de cópias independentes \(\widetilde{F}_{N,i}^{(2)}\) da série \(F_N^{(2)}\), obtemos \(S\) séries \(\widetilde{F}_N^{(1)} + \widetilde{F}_{N,i}^{(2)}\) e \(S\) resultados de previsão \(\widetilde{f}^{(1)}_{N+M-1,i}\).

Tendo obtido a amostra \(\widetilde{f}^{(1)}_{N+M-1,i}\), \(1\leq i\leq S\) dos resultados da previsão, a usamos para calcular os quantis inferior e superior empíricos do nível fixo \(\gamma\) e construímos o intervalo de confiança correspondente para a previsão.

Observe que os limites de confiança bootstrap podem ser construídos não apenas para as previsões SSA, mas também para os termos da decomposição SSA quando estamos lidando com a separação de um sinal do ruído.


3 Detecção SSA de mudanças estruturais em séries temporais


Chamamos uma série temporal \(F_N\) homogênea se ela é governada por um LRF de ordem \(d\) que é pequeno em relação ao comprimento da série \(N\).

Assumindo agora que a série é homogênea até algum tempo \(Q < N\), mas então ela para de seguir o LRF original; isso pode ser causado por uma perturbação da série. Porém, após um certo período de tempo, volta a ser regido por uma LRF. Neste caso, temos uma mudança estrutural ou heterogeneidade na série. Podemos ter uma heterogeneidade permanente; neste caso a nova LRF é diferente da original ou uma heterogeneidade temporária, quando ambas as LRFs coincidem.

Observe que, mesmo neste último caso, o comportamento da série após a mudança é diferente do comportamento da série homogênea não perturbada; por exemplo, as condições iniciais para o LRF após a perturbação podem ser diferentes das condições iniciais não perturbadas.

A ideia principal de empregar SSA para detectar diferentes tipos de heterogeneidade é a seguinte. Para valores suficientemente grandes do comprimento da janela \(L\), os vetores \(L\)-desfasados de uma série homogênea abrangem o mesmo espaço linear \(\mathcal{L}^{(L)}\) independentemente de \(N\), assim que \(N\) for suficientemente grande.

Portanto, as violações na homogeneidade da série podem ser descritas em termos dos correspondentes vetores defasados: as perturbações forçam os vetores defasados a deixar o espaço \(\mathcal{L}^{(L)}\). As discrepâncias correspondentes são definidas em termos das distâncias entre os vetores defasados e o espaço \(\mathcal{L}^{(L)}\), que pode ser determinado para diferentes subséries da série original.

Como, na prática, as séries são descritas por LRFs apenas aproximadamente, surge novamente o problema da construção aproximada dos espaços \(\mathcal{L}^{(L)}\). Analogamente aos problemas de previsão, o SVD das matrizes de trajetória é utilizado para esse fim. Como em todo este texto, o conceito de separabilidade desempenha um papel muito importante quando estamos interessados em detectar mudanças nos componentes da série, por exemplo, no sinal, na presença de ruído aditivo.

Ao contrário dos problemas de previsão, para estudar mudanças estruturais em séries temporais, as propriedades dos SVDs de subséries da série inicial \(F\) tornam-se de primordial importância.

Consideramos duas subséries, digamos \(F'\) e \(F''\) da série \(F\); os chamaremos de ‘subsérie de base’ e ‘subsérie de teste’. Suponha que os comprimentos dessas subséries sejam fixos e iguais a \(B\) e \(T\), respectivamente. Suponha que \(B > L\) e \(T\geq L\), onde \(L\) é o comprimento da janela. Façamos um SVD da matriz de trajetória da subsérie base, selecione um grupo de vetores singulares esquerdos \(r < L\), considere o espaço linear \(\mathcal{L}_r'\) gerado por esses vetores e calcule a soma das distâncias ao quadrado entre o espaço \(\mathcal{L}_r'\) e os vetores \(L\)-defasados correspondentes à subsérie de teste.

Se normalizarmos essa soma pela soma das normas quadradas dos vetores \(L\)-defasados da subsérie de teste, obtemos o chamado índice de heterogeneidade \(g = g(F',F'')\) formalmente definido mais tarde. O índice de heterogeneidade \(g(F',F'')\) mede a discrepância entre \(F'\) e \(F''\) calculando o erro relativo da aproximação ótima dos vetores \(L\)-defasados da série temporal \(F\) por vetores do espaço \(\mathcal{L}_r'\).

A principal ferramenta usada para estudar mudanças estruturais ou heterogeneidades em séries temporais é a ‘matriz de heterogeneidade’ de tamanho \((N-B+1)\times (N-T+1)\). As entradas desta matriz são os valores do índice de heterogeneidade \(g = g(F',F'')\), onde \(F'\) e \(F''\) percorrem todas as possíveis subséries da série \(F\) de comprimentos fixos \(B\) e \(T\), respectivamente.

As colunas, linhas e algumas diagonais da matriz de heterogeneidade constituem as ‘funções de heterogeneidade’. A mudança no sistema de indexação nos fornece as ‘funções de detecção’; elas são mais convenientes para fins de detecção de alterações. Também consideramos três grupos de características de detecção suplementares.

O primeiro grupo é obtido quando usamos uma normalização diferente na expressão para o índice de heterogeneidade, em vez de usar a soma das normas quadradas dos vetores \(L\)-defasados da subsérie de teste, usamos a soma dos termos quadrados do toda a série. Essa renormalização do índice de heterogeneidade geralmente ajuda quando monitoramos mudanças em séries monótonas e seus componentes.

O segundo grupo de características refere-se à série das raízes dos polinômios característicos das LRFs que correspondem à decomposição SSA da subsérie de base \(F'\). As raízes dos polinômios característicos monitoram a dinâmica dos espaços lineares \(\mathcal{L}_r'\).

Em particular, esse monitoramento pode ser muito útil para distinguir as mudanças que realmente ocorrem na série das mudanças espúrias que são causadas pelo fato de que mudanças bruscas na dinâmica dos espaços lineares \(\mathcal{L}_r'\) podem estar relacionadas às mudanças na ordem dos valores singulares.

O terceiro grupo de características são basicamente os periodogramas móveis da série original; este grupo é usado para monitorar a estrutura espectral da série original.


4 Outros SSA e tópicos relacionados à SSA


No geral, consideramos muitas questões importantes relacionadas à implementação, análise e aplicação prática do SSA. Existem, no entanto, vários outros tópicos que não são abordados aqui.

Vamos citar alguns deles:

5 Algumas outras áreas relacionadas com a SSA


Durante os últimos quarenta anos, várias técnicas de análise de séries temporais e processamento de sinais foram sugeridas que usam SVDs de certas matrizes; para pesquisas, ver, por exemplo, Marple (1987) ou Bouvet and Clergeot (1988). A maioria dessas técnicas é baseada na suposição de que a série original é aleatória e estacionária; eles incluem algumas técnicas que são famosas no processamento de sinal, como a decomposição de Karhunen-Loève e o algoritmo MUSIC, para as referências de processamento de sinal, ver, por exemplo, Madisetti and Williams (1998). Alguns aspectos estatísticos da metodologia baseada em SVD para séries estacionárias são considerados, por exemplo, em Brillinger (1975), Subba Rao (1976) e Subba Rao and Gabr (1984).

A análise dos periodogramas é uma parte importante do processo de identificação dos componentes da ecomposição SSA (1). Por exemplo, o ruído é modelado por séries aperiódicas caóticas cujas medidas espectrais não possuem átomos, o ruído branco tem densidade espectral constante. Uma comparação do espectro observado do componente residual na decomposição SSA com o espectro de algumas séries temporais comuns, estes podem ser encontrados, por exemplo, em Priestley (1991) e Wei (1990), pode ajudar a entender a natureza dos resíduos e a formulação de uma hipótese estatística adequada sobre o ruído. No entanto, uma única realização de uma série de ruído pode ter um espectro significativamente diferente do teórico.

Vários testes baseados em simulação para testar a hipótese zero de ‘ruído branco’ contra a alternativa de ‘ruído vermelho’, ou seja, um processo autorregressivo de primeira ordem foi concebida; a abordagem é chamada de ‘Monte Carlo SSA’, ver Allen and Smith (1996). Essa abordagem atraiu muita atenção dos pesquisadores; para sua extensão e aprimoramento ver, por exemplo, Paluš and Novotna (1998).

Outra área com a qual o SSA está relacionado é a análise de séries temporais não lineares determinísticas. É uma área da moda de popularidade em rápido crescimento; veja os livros recentes de Cutler and Kaplan (1997), Kantz and Schreiber (1997), Abarbanel (1996), Tong (1993) e Weigend and Gershenfeld (1993). Observe que os especialistas em análise não linear de séries temporais, assim como estatísticos, nem sempre consideram a SSA uma técnica que poderia competir com métodos mais padronizados; ver, por exemplo, Kantz and Schreiber (1997).

É impossível discutir todos os campos relacionados ao SSA. Em certo sentido amplo, pode-se considerar o SSA como um método de aproximação da série original ou seus componentes com as outras séries regidas por uma LRF. Podemos então considerar uma longa lista de publicações sobre o tema, a começar por Prony (1795).

Por outro lado, a característica essencial do SSA é a escolha da base ótima que consiste nos vetores singulares à esquerda. Se não nos restringirmos à otimalidade forte, veja a discussão sobre Toeplitz e centralização SSA, chegaremos a uma ampla classe de métodos lidando com diferentes bases incluindo, por exemplo, as bases wavelet que podem ser usadas para a decomposição dos vetores defasados.

Como já foi mencionado, em processamento de sinal, física não linear e alguns outros campos, vários métodos são usados com base em SVDs das matrizes de trajetória, assim como outras matrizes calculadas por meio dos termos de séries temporais; esses métodos são usados para finalidades diferentes.

Assim, a área de métodos relacionados à SSA é muito ampla. Esta é uma das razões pelas quais estamos confiantes de que as ideias e a metodologia da SSA descritas aqui serão úteis para um amplo círculo de cientistas em diferentes campos por muitos anos.