Aproximação esparsa - Sparse approximation

A teoria da aproximação esparsa (também conhecida como representação esparsa ) lida com soluções esparsas para sistemas de equações lineares . As técnicas para encontrar essas soluções e explorá-las em aplicativos têm amplo uso em processamento de imagens , processamento de sinais , aprendizado de máquina , imagens médicas e muito mais.

Decomposição esparsa

Observações silenciosas

Considere um sistema linear de equações , onde é uma matriz subdeterminada e . A matriz (normalmente considerada como full-rank) é chamada de dicionário e é um sinal de interesse. O problema central da representação esparsa é definido como a busca pela representação mais esparsa possível que satisfaça . Devido à natureza subdeterminada de , este sistema linear admite em geral um número infinito de soluções possíveis, e entre estas procuramos aquela com o menor número de não zeros. Colocado formalmente, nós resolvemos

onde está a pseudo-norma, que conta o número de componentes diferentes de zero de . Este problema é conhecido por ser NP-difícil com uma redução para problemas de seleção de subconjunto NP-completo em otimização combinatória .

A dispersão de implica que apenas alguns ( ) componentes nele são diferentes de zero. A motivação subjacente para tal decomposição esparsa é o desejo de fornecer a explicação mais simples possível de uma combinação linear do menor número possível de colunas , também conhecida como átomos. Como tal, o sinal pode ser visto como uma molécula composta de alguns elementos fundamentais retirados .

Embora o problema colocado acima seja de fato NP-Difícil, sua solução pode freqüentemente ser encontrada usando algoritmos de aproximação. Uma dessas opções é um relaxamento convexo do problema, obtido usando a norma -n em vez de , onde simplesmente soma os valores absolutos das entradas em . Isso é conhecido como algoritmo de busca de base (BP), que pode ser tratado usando qualquer solucionador de programação linear . Um método de aproximação alternativo é uma técnica gananciosa, como a busca de correspondência (MP), que encontra a localização dos não zeros um de cada vez.

Surpreendentemente, sob condições moderadas (usando a faísca (matemática) , a coerência mútua ou a propriedade de isometria restrita ) e o nível de esparsidade na solução , o problema de representação esparsa pode ser mostrado como tendo uma solução única, e BP e MP têm a garantia de encontrá-lo perfeitamente.


Observações ruidosas

Freqüentemente, o sinal observado é ruidoso. Ao relaxar a restrição de igualdade e impor uma norma ao termo de ajuste de dados, o problema de decomposição esparsa torna-se

ou colocado em uma forma Lagrangiana,

onde está substituindo o .

Assim como no caso sem ruído, esses dois problemas são NP-Difícil em geral, mas podem ser aproximados usando algoritmos de perseguição. Mais especificamente, mudando para uma norma, obtemos

que é conhecido como a eliminação de ruído da busca de base . Da mesma forma, a busca de correspondência pode ser usada para aproximar a solução dos problemas acima, encontrando as localizações dos não-zeros, um de cada vez, até que o limite de erro seja atingido. Aqui também, as garantias teóricas sugerem que BP e MP levam a soluções quase ótimas, dependendo das propriedades e da cardinalidade da solução . Outro resultado teórico interessante refere-se ao caso em que é unitário. Sob esta suposição, os problemas colocados acima (com ou ) admitem soluções de forma fechada na forma de retração não linear.

Variações

Existem várias variações para o problema básico de aproximação esparsa.

Esparsidade estruturada : Na versão original do problema, qualquer um dos átomos do dicionário pode ser selecionado. No modelo de esparsidade estruturado (bloco), em vez de selecionar átomos individualmente, grupos deles devem ser selecionados. Esses grupos podem ser sobrepostos e de tamanhos variados. O objetivo é representar de forma esparsa, ao mesmo tempo em que força essa estrutura de bloco.

Codificação esparsa colaborativa (conjunta) : A versão original do problema é definida para um único sinal . No modelo de codificação esparsa colaborativa (conjunta), um conjunto de sinais está disponível, cada um considerado emergir (quase) do mesmo conjunto de átomos . Nesse caso, a tarefa de busca visa recuperar um conjunto de representações esparsas que melhor descrevem os dados, ao mesmo tempo que os força a compartilhar o mesmo (ou próximo) suporte.

Outras estruturas : Mais amplamente, o problema de aproximação esparsa pode ser lançado ao forçar uma estrutura desejada específica no padrão de localizações diferentes de zero em . Dois casos de interesse que foram amplamente estudados são a estrutura baseada em árvore e, mais geralmente, um suporte distribuído de Boltzmann.

Algoritmos

Como já mencionado acima, existem vários algoritmos de aproximação (também chamados de busca ) que foram desenvolvidos para abordar o problema de representação esparsa:

Mencionamos a seguir alguns desses métodos principais.

  • A busca de correspondência é um algoritmo iterativo ganancioso para resolver aproximadamente o problema acima. Ele funciona encontrando gradualmente as localizações dos não-zeros um de cada vez. A ideia central é encontrar em cada etapa a coluna (átomo) que melhor se correlaciona com o residual atual (inicializado em ), e então atualizar esse residual para levar em consideração o novo átomo e seu coeficiente. A busca de correspondência pode escolher o mesmo átomo várias vezes.
  • A busca de correspondência ortogonal é muito semelhante à busca de correspondência, com uma grande diferença: em cada etapa do algoritmo, todos os coeficientes diferentes de zero são atualizados por mínimos quadrados . Como consequência, o resíduo é ortogonal aos átomos já escolhidos e, portanto, um átomo não pode ser escolhido mais de uma vez.
  • Métodos gananciosos em fases: Variações aprimoradas em relação aos acima são algoritmos que operam avidamente enquanto adicionam dois recursos críticos: (i) a capacidade de adicionar grupos de não zeros por vez (em vez de um diferente de zero por rodada); e (ii) incluir uma etapa de poda em cada rodada em que vários dos átomos são descartados do suporte. Representantes dessa abordagem são o algoritmo Subspace-Pursuit e o CoSaMP.
  • A busca de base resolve uma versão relaxada convexa do problema substituindo a norma por uma norma. Observe que isso apenas define um novo objetivo, embora deixe em aberto a questão do algoritmo a ser usado para obter a solução desejada. Normalmente considerados esses algoritmos são os métodos IRLS , LARS e métodos iterativos de redução suave.
  • Existem vários outros métodos para resolver problemas de decomposição esparsa: método de homotopia, descida de coordenada , limite rígido iterativo, métodos proximais de primeira ordem , que estão relacionados aos algoritmos de redução suave iterativos mencionados acima e seletor de Dantzig.

Formulários

Algoritmos e ideias de aproximação esparsas têm sido amplamente usados ​​em processamento de sinal , processamento de imagem , aprendizado de máquina , imagem médica , processamento de array , mineração de dados e muito mais. Na maioria dessas aplicações, o sinal desconhecido de interesse é modelado como uma combinação esparsa de alguns átomos de um determinado dicionário, e isso é usado como regularização do problema. Esses problemas são normalmente acompanhados por um mecanismo de aprendizagem de dicionário que visa ajustar a melhor correspondência do modelo aos dados fornecidos. O uso de modelos inspirados na dispersão levou a resultados de última geração em um amplo conjunto de aplicações. Trabalhos recentes sugerem que há uma conexão estreita entre modelagem de representação esparsa e aprendizado profundo.

Veja também

Referências

  1. ^ Donoho, DL e Elad, M. (2003). "Representação otimamente esparsa em dicionários gerais (não ortogonais) via minimização L1" (PDF) . Proceedings of the National Academy of Sciences . 100 (5): 2197–2202. Bibcode : 2003PNAS..100.2197D . doi : 10.1073 / pnas.0437847100 . PMC  153464 . PMID  16576749 .CS1 maint: vários nomes: lista de autores ( link )
  2. ^ Tropp, JA (2004). "Greed is good: Algorithmic results for sparse aproximation" (PDF) . IEEE Transactions on Information Theory . 50 (10): 2231–2242. CiteSeerX  10.1.1.321.1443 . doi : 10.1109 / TIT.2004.834793 . S2CID  675692 .
  3. ^ Donoho, DL (2006). "Para a maioria dos grandes sistemas subdeterminados de equações lineares, a solução mínima de norma 11 também é a solução mais esparsa" (PDF) . Comunicações em Matemática Pura e Aplicada . 56 (6): 797–829. doi : 10.1002 / cpa.20132 .
  4. ^ a b Elad, M. (2010). Representações esparsas e redundantes: da teoria às aplicações em processamento de sinais e imagens . Springer. CiteSeerX  10.1.1.331.8963 . doi : 10.1007 / 978-1-4419-7011-4 . ISBN 978-1441970107.
  5. ^ Donoho, DL, Elad, M. e Templyakov, V. (2006). "Recuperação estável de representações supercompletas esparsas na presença de ruído" (PDF) . IEEE Transactions on Information Theory . 52 (1): 6–18. CiteSeerX  10.1.1.125.5610 . doi : 10.1109 / TIT.2005.860430 . S2CID  14813938 .CS1 maint: vários nomes: lista de autores ( link )
  6. ^ Tropp, JA (2006). "Apenas relaxe: métodos de programação convexa para identificar sinais esparsos no ruído" (PDF) . IEEE Transactions on Information Theory . 52 (3): 1030–1051. CiteSeerX  10.1.1.184.2957 . doi : 10.1109 / TIT.2005.864420 . S2CID  6496872 .
  7. ^ Eldar, YC, Kuppinger, P. e Bolcskei, H. (2009). "Sinais de blocos esparsos: relações de incerteza e recuperação eficiente". Transações IEEE no processamento de sinais . 58 (6): 3042–3054. arXiv : 0906.3173 . Bibcode : 2010ITSP ... 58.3042E . doi : 10.1109 / TSP.2010.2044837 . S2CID  335122 .CS1 maint: vários nomes: lista de autores ( link )
  8. ^ Tropp, JA, Gilbert, AC e Strauss, MJ (2006). "Algoritmos para aproximação esparsa simultânea. Parte I: Busca gananciosa". Processamento de sinais . 86 (3): 572–588. doi : 10.1016 / j.sigpro.2005.05.030 .CS1 maint: vários nomes: lista de autores ( link )
  9. ^ Peleg, T. Eldar, YC e Elad, M. (2012). "Explorando Dependências Estatísticas em Representações Esparsas para Recuperação de Sinal". Transações IEEE no processamento de sinais . 60 (5): 2286–2303. arXiv : 1010.5734 . Bibcode : 2012ITSP ... 60.2286P . doi : 10.1109 / TSP.2012.2188520 . S2CID  3179803 .CS1 maint: vários nomes: lista de autores ( link )
  10. ^ Needell, D. e Tropp, JA (2009). "CoSaMP: recuperação de sinal iterativo de amostras incompletas e imprecisas". Análise de Harmônicas Aplicadas e Computacionais . 26 (3): 301–321. arXiv : 0803.2392 . doi : 10.1016 / j.acha.2008.07.002 .CS1 maint: vários nomes: lista de autores ( link )
  11. ^ Zibulevsky, M. e Elad, M. (2010). "Otimização L1-L2 no processamento de sinal e imagem" (PDF) . Revista de Processamento de Sinal IEEE . 27 (3): 76–88. Bibcode : 2010ISPM ... 27 ... 76Z . doi : 10.1109 / MSP.2010.936023 . S2CID  2783691 .CS1 maint: vários nomes: lista de autores ( link )
  12. ^ Baraniuk, RG Candes, E. Elad, M. e Ma, Y. (2010). "Aplicações de representação esparsa e detecção compressiva". Atas do IEEE . 98 (6): 906–909. doi : 10.1109 / JPROC.2010.2047424 .CS1 maint: vários nomes: lista de autores ( link )
  13. ^ Elad, M. Figueiredo, MAT e Ma, Y. (2010). “Sobre o papel das representações esparsas e redundantes no processamento de imagens” (PDF) . Atas do IEEE . 98 (6): 972–982. CiteSeerX  10.1.1.160.465 . doi : 10.1109 / JPROC.2009.2037655 . S2CID  10992685 . Arquivado do original (PDF) em 17/01/2018.CS1 maint: vários nomes: lista de autores ( link )
  14. ^ Plumbley, MD Blumensath, T. Daudet, L. Gribonval, R. e Davies, ME (2010). "Representações esparsas em áudio e música: da codificação à separação da fonte". Atas do IEEE . 98 (6): 995–1005. CiteSeerX  10.1.1.160.1607 . doi : 10.1109 / JPROC.2009.2030345 . S2CID  4461063 .CS1 maint: vários nomes: lista de autores ( link )
  15. ^ Papyan, V. Romano, Y. e Elad, M. (2017). "Convolutional Neural Networks Analyzed via Convolutional Sparse Coding" (PDF) . Journal of Machine Learning Research . 18 (83): 1–52. arXiv : 1607.08194 . Bibcode : 2016arXiv160708194P .CS1 maint: vários nomes: lista de autores ( link )