Lema de Johnson-Lindenstrauss - Johnson–Lindenstrauss lemma

Na matemática, o lema de Johnson-Lindenstrauss é um resultado com o nome de William B. Johnson e Joram Lindenstrauss sobre embeddings de baixa distorção de pontos do espaço euclidiano de alta dimensão para o espaço euclidiano de baixa dimensão . O lema afirma que um conjunto de pontos em um espaço de alta dimensão pode ser embutido em um espaço de dimensão muito inferior de tal forma que as distâncias entre os pontos são quase preservadas . O mapa usado para a incorporação é pelo menos Lipschitz , e pode até ser considerado uma projeção ortogonal .

O lema tem aplicações em sensoriamento compactado , aprendizado múltiplo , redução de dimensionalidade e incorporação de gráficos . Muitos dos dados armazenados e manipulados em computadores, incluindo texto e imagens, podem ser representados como pontos em um espaço de alta dimensão (ver modelo de espaço vetorial para o caso de texto). No entanto, os algoritmos essenciais para trabalhar com esses dados tendem a ficar presos muito rapidamente à medida que a dimensão aumenta. Portanto, é desejável reduzir a dimensionalidade dos dados de forma a preservar sua estrutura relevante. O lema de Johnson-Lindenstrauss é um resultado clássico nessa linha.

Além disso, o lema é restrito a um fator constante, ou seja, existe um conjunto de pontos de tamanho m que precisa de dimensão

a fim de preservar as distâncias entre todos os pares de pontos dentro de um fator de .

Lema

Dado um conjunto de pontos e um número , há um mapa linear tal que

para todos .

A fórmula pode ser reorganizada:

Uma prova do lema considera ƒ um múltiplo adequado da projeção ortogonal em um subespaço aleatório de dimensão em e explora o fenômeno da concentração de medida .

Obviamente, uma projeção ortogonal irá, em geral, reduzir a distância média entre os pontos, mas o lema pode ser visto como lidando com distâncias relativas , que não mudam com a escala. Resumindo, você lança os dados e obtém uma projeção aleatória, o que reduzirá a distância média, e então você aumenta as distâncias para que a distância média retorne ao seu valor anterior. Se você continuar jogando os dados, você encontrará, em tempo aleatório polinomial, uma projeção para a qual as distâncias (em escala) satisfaçam o lema.

Declaração alternativa

Um lema relacionado é o lema JL distributivo. Este lema afirma que para qualquer 0 <  ε , δ  <1/2 e inteiro positivo d , existe uma distribuição sobre R k × d a partir da qual a matriz A é desenhada de modo que para k = O ( ε −2 log (1 / δ )) e para qualquer vetor de comprimento unitário xR d , a reivindicação abaixo é válida.

Pode-se obter o JL lema desde a versão de distribuição, definindo e para alguns par u , v tanto em X . Então, o lema JL segue por uma união ligada a todos esses pares.

Acelerando a transformação JL

Dado A , o cálculo do produto do vetor da matriz leva um tempo O ( kd ). Houve algum trabalho em derivar distribuições para as quais o produto do vetor da matriz pode ser calculado em menos de tempo O ( kd ).

Existem duas linhas principais de trabalho. O primeiro, Fast Johnson Lindenstrauss Transform (FJLT), foi introduzido por Ailon e Chazelle em 2006. Este método permite o cálculo do produto do vetor da matriz em apenas para qualquer constante .

Outra abordagem é construir uma distribuição com suporte em matrizes esparsas. Este método permite manter apenas uma fração das entradas na matriz, o que significa que o cálculo pode ser feito em tempo hábil. Além disso, se o vetor tiver apenas entradas não zereo, o Sparse JL leva tempo , que pode ser muito menor do que o tempo usado pelo Fast JL.

Projeções aleatórias tensorizadas

É possível combinar duas matrizes JL, considerando que o chamado produto de divisão de face é definido como os produtos tensores das linhas (foi proposto por V. Slyusar em 1996 para aplicações de radar e conjuntos de antenas digitais ). Mais diretamente, deixe e seja duas matrizes. Então, o produto de divisão facial é

Essa ideia de tensorização foi usada por Kasiviswanathan et al. 2010 para privacidade diferencial .

Matrizes JL definidas dessa forma usam menos bits aleatórios e podem ser aplicadas rapidamente a vetores que possuem estrutura tensorial, devido à seguinte identidade:

,

onde está o produto element-wise ( Hadamard ). Esses cálculos têm sido usados ​​para calcular com eficiência kernels polinomiais e muitos outros algoritmos de álgebra linear.

Em 2020 foi mostrado que se as matrizes são matrizes independentes ou matrizes Gaussianas, a matriz combinada satisfaz o lema JL distributivo se o número de linhas for pelo menos

.

Para grandes, isso é tão bom quanto o completamente aleatório de Johnson-Lindenstrauss, mas um limite inferior correspondente no mesmo artigo mostra que essa dependência exponencial de é necessária. São sugeridas construções alternativas de JL para contornar isso.

Veja também

Notas

Leitura adicional