Лема Джонсона — Лінденштрауса

Матеріал з testwiki
Версія від 20:39, 8 липня 2022, створена imported>Lxlalexlxl (Альтернативне формулювання)
(різн.) ← Попередня версія | Поточна версія (різн.) | Новіша версія → (різн.)
Перейти до навігації Перейти до пошуку

Шаблон:Машинне навчання Лема Джонсона — Лінденштрауса (Шаблон:Lang-en) твердить, що набір точок у багатовимірному просторі може бути вбудований у простір значно меншого виміру таким чином, що відстані між точками збережуться майже без викривлень. Відповідні проєкції можуть бути ортогональними. Лема названа на честь Вільяма Б. Джонсона та Джорама Лінденштрауса[1].

Лема є основою алгоритмів стиснення зображень, машинного навчання. Значна частина даних, що зберігаються та обробляються на комп'ютерах, зокрема текст і зображення, може бути представлена ​​у вигляді точок у просторі, однак основні алгоритми роботи з такими даними, як правило, швидко втрачають продуктивність по мірі збільшення розмірності. Тому бажано зменшити розмірність даних таким чином, щоб зберегти відповідну структуру. Лема Джонсона — Лінденштрауса — класичний результат у цій сфері.

Формулювання

Нехай 0<ε<1. Тоді для любої множини X из n точок в N і  m>8lnnε2 існує лінійне відображення f:Nm таке, що

(1ε)uv2f(u)f(v)2(1+ε)uv2

для усіх u,vX.

Випадкова ортогональна проєкція f на m-вимірний підпростір задовольняє вимозі.

Один з доказів леми заснований на властивості концентрації міри.

Про доведення

Одне з доведень ґрунується на властивості концентрації міри.

Альтернативне формулювання

Спорідненою лемою є лема Джонсона — Лінденштрауса про розподіл. Ця дистрибутивна лема стверджує, що для любого 0 < ε, δ < 1/2 і позитивного цілого числа d існує розподіл Rk × d, з якого вилучається матриця A так, що для k = O(ε−2log(1/δ)) і для любого вектора одиничної довжини xRd справедливе твердження[2]

P(|Ax221|>ε)<δ

Відповідні матриці A отримали назву матриць Джонсона — Лінденштрауса (Шаблон:Lang-en). По суті, дана лема характеризує точність апроксимації матричною проєкцією багатовимірного розподілу.

Зв'язок дистрибутивної версії леми з її еквівалентом можливо отримати, якщо задати x=(uv)/uv2 і δ<1/n2 для якоїсь пари u,v в X.

Швидке перетворення Джонсона — Лінденштрауса

Можливість отримання проєкцій меншої розмірності є дуже важливим результатом зазначених лем, однак необхідно, щоб такі проєкції можна було отримати за мінімальний час. Операція множення матриці A на вектор x, що фігурує в дистрибутивній лемі, займає час O(kd). Тому були проведені дослідження щодо отримання розподілів, для яких матрично-векторний добуток може бути обчислено швидше, ніж за час O(kd).

Зокрема, Ейлоном і Бернаром Шазелем в 2006 р. було запропоновано швидке перетворення Джонсона — Лінденштрауса (ШПДЛ), яке дозволило виконати матрично-векторний добуток за час dlogd+k2+γ для любої константи γ>0.[3]

Особливий випадок становлять тензорні випадкові проєкції, для яких вектор одиничної довжини x має тензорну структуру, і JL-матриці A можуть бути виражені через торцевий добуток кількох матриць з однаковою кількістю незалежних рядків.

Тензорні проєкції багатовимірних просторів

Для представлення тензорних проєкцій, що використовуються в ШПДЛ в багатовимірному випадку, у вигляді комбінації двох JL-матриць, може бути використано торцевий добуток (Шаблон:Lang-en), запропонований в 1996 р. Слюсарем В. І.[4][5][6][7][8][9].

Розглянемо дві JL-матриці проєкцій багатовимірного простору: C3×3 и D3×3. Їх торцевий добуток CD[4][5][6][7][8] має вид:

CD=[C1D1C2D2C3D3].

JL-матриці, що визначені у такий спосіб, мають менше випадкових біт і можуть швидко перемножуватися на вектори тензорної структури завдяки тотожності[6]:

(𝐂𝐃)(xy)=𝐂x𝐃y=[(𝐂x)1(𝐃y)1(𝐂x)2(𝐃y)2],

де  — поелементний добуток Адамара.

Перехід від матриці A до торцевого добутку дозволяє оперувати матрицями меншого розміру. У цьому контексті ідея торцевого добутку була використана в 2010[10] для вирішення завдання диференційної приватності (Шаблон:Lang-en). Крім того, аналогічні обчислення були задіяні для ефективної реалізації ядрових методів машинного навчання та в інших алгоритмах лінійної алгебри[11].

В 2020 р. було показано, що для створення проєкцій малої розмірності в торцевому добутку досить використовувати будь-які матриці з випадковими незалежними рядками, однак більш сильні гарантії досягнення малих спотворень проєкцій багатовимірних просторів можуть бути досягнуті за допомогою дійсних гаусових матриць Джонсона-Лінденштрауса[12].

Якщо матриці C1,C2,,Cc є незалежними ±1 або гаусовими матрицями, то комбінована матриця C1Cc задовольняє лемі Джонсона-Лінденштрауса про розподіл, якщо кількість строк становить не менше

O(ϵ2log1/δ+ϵ1(1clog1/δ)c)[12].

Для великих ϵ дистрибутивна лема Джонсона-Лінденштрауса виконується строго, при цьому нижня границя величини викривлень апроксимації має експоненціальну залежність (log1/δ)c[12]. Пропонуються альтернативні конструкції JL-матриць, щоб обійти це обмеження[12].

Див. також

Примітки

Шаблон:Reflist

Джерела

Шаблон:Бібліоінформація Шаблон:Штучний інтелект

  1. Шаблон:Cite encyclopedia
  2. Шаблон:Cite encyclopedia
  3. Шаблон:Cite encyclopedia
  4. 4,0 4,1 Шаблон:Cite journal
  5. 5,0 5,1 Шаблон:Cite journal
  6. 6,0 6,1 6,2 Шаблон:Cite journal
  7. 7,0 7,1 Шаблон:Cite journal
  8. 8,0 8,1 Шаблон:Cite journal
  9. Anna Esteve, Eva Boj & Josep Fortiana (2009): Interaction Terms in Distance-Based Regression, Communications in Statistics — Theory and Methods, 38:19, P. 3501 [1] Шаблон:Webarchive
  10. Kasiviswanathan, Shiva Prasad, et al. «The price of privately releasing contingency tables and the spectra of random matrices with correlated rows.» Proceedings of the forty-second ACM symposium on Theory of computing. 2010.
  11. Woodruff, David P. «Sketching as a Tool for Numerical Linear Algebra.» Theoretical Computer Science 10.1-2 (2014): 1-157.
  12. 12,0 12,1 12,2 12,3 Шаблон:Cite conference