Взаємна кореляція
Шаблон:Кореляція та коваріація

В обробці сигналів взаємна кореляція (Шаблон:Lang-en) — це міра подібності двох рядів як функція зміщення одного відносно іншого. Вона також відома як ковзний скалярний добуток (Шаблон:Lang-en) та ковзний внутрішній добуток (Шаблон:Lang-en). Її зазвичай використовують для пошуку в довгому сигналі коротшої відомої ознаки. Вона має застосування в розпізнаванні образів, Шаблон:Нп, Шаблон:Нп, усереднюванні, криптоаналізі та нейрофізіології . Взаємна кореляція за своєю природою подібна до згортки двох функцій. В автокореляції, яка є взаємною кореляцією сигналу з самим собою, завжди буде пік на нульовій затримці, і його розмір буде енергією сигналу.
У теорії ймовірностей та статистиці термін взаємні кореляції стосується кореляцій між елементами двох випадкових векторів та , тоді як кореляції випадкового вектора є кореляціями між елементами самого , що утворюють кореляційну матрицю . Якщо як , так і є скалярними випадковими величинами, які багаторазово реалізуються в часовому ряді, то кореляції різних часових примірників відомі як автокореляції (Шаблон:Lang-en) , а взаємні кореляції із у часі є часовими взаємними кореляціями (Шаблон:Lang-en). У теорії ймовірностей та статистиці визначення кореляції завжди включає такий стандартувальний коефіцієнт, щоби кореляції мали значення від −1 до +1.
Якщо та — дві незалежні випадкові величини з функціями густини ймовірності та відповідно, то густина ймовірності різниці формально задається взаємною кореляцією (у сенсі обробки сигналів) , проте цю термінологію в теорії ймовірностей та статистиці не використовують. На противагу цьому, згортка (еквівалентна взаємній кореляції та ) дає функцію густини ймовірності суми .
Взаємна кореляція детермінованих сигналів
Для безперервних функцій та взаємну кореляцію визначають як[1][2][3]
що рівнозначне
де позначує комплексне спряжене , а — зміщення, відоме також як запізнювання (Шаблон:Lang-en; ознака в з трапляється в на ).
Якщо та обидві є безперервними періодичними функціями з періодом , то інтегрування з до замінюється інтегруванням за будь-яким інтервалом довжини :
що рівнозначне
Аналогічно, для дискретних функцій взаємну кореляцію визначають як[4][5]
що рівнозначне
- .
Для скінченних дискретних функцій (циклічну, Шаблон:Lang-en) взаємну кореляцію визначають як[6]
що рівнозначне
- .
Для скінченних дискретних функцій , ядрову взаємну кореляцію (Шаблон:Lang-en) визначають як[7]
де — вектор ядрових функцій , а — афінне перетворення.
Зокрема, може бути перетворенням циклічного перенесення, поворотним та масштабувальним перетворенням тощо. Ядрова взаємна кореляція узагальнює взаємну кореляцію з лінійного простору до ядрового. Взаємна кореляція рівнозначна перенесенню; ядрова взаємна кореляція рівнозначна будь-яким афінним перетворенням, включно з перенесенням, повертанням, масштабуванням тощо.
Пояснення
Як приклад розгляньмо дві дійснозначні функції та , що відрізняються лише невідомим зміщенням уздовж осі x. Взаємною кореляцією можливо скористатися, щоби знайти, наскільки мусить бути зміщено вздовж осі x, щоби зробити її ідентичною до . Ця формула по суті соває функцію уздовж осі x, обчислюючи інтеграл від їхнього добутку в кожному положенні. Коли функції збігаються, значення є максимальним. Це тому, що коли піки (додатні області) вирівняно, вони роблять великий внесок до інтегралу. Аналогічно, коли вирівнюються западини (від'ємні області), вони також роблять додатний внесок до інтегралу, оскільки добуток двох від'ємних чисел є додатним.

З комплекснозначними функціями та взяття спряження забезпечує, що вирівняні піки (або вирівняні западини) з уявними компонентами робитимуть до інтегралу додатний внесок.
В економетрії взаємну кореляцію з запізнюванням іноді називають взаємною автокореляцією (Шаблон:Lang-en).[8]Шаблон:Rp
Властивості
Взаємна кореляція випадкових векторів
Визначення
Для випадкових векторів та , кожен з яких складається з випадкових елементів з відомими математичним сподіваннями та дисперсіями, матрицю взаємної кореляції та визначають через[9]Шаблон:Rp
й вона має розміри . У записі по складових:
Випадкові вектори та не зобов'язані мати однакові розміри, й будь-який з них може бути скалярним значенням.
Приклад
Наприклад, якщо та — випадкові вектори, то — матриця , чиїм -м елементом є .
Визначення для комплексних випадкових векторів
Якщо та — Шаблон:Нп, кожен з яких містить випадкові величини з відомими математичними сподіваннями та дисперсіями, то матрицю взаємної кореляції та визначають через
де позначує ермітове транспонування.
Взаємна кореляція стохастичних процесів
В аналізі часових рядів і статистиці взаємна кореляція пари випадкових процесів — це кореляція між значеннями цих процесів у різні моменти часу як функція від цих двох моментів часу. Нехай — пара випадкових процесів, а — будь-яка точка в часі ( може бути цілим числом для Шаблон:Нп процесу, або дійсним числом для процесу Шаблон:Нп). Тоді — це значення (або Шаблон:Нп), реалізоване в результаті заданого перебігу процесу в момент часу .
Взаємна кореляційна функція
Припустімо, що цей процес у момент часу має середні значення та і дисперсії та , для будь-якого . Тоді визначенням взаємної кореляції між моментами часу та є[9]Шаблон:Rp
де — оператор математичного сподівання. Зауважте, що цей вираз може бути не визначеним.
Взаємна коваріаційна функція
Віднімання середнього значення перед множенням дає перехресну коваріацію моментів часу та :[9]Шаблон:Rp
Зауважте, що цей вираз не є однозначно визначеним для всіх часових рядів та процесів, оскільки середнє значення або дисперсія можуть не існувати.
Визначення для стаціонарного в широкому сенсі стохастичного процесу
Нехай подає пару стохастичних процесів, Шаблон:Нп. Тоді взаємну коваріаційну та взаємну кореляційну функції задають наступним чином.
Взаємна кореляційна функція
або, рівнозначно,
Взаємна коваріаційна функція
або, рівнозначно,
де та — середнє значення та стандартне відхилення процесу , сталі в часі через стаціонарність; і так само для , відповідно. показує математичне сподівання. Те, що взаємні коваріація та кореляція не залежать від , — саме додаткова інформація (поза індивідуальною стаціонарністю в широкому сенсі), яку передає вимога, що спільно стаціонарні в широкому сенсі.
Взаємну кореляцію пари спільно стаціонарних у широкому сенсі стохастичних процесів можливо оцінювати усереднюванням добутку зразків, виміряних за одним процесом, і зразків, виміряних за іншим (та за його зсувами в часі). Зразки, включені до цього усереднювання, можуть бути довільною підмножиною всіх зразків у сигналі (наприклад, зразки в межах скінченного часового вікна, або підвибіркаШаблон:Яка одного з сигналів). За великої кількості зразків це усереднення збігається до істинної взаємної кореляції.
Унормовування
Поширеною практикою в деяких дисциплінах (наприклад, у статистиці та аналізі часових рядів) є унормовувати взаємно кореляційну функцію, щоб отримувати залежний від часу коефіцієнт кореляції Пірсона. Проте в деяких інших дисциплінах (наприклад, в інженерії) унормовування зазвичай пропускають, а терміни «взаємна кореляція» та «взаємна коваріація» використовують як взаємозамінні.
Визначення нормованої взаємної кореляції стохастичного процесу:
- .
Якщо функція однозначно визначена, її значення мусять лежати в діапазоні , причому 1 вказує на ідеальну кореляцію, а −1 — на ідеальну антикореляцію.
Для спільно стаціонарних у широкому сенсі стохастичних процесів визначення таке:
- .
Унормовування важливе як тому, що інтерпретація автокореляції як кореляції забезпечує безмасштабну міру сили статистичної залежності, так і тому, що унормовування впливає на статистичні властивості оцінюваних автокореляцій.
Властивості
Властивість симетрії
Для спільно стаціонарних у широкому сенсі стохастичних процесів взаємно кореляційна функція має таку властивість симетрії:[10]Шаблон:Rp
Відповідно, для спільно СШС стохастичних процесів:
Аналіз часової затримки
Взаємні кореляції корисні для визначання часової затримки між двома сигналами, наприклад, для визначання часових затримок поширення акустичних сигналів системою спрямованих мікрофонів.[11][12]Шаблон:Прояснити Після обчислення взаємної кореляції між двома сигналами максимум (або мінімум, якщо сигнали корельовані негативно) взаємно кореляційної функції вказує момент часу, коли сигнали узгоджені найкраще; тобто затримка часу між цими двома сигналами визначається аргументом максимуму, або arg max, взаємної кореляції, як у
Термінологія в обробці зображень
Центрована нормована взаємна кореляція (ЦНВК)
Для застосувань в обробці зображень, у яких яскравість зображення та шаблону може змінюватися залежно від умов освітлення та експозиції, зображення можуть спочатку унормовувати. Зазвичай це роблять на кожному кроці шляхом віднімання середнього значення та ділення на стандартне відхилення. Тобто, взаємна кореляція шаблону з підзображенням — це
де — число пікселів у та , — усереднення , а — стандартне відхилення .
З погляду функціонального аналізу це можливо розглядати як добуток двох унормованих векторів. Тобто, якщо
та
то наведена вище сума дорівнює
де — скалярний добуток, а — норма L². З Коші — Буняковського тоді випливає, що ЦНВК (Шаблон:Lang-en) має діапазон .
Таким чином, якщо та є дійснозначними матрицями, то їх нормована взаємна кореляція дорівнює косинусу кута між одиничними векторами та , будучи відтак тоді й лише тоді, коли дорівнює , помноженому на додатний скаляр.
Нормована кореляція — це один із методів, які використовують для Шаблон:Нп, процесу, який використовують для пошуку зразків або об'єктів у зображенні. Вона також є двовимірною версією коефіцієнту кореляції моменту добутку Пірсона.
Нормована взаємна кореляція (НВК)
НВК (Шаблон:Lang-en) подібна до ЦНВК, з тією лише відмінністю, що не віднімається локальне середнє значення освітленостей:
Нелінійні системи
При використанні взаємної кореляції для нелінійних систем необхідно бути обережними. За певних обставин, які залежать від властивостей вхідних даних, взаємна кореляція між входом і виходом системи з нелінійною динамікою може бути повністю сліпою до певних нелінійних ефектів.[13] Ця проблема виникає через те, що деякі квадрати моментів можуть дорівнювати нулеві, й це може помилково підказувати, що між двома сигналами існує невелика «кореляція» (у сенсі статистичної залежності), хоча насправді ці два сигнали сильно пов'язані нелінійною динамікою.
Див. також
- Автоковаріація
- Автокореляція
- Взаємна коваріація
- Шаблон:Нп
- Шаблон:Нп
- Згортка
- Шаблон:Нп
- Кореляційна функція
- Кореляція
- Шаблон:Нп
- Шаблон:Нп
- Спектральна густина
- Шаблон:Нп
- Фазова кореляція
Примітки
Література
Посилання
- Взаємна кореляція від Mathworld Шаблон:Webarchive Шаблон:Ref-en
- http://scribblethink.org/Work/nvisionInterface/nip.html Шаблон:Webarchive Шаблон:Ref-en
- http://www.staff.ncl.ac.uk/oliver.hinton/eee305/Chapter6.pdf Шаблон:WebarchiveШаблон:Ref-en
- ↑ Bracewell, R. "Pentagram Notation for Cross Correlation." The Fourier Transform and Its Applications. New York: McGraw-Hill, pp. 46 and 243, 1965. Шаблон:Ref-en
- ↑ Papoulis, A. The Fourier Integral and Its Applications. New York: McGraw-Hill, pp. 244–245 and 252—253, 1962. Шаблон:Ref-en
- ↑ Weisstein, Eric W. "Cross-Correlation." From MathWorld--A Wolfram Web Resource. http://mathworld.wolfram.com/Cross-Correlation.html Шаблон:Webarchive Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ 9,0 9,1 9,2 Шаблон:Cite book Шаблон:Ref-en
- ↑ Kun Il Park, Fundamentals of Probability and Stochastic Processes with Applications to Communications, Springer, 2018, 978-3-319-68074-3 Шаблон:Ref-en
- ↑ Шаблон:Cite conference Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en