Результати пошуку
Перейти до навігації
Перейти до пошуку
- У [[Теорія інформації|теорії інформації]] '''спі́льна [[Інформаційна ентропія|ентропі́я]]''' — це міра невизначеності, пов'язана з набором [[Випадко Спільна [[ентропія Шеннона]] (в [[біт]]ах) двох змінних <math>X</math> та <math>Y</math> визна ...5 КБ (275 слів) - 15:45, 1 січня 2019
- У [[Теорія інформації|теорії інформації]] '''перехресна ентропія''' між двома [[Розподіл ймовірностей|розподілами ймовірності]] <math>p</mat Перехресна ентропія двох розподілів <math>p</math> і <math>q</math> на тому самому [[Ймовірнісн ...7 КБ (254 слова) - 19:18, 16 червня 2024
- {{Otheruses|Інформація}} ...b>…p<sub>n</sub> та g<sub>1</sub>…g<sub>n</sub>, відповідно. Тоді [[Власна інформація|кількість інформації]], що міститься у випадковій величині ξ відносно [[Вип ...5 КБ (103 слова) - 05:03, 26 травня 2022
- ...м такого пов'язаного поняття теорії інформації, як [[Інформаційна ентропія|ентропія]]. Ці два значення не тотожні, і ця стаття описує лише перший сенс. ...|імовірності]] цієї події: що меншою є її ймовірність, то більшою є власна інформація, пов'язана з отриманням інформації про те, що ця подія дійсно відбулася. ...10 КБ (309 слів) - 19:07, 4 червня 2022
- ...(Y)</math>, а синє в ньому є <math>\Eta(Y|X)</math>. Фіолетове є [[Взаємна інформація|взаємною інформацією]] <math>\operatorname{I}(X;Y)</math>.]] ...вувану в наступних формулах [[Одиниця вимірювання|одиницю]] [[Інформаційна ентропія|інформаційної ентропії]] визначає вибір логарифмічної основи. Найзвичнішою ...17 КБ (742 слова) - 18:51, 13 жовтня 2024
- ...(Y)</math>, а синє в ньому є <math>\Eta(Y|X)</math>. Фіолетове є [[Взаємна інформація|взаємною інформацією]] <math>\operatorname{I}(X;Y)</math>.]] ...диниця вимірювання)|натах]] або [[Гартлі (одиниця вимірювання)|гартлі]]. ''Ентропія <math>Y</math>, обумовлена <math>X</math>'' записується як <math>\Eta(Y|X)< ...16 КБ (964 слова) - 18:50, 13 жовтня 2024
- ...бов'язково має бути 2: перплексивність не залежить від основи за умови, що ентропія та показникова функція використовують ту ''саму'' основу.) Цей показник так ... — це показникова функція від ентропії, яка є більш точною величиною. Ентропія — це міра очікуваної, або «середньої» кількості бітів, необхідних для ...11 КБ (208 слів) - 20:17, 26 грудня 2022
- ...ої на <math>X \subseteq R^n</math> (<math>n<\infty</math>), диференціальна ентропія визначається як ...ниці кількості інформації [[біт]], а функціонал інтерпретується як середня інформація неперервного джерела. У [[Математична статистика|математичній статистиці]] ...15 КБ (302 слова) - 16:41, 16 березня 2022
- ...ково повинна збільшити [[Ентропія|ентропію]] тих ступенів вільності, які [[Інформація|інформації]] не несуть, або ж передати цю ентропію термостату. ...припущення. Обчислення можуть проводитися не тільки за рахунок енергії, а й за рахунок збільшення ентропії, що не пов'язане зі зміною енергії<ref name= ...6 КБ (410 слів) - 00:07, 26 січня 2025
- ...[[протилежність]]. У найзагальнішому сенсі протилежний за змістом ентропії й означає [[Міра|міру]] впорядкованості та організованості системи або якість ...ть і інформація» скоротив термін «негативна ентропія» до слова негентропії й ввів його в такому вигляді за допомогою негентропійного принципу інформації ...14 КБ (193 слова) - 20:52, 14 березня 2024
- ...теорії інформації]] та [[Статистика|статистиці]]. На відміну від [[Взаємна інформація|взаємної інформації]] (ВІ), що будується на ПВІ, вона стосується одиничних [[Взаємна інформація]] (ВІ) випадкових змінних ''X'' та ''Y'' є [[Математичне сподівання|математ ...13 КБ (797 слів) - 22:58, 7 лютого 2024
- ...Стиснення даних|метод стиснення даних]], при використанні якого закодована інформація може бути повністю відновлена зі стиснутих даних. Навпаки, [[стиснення з вт ...ти [[TIFF]] та [[MNG]] можуть використовувати стиснення як з втратами, так й без втрат. Формати [[Стиснення звуку#Стиснення без втрат|стиснення звуку бе ...25 КБ (338 слів) - 00:51, 13 листопада 2024
- ...ва ієрархія|цифровими каналами зв'язку]]. Рідше вимірюється [[Інформаційна ентропія|кількість інформації]]. ...а для вимірювання кількості інформації застосовували назви «[[інформаційна ентропія]]» і «цінність інформації». ...21 КБ (311 слів) - 16:34, 31 січня 2025
- ...пія|особистою ентропією]] <math>\Eta(X)</math>, в якому червоне є [[Умовна ентропія|умовною ентропією]] <math>\Eta(X|Y)</math>. Коло праворуч (синій та фіолето ...льним поняттям теорії інформації, яке кількісно оцінює очікувану «[[Власна інформація|кількість інформації]]», що міститься у випадковій змінній. ...64 КБ (3696 слів) - 04:48, 15 червня 2024
- ...ref-en}}</ref> До його застосувань належать '''відно́сна''' [[Інформаційна ентропія|(шеннонова) '''ентропі́я''']] в інформаційних системах, '''випадко́вість''' ...ділів ймовірності]] <math>P</math> та <math>Q</math>, визначених на одному й тому ж [[Ймовірнісний простір|імовірнісному просторі]], розходженням Кульба ...80 КБ (4213 слів) - 16:15, 25 січня 2025
- ...ці: деякі системи можна описати точно, про інші можлива тільки статистична інформація. ...ними]], а процеси другого типу — ні, оскільки супроводжуються зростанням [[ентропія|ентропії]]. Так, спонтанне випромінення енергії збудженим атомом — типовий ...13 КБ (70 слів) - 11:25, 28 квітня 2024
- ...ифмічна одиниця]] вимірювання [[Інформація|інформації]] або [[Інформаційна ентропія|ентропії]] на основі [[Логарифм|логарифмів]] за основою 10 та степенів 10, Хоч гартлі й не є [[Міжнародна система одиниць (SI)|одиницею системи SI]], проте він є ч ...11 КБ (470 слів) - 22:14, 27 січня 2023
- ...падку з [[Чорна діра|чорною дірою]], розуміння полягає в тому, що [[Власна інформація|інформаційний вміст]] усіх об'єктів, які потрапили в діру, може повністю мі == Ентропія чорної діри == ...45 КБ (1442 слова) - 16:52, 25 січня 2025
- {{Otheruses|Ентропія (значення)}} ...нує чотири можливі результати, та два біти ентропії. Взагалі, інформаційна ентропія є усередненою кількістю інформації, що несе подія, за розгляду всіх можливи ...102 КБ (3501 слово) - 05:44, 26 січня 2025
- ...ня]], [[зберігання даних|зберігання]] та [[телекомунікації|передавання]] [[інформація|інформації]]. Заснував цю галузь і забезпечив їй надійну основу [[Клод Шенн ...каналу]], {{li|показник помилки|показники помилок|Q5395710}} та [[відносна ентропія]]. До важливих підрозділів теорії інформації належать [[кодування джерела]] ...98 КБ (5057 слів) - 12:09, 8 грудня 2024