Задачі до розділу 1

 

Дискретні випадкові величини (д. в. в.) X1 та X2 визначаються підкиданням двох ідеальних тетраедрів, грані яких позначені числами від 1 до 4. Знайти, скільки інформації про д. в. в. X1 містить д. в. в. Z=X1*X2, а також ентропію HZ.

Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в. Z=X+Y стосовно д. в. в. Y. X та Y незалежні д. в. в., задані такими розподілами:

X             0              1              3              4                             Y             -2            2              .

P             1/8           1/8           1/4           1/2                          P             3/8           5/8          

Дискретні випадкові величини (д. в. в.) X1 та X2 визначаються підкиданням двох ідеальних тетраедрів, грані яких позначені числами від 1 до 4. Д. в. в. Y  дорівнює сумі чисел, що випали при підкиданні цих тетраедрів, тобто Y=X1+X2. Знайти кількість взаємної інформації I(X, Y), ентропії HX1, HY.

Дискретна випадкова величина (д. в. в.) X визначається кількістю очок, які випадуть при підкиданні грального кубика, а д. в. в. Y=0, якщо кількість очок, що випали, непарна, і Y=1, якщо кількість очок парна. Знайти кількість інформації I(X, Y) та I(Y, Y).

Скільки інформації про дискретну випадкову величину (д. в. в.) X1 містить д. в. в. Z=(X1+1)2-X2, якщо незалежні д. в. в. X1 та X2 можуть із однаковою ймовірністю набувати значень 0 або 1? Знайти ентропії HX1, HZ. Який характер залежності між д. в. в. X1 та Z?

Значення дискретних випадкових величин (д. в. в.) X1 та X2 визначаються підкиданням двох ідеальних монет, а д. в. в. Y – кількість «гербів», що випали на монетах. Знайти ентропії HX1, HY. Скільки інформації про д. в. в. X1 містить д. в. в. Y?

Дискретні випадкові величини (д. в. в.) X1, X2 залежні й можуть із однаковою ймовірністю набувати значення 0 або 1. Знайти кількість взаємної інформації I(X1, X2), якщо сумісний розподіл ймовірностей системи д. в. в. X1, X2 такий:

X1           0              0              1              1              .

X2           0              1              0              1             

P             1/3           1/6           1/6           1/3          

Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в. Z=X*Y стосовно X та Y. X, Y – незалежні д. в. в., задані такими розподілами:

X             0              1              3              4                             Y             -2            2              .

P             1/8           1/8           1/4           1/2                          P             3/8           5/8          

Значення дискретних випадкових величин (д. в. в.) X1 та X2 визначаються підкиданням двох ідеальних монет, а д. в. в. Y може набувати два значення: 1, якщо хоча б на одній з монет випав «герб», і 0 - в іншому випадку. Знайти ентропії д. в. в. X1 та Y. Скільки інформації про X1 містить д. в. в. Y?

Дискретна випадкова величина (д. в. в.) X1 з однаковими ймовірностями може набувати значень -1, 0, 1, а д. в. в. X2  з однаковими ймовірностями – значень 0, 1. X1 та X2 – незалежні д. в. в., Y=X12+X22. Знайти кількість взаємної інформації I(Y, X1), I(Y, X2) та ентропії HX1, HX2, HY.

Знайти ентропії д. в. в. X, Y, Z і кількість інформації, що містить д. в. в. Z=2X+Y стосовно X та Y. X, Y – незалежні д. в. в., задані такими розподілами ймовірностей:

X             -1            0              1                             Y             0              1              2              .

P             1/4           1/2           1/4                          P             1/6           2/3           1/6          

Дискретні випадкові величини (д. в. в.) X1 та X2 визначаються підкиданням двох ідеальних тетраедрів, грані яких позначені числами від 1 до 4. Знайти, скільки інформації про X1 містить д. в. в. Z=2X1+X2, а також ентропії HZ, HX.

Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в. Z=X2+Y2 стосовно X та стосовно Y. X, Y – незалежні д. в. в., задані такими розподілами ймовірностей:

X             0              2              4              6                             Y             1              3              5              7              .

P             1/4                          P             1/4          

Дискретна випадкова величина (д. в. в.) X з різною ймовірністю може набувати значень від 1 до 8. Д. в. в. Y набуває значення 0, якщо X парне, і 1, якщо X непарне. Знайти кількість інформації I(Y, X) і ентропію HX, якщо д. в. в. X задана таким розподілом ймовірностей:

X             1              2              3              4              5              6              7              8              .

P             0,1           0,2           0,1           0,05         0,1           0,05         0,3           0,1          

Знайти ентропії дискретних випадкових величин (д. в. в.) X, Y, Z і кількість інформації, що містить д. в. в. Z=X-Y стосовно X та стосовно Y. X, Y – незалежні д. в. в., задані такими розподілами:

X             1              2              3              4                             Y             1              2              3              4              .

P             1/8           1/8           1/4           1/2                          P             1/8           1/2           1/4           1/8          

Скільки інформації про X1 та X2 містить дискретна випадкова величина (д. в. в.) Z=X12+X2, якщо незалежні д. в. в. X1, X2 можуть з однаковою ймовірністю набувати значення –1 або 1? Знайти ентропії HX1 та HZ.

Дискретна випадкова величина (д. в. в.) X1 може набувати три значення: -1, 0 і 1 з однаковими ймовірностями. Д. в. в. X2 з однаковими ймовірностями може набувати значення 0, 1 і 2. X1 і X2 – незалежні, Y=X12+X2. Знайти кількість інформації I(X1,Y), I(X2,Y) і ентропії HX1, HX2, HY.