Сайт учителя

Тинькова Е.Н.

урок 8 практика

 

1. Что такое информация?

2. Как измеряется информация?

3. Что такое бит?

4. Что такое энтропия в контексте информации?

5. Какова формула Шеннона для вычисления энтропии?

6. Что такое информационный поток?

7. Как измеряется информационная емкость канала?

8. Что такое кодирование информации?

9. Какова роль избыточности в измерении информации?

10. Что такое передаточная функция информации?

11. Какую роль играют вероятностные модели в измерении информации?

12. Какова связь между информацией и знанием?

13. Что такое модели данных?

14. Что такое информационная система?

15. Как различают количественные и качественные методы измерения информации?

16. Сколько битов информации можно закодировать в 4 символах алфавита с равной вероятностью?

17. Определите количество битов, необходимых для кодирования 8 символов с использованием двоичного кода.

18. Сколько информации в битах содержится в сообщении из 16 символов, где каждый символ имеет фиксированную вероятность 1/16?

19. Какова вероятность события A и его отрицания, если событие A происходит с вероятностью 0.7?

20.  Какова средняя длина кодового слова, если кодирует 4 символа с неравными вероятностями 0.1, 0.2, 0.3, 0.4?
 

Block title

Вход на сайт

Поиск

Календарь

«  Июнь 2025  »
ПнВтСрЧтПтСбВс
      1
2345678
9101112131415
16171819202122
23242526272829
30

Статистика


Онлайн всего: 1
Гостей: 1
Пользователей: 0

Архив записей