1. Что такое информация?
2. Как измеряется информация?
3. Что такое бит?
4. Что такое энтропия в контексте информации?
5. Какова формула Шеннона для вычисления энтропии?
6. Что такое информационный поток?
7. Как измеряется информационная емкость канала?
8. Что такое кодирование информации?
9. Какова роль избыточности в измерении информации?
10. Что такое передаточная функция информации?
11. Какую роль играют вероятностные модели в измерении информации?
12. Какова связь между информацией и знанием?
13. Что такое модели данных?
14. Что такое информационная система?
15. Как различают количественные и качественные методы измерения информации?
16. Сколько битов информации можно закодировать в 4 символах алфавита с равной вероятностью?
17. Определите количество битов, необходимых для кодирования 8 символов с использованием двоичного кода.
18. Сколько информации в битах содержится в сообщении из 16 символов, где каждый символ имеет фиксированную вероятность 1/16?
19. Какова вероятность события A и его отрицания, если событие A происходит с вероятностью 0.7?
20. Какова средняя длина кодового слова, если кодирует 4 символа с неравными вероятностями 0.1, 0.2, 0.3, 0.4?