Что понимается под битом. Контрольные вопросы. II. Кодирование информации

Если в результате получения сообщения достигнута полная ясность в данном вопросе (т.е. неопределенность исчезнет), говорят, что получена исчерпывающая информация. Это означает, что нет необходимости в дополнительной информации на эту тему. Напротив, если после получения сообщения неопределенность осталась прежней (сообщаемые сведения или уже были известны, или не относятся к делу), значит, информации получено не было (нулевая информация).

Бит – наименьшая единица представления информации. В информатике часто используется величина, называемая байтом (byte) и равная 8 битам.

Байт – наименьшая единица обработки и передачи информации.

Бит позволяет выбрать один вариант из двух возможных; байт, соответственно, 1 из 256 (2 8).

Наряду с байтами для измерения количества информации используются более крупные единицы:

1 Кбайт (один килобайт) = 2 10 байт = 1024 байт;

1 Мбайт (один мегабайт) = 2 10 Кбайт = 1024 Кбайт;

1 Гбайт (один гигабайт) = 2 10 Мбайт = 1024 Мбайт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тб) = 1024 Гбайт = 2 40 байта,

1 Петабайт (Пб) = 1024 Тбайт = 2 50 байта.

Пример . Упорядочите по возрастанию следующую последовательность:

1024 Мбайт, 11 Петабайт, 2224 Гбайт, 1 Терабайт.

Решение . Сначала приведем величины измерения количества информации к единой величине, удобной для данной последовательности. В данном случае – это Гбайт.

1024 Мбайт = 1 Гбайт, что меньше 1 Терабайт = 1024 Гбайт, что, в свою очередь меньше 2224 Гбайт и меньше 11 Петабайт,

Следовательно, последовательность, упорядоченная по возрастанию, имеет вид:

1024 Мбайт, 1 Терабайт, 2224 Гбайт, 11 Петабайт

II. Кодирование информации.

Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся другая информация (тексты, звуки, изображения, показания приборов и т.д.) для обработки на компьютере должна быть преобразована в числовую форму.

Переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки, называется кодированием информации.

Кодирование – это операция преобразования знаков или групп знаков одной знаковой системы в знаки или группы знаков другой знаковой системы.

Как правило, все числа в компьютере представляются с помощью нулей и единиц, т.е. работа производится в двоичной системе счисления, поскольку при этом устройства для их обработки получаются значительно более простыми.

1. Кодирование текста.

При вводе в компьютер каждая буква кодируется определенным числом, а при выводе на внешние устройства (экран или печать) для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.

Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. Множество символов, используемых при записи текста, называется алфавитом . Количество символов в алфавите называется его мощностью .

Существует двоичный алфавит, который содержит только 2 символа, и его мощность равна двум.

Для представления текстовой информации в компьютере чаще всего используется алфавит мощностью 256 символов. Один символ из такого алфавита несет 8 бит информации, т.к. 2 8 = 256.

8 бит составляют один байт, следовательно, двоичный код каждого символа занимает 1 байт памяти ЭВМ. Традиционно для кодирования одного символа используется количество информации, равное 1 байту (8 битам). Все символы такого алфавита пронумерованы от 0 до 255, а каждому номеру соответствует 8-разрядный двоичный код от 00000000 до 11111111.

Для разных типов ЭВМ и операционных систем используются различные таблицы кодировки, отличающиеся порядком размещения символов алфавита в кодовой таблице. Международным стандартом на персональных компьютерах является таблица кодировки ASCII. Сообщения, записанные с помощью символов ASCII, используют алфавит из 256 символов.

Кроме того, в настоящее время существует еще ряд кодовых таблиц для русских букв. К ним относится таблица кодировки КОИ8, использующая алфавит из 256 символов.

Широкое распространение получил новый международный стандарт UNICODE, который отводит на каждый символ не один байт, а два, поэтому с его помощью можно закодировать не 256 символов, а 2 16 = 65536 различных символов.

Информативность последовательности символов не зависит от содержания сообщения.

Чтобы определить объем информации в сообщении при алфавитном подходе, нужно последовательно решить задачи:

    Определить количество информации (i) в одном символе по формуле 2i = N, где N – мощность алфавита,

    Определить количество символов в сообщении, учитывая знаки препинания и пробелы (m),

    Вычислить объем информации по формуле: V = i * m.

Пример . Закодировано текстовое сообщение «Десять букв», определить его информационный объем по системе ASCII и UNICODE.

Решение . Сообщение содержит 11 символов. Один символ из алфавита ASCII несет 8 бит информации, поэтому информационный объем по системе ASCII составит 11*8 бит = 88 бита = 11 байт.

Один символ из алфавита UNICODE несет 16 бит информации или 2 байта, поэтому информационный объем по системе UNICODE составит 11*16 бит = 176 бит = 22 байта.

Для двоичного сообщения той же длины информационный объем составляет 11 бит, т.к. N = 2, i = 1 бит, m = 11, V = 11 бит.

Отчет по лабораторным работам

ИНФОРМАТИКА

Курс 1 ЗЭЭ

Выполднил

Багинский М.Н

Мойсюк А.В

Проверил

Костюкевич В.М

Петрозаводск 2015

1.1. Что означает термин "информатика " и каково его происхождение?. 3

1.2. Какие области знаний и административно-хозяйственной деятельности официально закреплены за понятием «информатика» с 1978года. 3

1.3. Какие сферы человеческой деятельности и в какой степени затрагивает информатика? 3

1.4. Назовите основные составные части информатики и основные направления её применения. 3

1.5. Что подразумевается под понятием "информация" в бытовом, естественно-научном и техническом смыслах?. 4

1.6. Приведите примеры знания фактов и знания правил. Назовите новые факты и новые правила, которые Вы узнали за сегодняшний день. 5

1.7. От кого (или чего) человек принимает информацию? Кому передает информацию? 5

1.8. Где и как человек хранит информацию?. 5

1.9. Что необходимо добавить в систему "источник информации - приёмник информации", чтобы осуществлять передачу сообщений?. 6

1.10. Какие типы действий выполняет человек с информацией?. 6

1.11. Приведите примеры ситуаций, в которых информация. 6

1.12. Приведите примеры обработки информации человеком. Что является результатами этой обработки?. 7

1.13. Список использованной литературы…………………………………………...17

1.1. Что означает термин "информатика " и каково его происхождение?

Термин "информатика " (франц. informatique) происходит от французских слов information (информация ) и automatique (автоматика ) и дословно означает "информационная автоматика

Инфоpматика - это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.

1.2. Какие области знаний и административно-хозяйственной деятельности официально закреплены за понятием «информатика» с 1978года

1978 году международный научный конгресс официально закрепил за понятием "информатика" области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие, административные и социально-политические аспекты компьютеризации - массового внедрения компьютерной техники во все области жизни людей.

1.3. Какие сферы человеческой деятельности и в какой степени затрагивает информатика?

Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации. Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни

1.4. Назовите основные составные части информатики и основные направления её применения.

Инфоpматика - комплексная научная дисциплина с широчайшим диапазоном применения. Её приоритетные направления:

Pазpаботка вычислительных систем и пpогpаммного обеспечения;

Теоpия инфоpмации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации;

Математическое моделирование, методы вычислительной и прикладной математики и их применение к фундаментальным и прикладным исследованиям в различных областях знаний;

Методы искусственного интеллекта, моделирующие методы логического и аналитического мышления в интеллектуальной деятельности человека (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.);

Системный анализ, изучающий методологические средства, используемые для подготовки и обоснования решений по сложным проблемам различного характера;

Биоинформатика, изучающая информационные процессы в биологических системах;

Социальная информатика, изучающая процессы информатизации общества;

Методы машинной графики, анимации, средства мультимедиа;

Телекоммуникационные системы и сети, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество;

Разнообразные пpиложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.

1.5. Что подразумевается под понятием "информация" в бытовом, естественно-научном и техническом смыслах?

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше";

В технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

В кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы

1.6. Приведите примеры знания фактов и знания правил. Назовите новые факты и новые правила, которые Вы узнали за сегодняшний день.

1.7. От кого (или чего) человек принимает информацию? Кому передает информацию?

Информация передаётся в форме сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

канал связи

ИСТОЧНИК ----------- ПРИЁМНИК

1. Cообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику (телезрителю) от источника - специалиста-метеоролога посредством канала связи - телевизионной передающей аппаратуры и телевизора.

2. Живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.) воспринимает информацию из внешнего мира, перерабатывает её в определенную последовательность нервных импульсов, передает импульсы по нервным волокнам, хранит в памяти в виде состояния нейронных структур мозга, воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе своей жизнедеятельности.

Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.

1.8. Где и как человек хранит информацию?

Текстов, рисунков, чертежей, фотографий;

Световых или звуковых сигналов;

Радиоволн;

Электрических и нервных импульсов;

Магнитных записей;

Жестов и мимики;

Запахов и вкусовых ощущений;

Хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д

1.9. Что необходимо добавить в систему "источник информации - приёмник информации", чтобы осуществлять передачу сообщений?

Информация передаётся в форме сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними.

1.10. Какие типы действий выполняет человек с информацией?

Информацию можно:

1. создавать;

2. передавать

3. воспринимать

4. использовать

5. запоминать

6. принимать

7. копировать

8. преобразовывать

9. комбинировать

10. обрабатывать

11. делить на части

12. упрощать

13. хранить

14. искать

15. измерять

16. разрушать

1.11. Приведите примеры ситуаций, в которых информация

а) создается: книга

б) копируется: ксерокс

в) передается: радио

г) обрабатывается: компьютерные программы

д) воспринимается: глаза уши

е) разрушается: помехи в радиосигнале

ж) запоминается: головной мозг человека

з) измеряется: бит

и) ищется: сми интернет

к) принимается: скачивание фильма с интернета

л) делится на части: книга в двух томах

1.12. Приведите примеры обработки информации человеком. Что является результатами этой обработки?

А) Сбор информации в библиотеке, Б) анализ и выбор нужной информации,в) написание реферата по своей теме.

1.13. Приведите примеры информации:

· а) достоверной и недостоверной

· б) полной и неполной

Выпал снег (неполная инфо).

· в) ценной и малоценной;

Курс евро на сегодня равен 40 р (ценная инфо).

В Токио сегодня идет дождь (малоценная инфо).

· г) своевременной и несвоевременной

Начинается гроза (своевременная инфо).

Вчера в магазине была распродажа (несвоевременная инфо).

· д) понятной и непонятной

Понятная информация - на русском языке.

Непонятная информация - на китайском языке.

· е) доступной и недоступной для усвоения;

Человеку, знающему английский язык дали почитать книгу, написанную на английском языке – инфо будет доступна ему, а если он не знает английского, то информация будет не доступна.

· ж) краткой и пространной

Лук - это овощ.

Лук – это огородное или дикорастущее растение семейства лилейных с острым вкусом луковицы и съедобными трубчатыми листьями.

1.14. Назовите системы сбора и обработки информации в теле человека.

Головной мозг. Органы обоняния, осязания, слух, зрение.

1.15. Приведите примеры технических устройств и систем, предназначенных для сбора и обработки информации.

Видео камера, фотоаппарат, диктофон, компьютер, и др.

1.16. От чего зависит информативность сообщения, принимаемого человеком?

Сообщение информативно, если он содержит новые и понятные сведенья для принимающего его человека.

1.17. Почему количество информации в сообщении удобнее оценивать не по степени увеличения знания об объекте, а по степени уменьшения неопределённости наших знаний о нём?

Количество информации зависит от новизны сведений об интересном для получателя информации явлении. Иными словами, неопределенность (т.е. неполнота знания) по интересующему нас вопросу с получением информации уменьшается. Если в результате получения сообщения будет достигнута полная ясность в данном вопросе (т.е. неопределенность исчезнет), говорят, что была получена исчерпывающая информация. Это означает, что необходимости в получении дополнительной информации на эту тему нет. Напротив, если после получения сообщения неопределенность осталась прежней (сообщаемые сведения или уже были известны, или не относятся к делу), значит, информации получено не было (нулевая информация).

1.18. Как определяется единица измерения количества информации?

1 бит – количество информации в сообщении, уменьшающем неопределенность знаний человека в 2 раза.

1.19. В каких случаях и по какой формуле можно вычислить количество информации, содержащейся в сообщении?

Подходы к определению количества информации. Формулы Хартли и Шеннона.

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log 2 100  6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Приведем другие примеры равновероятных сообщений :

1. при бросании монеты: "выпала решка" , "выпал орел" ;

2. на странице книги: "количество букв чётное" , "количество букв нечётное" .

Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина" . Однозначно ответить на этот вопрос нельзя . Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе .

Легко заметить, что если вероятности p 1 , ..., p N 1 / N

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями .

1.20. Почему в формуле Хартли за основание логарифма взято число 2?

Бит, единица информации имеет 2 состояния.

1.21. При каком условии формула Шеннона переходит в формулу Хартли?

Если вероятности p 1 , ..., p N равны, то каждая из них равна 1 / N , и формула Шеннона превращается в формулу Хартли.

1.22. Что определяет термин "бит" в теории информации и в вычислительной технике?

Бит в теории информации - количество информации, необходимое для различения двух равновероятных сообщений (типа "орел"-"решка", "чет"-"нечет" и т.п.).

В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

1.23. Приведите примеры сообщений, информативность которых можно однозначно определить.

Прогноз погоды на завтра: ожидается переменная облачность, небольшой снег, возможен туман; ночью -11..13°, днем -9..-11°, ветер западный, умеренный.

Курс евро на завтра составит 40 руб.13 коп.

1.24. Приведите примеры сообщений, содержащих один (два, три) бит информации.

Пример 1: Вы бросаете монету, загадывая, что выпадет: орел или решка?

Решение: Есть два варианта возможного результата бросания монеты. Ни один из этих вариантов не имеет преимущества перед другим (равновероятны ). Перед подбрасыванием монеты неопределенность знаний о результате равна двум.

После совершения действия неопределенность уменьшилась в 2 раза. Получили 1 бит информации.

Ответ: Результат подбрасывания монеты принес 1 бит информации.

Пример 2 : Студент на экзамене может получить одну из четырех оценок: 5, 4, 3, 2. Учится неровно и с одинаковой вероятностью может получить любую оценку. После сдачи экзамена, на вопрос: «Что получил?» - ответил: «Четверку». Сколько бит информации содержится в его ответе?

Решение: Если сразу сложно ответить на вопрос, то можно отгадать оценку, задавая вопросы, на которые можно ответить только «да» или « нет», т.е. поиск осуществляется отбрасыванием половины вариантов.

Вопросы будем ставить так, чтобы каждый ответ уменьшал количество вариантов в два раза и, следовательно, приносил 1 бит информации.

1 вопрос: -Оценка выше тройки? - ДА

(число вариантов уменьшилось в два раза.) Получен 1 бит информации.

2 вопрос: -Ты получил пятерку? - НЕТ

(выбран один вариант из двух оставшихся: оценка – «четверка».) Получен еще 1 бит.

В сумме имеем 2 бита.

Ответ: Сообщение о том, что произошло одно из четырех равновероятностных событий несет 2 бита информарции.

Пример 3: На книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содержит сообщение о том, где находится книга?

1 вопрос: - Книга лежит выше четвертой полки? - НЕТ (1, 2, 3, 4) - 1 бит

2 вопрос: - Книга лежит ниже третьей полки? - ДА (1, 2) - 1 бит

3 вопрос: - Книга – на второй полке? - НЕТ (1) - 1 бит


Похожая информация.


    Что понимается под битом информации?

    Дайте определение единицы измерения информации байта.

    Определите понятие разряда в байте.

    Перечислите производные единицы информации.

    Что такое мощность алфавита?

    По какой формуле можно вычислить размер алфавита?

    Какие существуют основные подходы к измерению информации?

    Запишите формулу, связывающую между собой количество событий с различными вероятностями и количество информации.

ПРИЛОЖЕНИЕ А

ПРИМЕРЫ ЗАДАЧ (С РЕШЕНИЯМИ)

Пример 1. После экзамена по информатике объявляют оценки («5», «4», «3» или «2»). Какое количество информации будет нести сообщение об оценке студента А, который выучил лишь половину билетов, и сообщение об оценке учащегося Б, который выучил все билеты.

Решение. Опыт показывает, что для учащегося А все четыре оценки (события) равновероятны и тогда количество информации, которое несет сообщение об оценке, можно вычислить по формуле Хартли:

I = Iog 2 4 = 2 бита.

В результате наблюдений, для студента В наиболее вероятной оценкой является «5» (р 1 = 1/2), вероятность оценки «4» в два раза меньше (р 2 = 1/4), а вероятности оценок «2» и «3» еще в два раза меньше (р 3 =p 4 =1/8). Так как данные события не являются равновероятными, для подсчета количества информации воспользуемся формулой Шеннона:

I = - ( 1/2·log 2 l/2+1/4·log 2 l/4+1/8·log 2 l/8+1/8·log 2 l/8)бит= 1,75 бит

(log 2 l/2=-1,log 2 l/4=-2,log 2 l/8=-3).

Ответ: 2 бита; 1,75 бит.

Пример 2. В барабане для розыгрыша лотереи находится 32 шара. Сколько информации содержит сообщение том, что выпал номер 17?

Решение. Поскольку вытаскивание любого из 32 шаров равновероятно, то количество информации об одном выпавшем номере находится из уравнения: 2 I =32. Так как 32=2 5 , тоI =5 бит. (Ответ не зависит от того, какой именно выпал номер).

Ответ: 5 бит.

Пример 3. Для регистрации на сайте пользователю требуется придумать пароль. Длина пароля – ровно 11 символов. В качестве символов используются десятичные цифры и 12 различных букв алфавита, причём все буквы используются в двух начертаниях: как строчные, так и заглавные (регистр буквы имеет значение).

Под хранение каждого такого пароля на компьютере отводится минимально возможное и одинаковое целое количество байтов, при этом используется посимвольное кодирование и все символы кодируются одинаковым и минимально возможным количеством битов.

Определите объём памяти, который занимает хранение 60 паролей (пароль должен занимать ЦЕЛОЕ число байт).

Решение.

    согласно условию, в пароле можно использовать 10 цифр (0...9) + 12 заглавных букв алфавита + 12 строчных букв, всего 10+12+12=34 символа;

    для кодирования 34 символов нужно выделить 6 бит памяти (5 бит не хватает, они позволяют закодировать только 2 5 =32 варианта);

    для хранения всех 11 символов пароля нужно 11*6 = 66 бит;

    поскольку пароль должен занимать целое число байт, берем ближайшее большее (точнее, не меньшее) значение, которое кратно 8: это 72= 9*8; то есть один пароль занимает 9 байт;

    следовательно, 60 паролей занимают 9*60 = 540 байт.

Ответ: 540 байт.

Пример 4. В базе данных хранятся записи, содержащие информацию о студентах:

<Фамилия> – 16 символов: русские буквы (первая прописная, остальные строчные);

<Имя> – 12 символов: русские буквы (первая прописная, остальные строчные);

<Отчество> – 16 символов: русские буквы (первая прописная, остальные строчные);

<Год рождения> – числа от 1960 до 1997.

Каждое поле записывается с использованием минимально возможного количества бит. Определите минимальное (целое) количество байт, необходимое для кодирования одной записи, если буквы е иё считаются совпадающими.

Решение.

    итак, нужно определить минимально возможные размеры в битах для каждого из четырех полей и сложить их;

    известно, что первые буквы имени, отчества и фамилии – всегда заглавные, поэтому можно хранить их в виде строчных и делать заглавными только при выводе на экран;

    таким образом, для символьных полей достаточно использовать алфавит из 32 символов (русские строчные буквы, «е» и «ё» совпадают, пробелы не нужны);

    для кодирования каждого символа 32-символьного алфавита нужно 5 бит (32=2 5), поэтому для хранения имени, отчества и фамилии нужно (16+12+16)*5=220 бит;

    для года рождения есть 38 вариантов, поэтому для него нужно отвести 6 бит (2 6 =64≥38);

    таким образом, всего требуется 226 бита или 29 байт.

Ответ: 29 байт.

Пример 5. Текст содержит 150 страниц; на каждой странице – 40 строк, в каждой строке – 60 символов (для записи текста использовался 256-символьный алфавит). Каков объем информации в Мбайтах содержится в документе?

Решение. Мощность алфавита равна 256 символов, поэтому один символ несет 1 байт информации. Значит, страница содержит 40·60 = 2400 байт информации. Объем всей информации в документе (в разных единицах):

2400·150 = 360 000 байт.

360000/1024 = 351,6 Кбайт.

351,5625/1024 = 0,3 Мбайт.

Ответ: 0,3 Мбайт.

Пример 6 . Какова мощность алфавита, с помощью которого записано сообщение, содержащее 2048 символов (страница текста), если его объем составляет 1,25 Кбайта?

Решение. Переведем информационное сообщение в биты:

1,25*1024*8=10240 бит.

Определим количество бит на один символ:

10240:2048=5 бит.

По формуле для мощности алфавита определим количество символов в алфавите:

N =2 i =2 5 =32 символа.

Ответ: 32 символа.

– Игорь (Администратор)

В данной статье я рассмотрю вопрос что такое бит, зачем он нужен и какое ему отведено место в мире информационных технологий. Материал ориентирован в первую очередь на новичков и обычных пользователей, которым просто интересно узнать что такое бит. Так что если вы матерый компьютерщик, то эта статья не для вас, хотя решать вам.

Сегодня практически вся информационная индустрия, включая технику, базируется на термине "бит", который образован от словосочетания "binary digit" или по русски двоичный знак (число). Так что такое бит? Чисто технически, под словом "бит" подразумевает единицу информации, которая может принимать всего лишь два значения 0 или 1. Если говорить более простыми словами и приводить аналогию из жизни, то это обычный выбор между "Да" или "Нет". Не трудно заметить, что такой подход очень прост для восприятия и понимания, даже теми людьми, которые с техническими науками плохо ладят (практически каждый день миллиарды людей так или иначе взаимодействуют с электронными приборами, включая будильники, компьютеры и прочее).

Примечание : В интернете можно найти упоминания о других методиках подсчета и создания электроники. Однако, из-за своей сложности в массовом производстве и создании соответствующего программного обеспечения они так и не прижились.

Что позволяет бит? Биты позволяют с легкостью выстраивать более сложные конструкции, такие как описание алгоритма действий, системы классификации, хранилища данных и многое другое. Другими словами, используя биты можно в едином стиле как хранить данные, так и создавать программные коды для управляющих устройств. К примеру, если обращали внимание, то документы и программы - это просто файлы на жестком диске. Кроме того, такая двоичная логика используется и при производстве самой техники (создании тех же плат).

В техничке, обычно, за 0 принимается либо отсутствие тока, либо низкий уровень сигнала, а за 1 воспринимается высокий уровень сигнала. Другими словами, есть ток на контактах - значит 1, нет тока - значит 0. Просто, легко, понятно и нет проблем с интеграцией различных устройств и блоков.

В целом, под "что такое бит" можно подразумевать всю сегодняшнюю информационную индустрию, а не только два значения 0 и 1. Поэтому это слово вы можете встретить практически в любой технической статье, будь то она посвящена аппаратуре или же программным кодам.

Примечание : Стоит знать, что под словом "бит" могут подразумеваться и другие определения. К примеру, в теории вероятности, бит - это двоичный логарифм вероятности равновероятных событий.

- «Беспроводные информационные технологии» ООО Москва, организация, техн. Источник: http://www.vedomosti.ru/newspaper/article.shtml?2004/10/29/82849 БИТ безопасные информационые технологии кафедра СПбГИТМО образование и наука, Санкт Петербург, техн … Словарь сокращений и аббревиатур

А; мн. род. бит и ов; м. [от англ. сокращения BInary digiT двоичный знак] Минимальная единица измерения количества информации и объёма памяти компьютера (равна одной ячейке или одному двоичному знаку типа да нет). * * * бит (англ. bit, от… … Энциклопедический словарь

Бит в секунду, бит/с (англ. bits per second, bps) базовая единица измерения скорости передачи информации, используемая на физическом уровне сетевой модели OSI или TCP/IP. На более высоких уровнях сетевых моделей, как правило, используется более… … Википедия

- (исп.). То же, что реал, монета ценностью в 16 1/2 коп. Словарь иностранных слов, вошедших в состав русского языка. Чудинов А.Н., 1910. БИТ 1 [англ. beat бить] муз. выдержанная в равномерном темпе танцевальная и легкая музыка в размере 4/4 с… … Словарь иностранных слов русского языка

- (англ. bit от binary двоичный и digit знак), двоичная единица, в теории информации единица количества информации. Бит в вычислительной технике двоичная цифра, двоичный разряд. число бит памяти ЭВМ определяет максимальное количество двоичных цифр … Большой Энциклопедический словарь

Двоичная единица информации, двоичный знак Словарь русских синонимов. бит сущ., кол во синонимов: 2 биг бит (2) е … Словарь синонимов

- (bit) Аббревиатура понятия двоичный разряд. См.: двоичная запись (binary notation). Бизнес. Толковый словарь. М.: ИНФРА М, Издательство Весь Мир. Грэхэм Бетс, Барри Брайндли, С. Уильямс и др. Общая редакция: д.э.н. Осадчая И.М.. 1998. Бит … Словарь бизнес-терминов

Бит, а; р. мн. ов, счётн. ф.бит (единица количества информации) … Русское словесное ударение

БИТ, а, муж. (спец.). Единица измерения количества информации (в 1 знач.). Толковый словарь Ожегова. С.И. Ожегов, Н.Ю. Шведова. 1949 1992 … Толковый словарь Ожегова

Единица количества информации, которая содержится в сообщении типа «да» – «нет». Бит в вычислительной технике – двоичная цифра, двоичный разряд, принимающий только два значения – 0 или 1. Одним битом можно выразить только два числа – 0 и 1.… … Энциклопедия техники

- (бит, bit) (от англ. binary двоичный и digit знак, цифра), единица кол ва информации в двоичной системе. Обычно последовательность из восьми Б. наз. байтом. Физический энциклопедический словарь. М.: Советская энциклопедия. Главный редактор А. М.… … Физическая энциклопедия