Кафедра
информационных и коммуникационных технологий РГПУ им.А.И.Герцена |
||||||||||||||||||||||||||
Главная | Информатика | |||||||||||||||||||||||||
|
Тема №1:Информация, Информатика, Представление информации1. Понятие об информации. Предмет информатикиСтрого научного определения, что такое информация не существует. Разные люди при разных обстоятельствах могут вкладывать в это понятие разный смысл. В бытовом смысле информация – это сведения, которые человек получает от окружающего мира с помощью органов чувств. Для математика понятие информации шире. Информация – это те сведения, которые человек создал сам с помощью умозаключений. (Теоремы, Постулаты, Аксиомы). Для биолога к информации относятся и те данные, которые человек хранит в себе с момента рождения и до самой смерти. Это генетический код, благодаря которому дети так похожи на своих родителей. Итак, в разных научных дисциплинах и в разных областях техники существуют разные понятия об информации. Но все отрасли сходятся в том, что информацию необходимо создавать, передавать, принимать, хранить и обрабатывать. Вот это и есть задачи информатики.
Возникнув как наука об информации, информатика в настоящее время развивается по многим другим направлениям. Предмет информатики точно невозможно определить – он сложный, многосторонний, динамичный.
2. Свойства информации2.1. Качественные характеристики информацииОсновные свойства информации: Достаточность (Полнота) - характеризует качество информации и определяет минимальный, но достаточный набор данных для принятия решений или для создания новых данных, на основе имеющихся
Актуальность - это степень соответствия информации текущему моменту времени.
Адекватность – это степень соответствия создаваемого с помощью полученной информации образа реальному объекту, процессу, явлению и т.п. Доступность – это мера возможности получить ту или иную информацию. Понятность 2.2. Количественные характеристики информации
Кол-во информации (Формула Шеннона) Количество информации определяется так же через понятие энтропии системы. Энтропия Больцмана – это мера беспорядка. При равновероятном распределении параметров системы (например, направлений движения молекул) энтропия максимальна! При упорядочивании системы (задание определенного направления движения) энтропия уменьшается.
H + I = 1 Пусть Pi это вероятность того, что система находится в состоянии i. (вероятность того, что буква будет, например «В»). Кол-во возможных состояний N. Тогда энтропия по Шеннону – это мера недостающей информации: Энтропия Шеннона количественно характеризует достоверность передаваемых сигналов. 3. Технологии работы с информацией. Кодирование информации3.1 Получение, передача и хранение информации. КодированиеПервым носителем человеческих знаний и опыта, первым средством обмена информации между людьми стала человеческая речь. Но, несмотря на все богатство возможностей передачи информации, предоставляемых языками, описать с их помощью можно далеко не все. Поэтому для передачи и сохранения информации стали использоваться рисунки, чертежи, схемы, а впоследствии — фотографии, телевизионные изображения и т. д. В настоящее время применяют множество специальных языков, приспособленных для передачи информации конкретного содержания, появляющейся при решении определенных задач. К ним можно отнести языки математики, физики, химии и других научных дисциплин, дорожные знаки, обозначения на картах и многие, многие другие. Количество таких языков непрерывно увеличивается в прямой зависимости от роста многообразия решаемых человеком задач.
Кодирование – это представление сведений в том или ином стандартном виде. Какой же язык, какой способ кодирования применить в информатике? Ответ на этот вопрос нашел Клод Элвуд Шеннон (ClaudeElwoodShannon, 1916-2001) – американский математик и электротехник. В своей диссертации, защищенной в 1940 году, он доказал, что работу переключателей и реле в электрических схемах можно представить посредством алгебры, изобретенной в середине XIX века английским математиком Джорджем Булем. "Просто случилось так, что никто другой не был знаком с этими обеими областями одновременно!" - так скромно Шеннон объяснил причину своего открытия Булева алгебра – основа работы компьютераБулева алгебра рассматривает величины, принимающие только два значения – 0 или 1. Значение булевой величины можно представлять как ложность или истинность какого-либо утверждения (0 – ложь, 1 – истина). Поэтому с такими величинами можно производить различные логические операции. Основные операции – это и, или, не. Вы пойдете в кино, если у вас будут деньги и свободное время. У вас будут деньги, если вы их заработаете или вам их дадут родители. (Вариант ограбления банка не рассматриваем). У вас будет свободное время, если вам не надо готовиться к экзамену. Выполнение логических операций можно проиллюстрировать на наглядной физической модели «водопровода». (рис.1.1.) Представим утверждения, над которыми производятся операции, в виде вентилей на трубах (открытый вентиль – утверждение истинно, закрытый – ложно). Результат операции представим в виде крана, из которого вода может либо течь (истина), либо не течь (ложь). Выполнением подобных операций и занимается процессор компьютера. Оказывается, именно триод и транзистор выполняют функции вентиля в электрической схеме. (Если хотите понять как см. физические принципы работы триода и транзистора).
|
Наименьшая единица информации называется – бит. |
Разумеется, с помощью одного бита невозможно представить цифры десятичной системы исчисления или буквы алфавита, поэтому для представления символов используется несколько бит.
8 бит это 1 байт.
Одного байта уже достаточно для представления основных чисел и букв. В байт можно записать 256 различных комбинаций нулей и единиц - это позволяет закодировать 256 разных символов. Коды символов задаются здесь с помощью кодировочной таблицы – кодировки (для каждого кода указывается соответствующий символ).
Одна из самых старых компьютерных кодировок American Standard Code for Information Interchange – ASCII (аски). В ней первые 128 приходятся на символы латинского алфавита, а последующие - на умляуты и символы для создания псевдографических изображений. Например символу "A" соответствует число 65. Именно символы, занимающие позиции 128-255, в эпоху MSDOS заменялись на символы кириллицы. Так возникли вариации стандартной кодировки ASCII, получившие названия KOI8-R.
В настоящее время проблема множества несовместимых кодировок практически решена путем использования двухбайтовой кодировки. При такой кодировке можно закодировать 65 535 символов. Постепенно происходит переход к стандартной двухбайтовой кодировке UTF-8 (Unicode), в которую изначально включены все символы не только латиницы и кириллицы, но и множества других алфавитов (в настоящее время занято 29000 возможных комбинаций).
Делением на два, остаток, записанный с конца, и есть двоичное число.
20 = 10100
Надо сложить двойки в степенях, соответствующих позициям, где в двоичном стоят единицы.
Например: Возьмем число 20. В двоичной системе оно имеет следующий вид: 10100. Итак (начнем слева направо, считая от 4 до 0; число в нулевой степени всегда равно единице (вспоминаем школьную программу по математике)):
10100 = 1*24 + 0*23 + 1*22 + 0*21 + 0*20 = 20
16+0+4+0+0 = 20
Так как в двоичной системе счисления основанием является число 2, то все единицы информации кратны двум в степени n (2n):
1 б = 8 бит = 23 бит
1 Кб = 210 б = 1024 б
1 Мб = 220 б = 1024 Кб
1 Гб = 230 б = 1024 Мб
1 Тб = 240 б = 1024 Гб
Реклама: «При покупке у нас 1 Mб памяти 24 Кб вы получаете бесплатно»
Важно иметь представление, сколько информации может вместить килобайт, мегабайт или гигабайт. При двоичном кодировании текста каждая буква, знак препинания, пробел занимают 1 байт. На странице книги среднего формата примерно 50 строк, в каждой строке около 60 символов, таким образом, полностью заполненная страница имеет объём 50 x 60 = 3000 байт 3 Килобайта. Вся книга среднего формата занимает ? 0,5 Мегабайт. Один номер четырёхстраничной газеты — 150 Килобайт. Если человек говорит по 8 часов в день без перерыва, то за 70 лет он наговорит около 10 Гигабайт информации. Один чёрно-белый кадр (при 32 градациях яркости каждой точки) содержит примерно 300 Кб информации, цветной кадр содержит уже около 1 Мб информации. Телевизионный фильм продолжительностью 1,5 часа с частотой 25 кадров в секунду — 135 Гб.
Текст закодировать довольно просто. Для этого достаточно как-нибудь перенумеровать все буквы, цифры, знаки препинания и другие используемые при письме символы. Для хранения одного символа чаще всего используется восьмиразрядная ячейка — один байт, иногда два байта (иероглифы, например). В байт можно записать 256 различных чисел, значит, это позволит закодировать 256 различных символов. Соответствие символов и их кодов задаётся в специальной таблице. Коды записываются в шестнадцатеричной системе, так как для записи числа из восьми разрядов нужно всего две шестнадцатеричных цифры.
Цветные изображения воспринимаются нами как сумма трёх основных цветов — красного, зелёного и синего.
Например: сиреневый = красный + синий; жёлтый = красный + зелёный; оранжевый = красный + зелёный, но в другой пропорции.
Поэтому достаточно закодировать цвет тремя числами — яркостью его красной, зелёной и синей составляющих. Этот способ кодирования называется RGB (Red—Green—Blue). Его используют в устройствах, способных излучать свет (мониторы).
При рисовании на бумаге действуют другие правила, так как краски сами по себе не испускают свет, а только поглощают некоторые цвета спектра. Если смешать красную и зелёную краски, то получится коричневый, а не жёлтый цвет. Поэтому при печати цветных изображений используют метод CMY (Cyan—Magenta—Yellow) — голубой, сиреневый, жёлтый цвета. При таком кодировании красный = сиреневый + жёлтый; зелёный = голубой + жёлтый.
<< Предыдущая | Оглавление | Следующая >> |