Материал предоставлен http://it.rfet.ru

Понятие информации, ее виды и свойства

В литературе можно найти достаточно много определений термина информация, отражающих различные подходы к толкованию этого понятия.

В Федеральном законе Российской Федерации «Об информации, информатизации и защите информации» дается следующее определение этого термина:

«информация – сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления».

Толковый словарь русского языка Ожегова приводит 2 определения слова информация:

  1. Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.
  2. Сообщения, осведомляющие о положении дел, о состоянии чегонибудь. (Научно-техническая и газетная информации, средства массовой информации – печать, радио, телевидение, кино).

В информатике наиболее часто используется следующее определение этого термина:

Информация – это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения – это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д.

Информация и ее свойства являются объектом исследования целого ряда научных дисциплин, таких как теория информации (математическая теория систем передачи информации), кибернетика (наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах), семиотика (наука о знаках и знаковых системах), теория массовой коммуникации (исследование средств массовой информации и их влияния на общество), информатика, соционика (теория информационного метаболизма индивидуальной и социальной психики), информо-динамика (наука об открытых информационных системах), информациология (наука о получении, сохранении и передаче информации для различных множеств объектов) и т.д.

Каждого человека в мире окружает море информации различных видов. Стремление зафиксировать, сохранить надолго свое восприятие информации было всегда свойственно человеку. Мозг человека хранит множество информации, и использует для хранения ее свои способы, основа которых – двоичный код, как и у компьютеров. Человек всегда стремился иметь возможность поделиться своей информацией с другими людьми и найти надежные средства для ее передачи и долговременного хранения. Для этого в настоящее время изобретено множество способов хранения информации на внешних (относительно мозга человека) носителях и ее передачи на огромные расстояния.

Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это:

  •  графическая или изобразительная – первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира;
  • звуковая – мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретение звукозаписывающих устройств в 1877 г. (см., например, историю звукозаписи на сайте – http://radiomuseum.ur.ru/index9.html); ее разновидностью является музыкальная информация – для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;
  • текстовая – способ кодирования речи человека специальными символами – буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;
  • числовая – количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами – цифрами, причем системы кодирования (счисления) могут быть разными;
  • видеоинформация – способ сохранения движущихся картин окружающего мира, появившийся с изобретением кино.

Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения – это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и другие виды, для которых современная наука даже не нашла признанных всеми терминов определения (например, экстрасенсорная информация).

Для передачи информации на большие расстояния первоначально использовались кодированные световые сигналы, с изобретением электричества – передача закодированного определенным образом сигнала по проводам, позднее – с использованием радиоволн.

Создателем общей теории информации и основоположником цифровой связи считается Клод Шеннон (Claude Shannon). Всемирную известность ему принес фундаментальный труд 1948 года – «Математическая теория связи» (A Mathematical Theory of Communication), в котором впервые обосновывается возможность применения двоичного кода для передачи информации.

Хранение информации при использовании компьютеров осуществляется на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются новые устройства и носители информации. Обработку информации (воспроизведение, преобразование, передача, запись на внешние носители) выполняет процессор компьютера. С помощью компьютера возможно создание и хранение новой информации любых видов, для чего служат специальные программы, используемые на компьютерах, и устройства ввода информации.

Особым видом информации в настоящее время можно считать информацию, представленную в глобальной сети Интернет. Здесь используются особые приемы хранения, обработки, поиска и передачи распределенной информации больших объемов и особые способы работы с различными видами информации.

Постоянно совершенствуется программное обеспечение ведущих разработчиков (например, Microsoft Corporation), обеспечивающее коллективную работу с корпоративной информацией всех видов.

Свойства информации

Как и всякий объект, информация обладает свойствами. Характерной отличительной особенность информации от других объектов природы и общества, является дуализм: на свойства информации влияют как свойства исходных данных, составляющих ее содержательную часть, так и свойства методов, фиксирующих эту информации.

С точки зрения информатики наиболее важными представляются следующие общие качественные свойства: объективность, достоверность, полнота, точность, актуальность, полезность, ценность, своевременность, понятность, доступность, краткость и пр.

  1. Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения.

    Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22oС» – объективную, но с точностью, зависящей от погрешности средства измерения.

    Объективную информацию можно получить с помощью измерительных приборов. Отражаясь в сознании конкретного человека, информация перестает быть объективной, так как, преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта.

  2. Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

    • преднамеренное искажение (дезинформация) или непреднаме ренное искажение субъективного свойства;
    • искажение в результате воздействия помех и недостаточно точных средств измерений.
  3. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.
  4. Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления (погрешностью средства измерения).
  5. Актуальность информации – важность для настоящего времени, злободневность, насущность. Иногда только вовремя полученная информация может быть полезна.
  6. Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Самая ценная информация – объективная, достоверная, полная, и актуальная. При этом следует учитывать, что и необъективная, недостоверная информация (например, художественная литература), имеет большую значимость для человека.

Социальная (общественная) информация обладает еще и дополнительными свойствами:

  •  имеет семантический (смысловой) характер, т. е. понятийный, так как именно в понятиях обобщаются наиболее существенные признаки предметов, процессов и явлений окружающего мира.
  •  имеет языковую природу (кроме некоторых видов эстетической ин формации, например изобразительного искусства). Одно и то же содержание может быть выражено на разных естественных (разговорных) языках, записано в виде математических формул и т. д.

С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации. (Кумуляция – от лат; cumulatio – увеличение, скопление).

Старение информации заключается в уменьшении ее ценности с течением времени. Старит информацию появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) – медленнее.

Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.

Количественные характеристики информации

Измерение информации в технике

В технике (теория кодирования и передачи сообщений) под количеством информации понимают количество кодируемых, передаваемых или хранимых символов. При этом используют простой способ определения количества информации, который может быть назван объемным. Он основан на подсчете числа символов в сообщении, т. е. связано с его длиной и не учитывает содержания.

В вычислительной технике применяются две стандартные единицы измерения: бит (binary digit) и байт (byte).

Бит – минимальная единица измерения информации – величина, которая может принимать одно из двух значений (в математическом представлении 0 или 1).

Байт – единица количества информации в системе СИ. Байт восьмиразрядный двоичный код, с помощью которого наиболее часто представляют один символ текста.

Информационный объем сообщения (информационная емкость сообщения) – количество информации в сообщении, измеренное в битах, байтах или производных единицах (Кбайтах, МБайтах и т. д.).

1 килобайт (Кбайт) = %%2^{10}%% байт = 1024 байт,
1 мегабайт (МБайт) = %%2^{10}%% Кбайт = 1024 Кбайт = 1048576 байт,
1 гигабайт (ГБайт) = %%2^{10}%% МБайт = 1024 МБайт = 1073741824 байт,
1 терабайт (Тбайт) = %%2^{10}%% ГБайт = 1024 ГБайт = 1099511627776 байт и т. д.

Измерение информации в теории информации (информация как снятая неопределенность)

В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания и характеризующую неопределенность, которая исчезает после получения сообщения в виде данного сигнала – в этом случае количество информации зависит от вероятности получения сообщения о том или ином событии. Оценка количества информации основывается на законах теории информации.

Клод Шеннон ввел понятие информационной энтропии – меры хаотичности информации, определяющей неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.

Информация, в том числе графическая и звуковая, может быть представлена в аналоговой и дискретной форме.

При аналоговом представлении информации физическая величина может принимать бесконечное множество значений. При дискретном представлении информации физическая величина может принимать конечное множество значений, при этом она изменяется скачкообразно.

Преобразование графической и звуковой информации из аналоговой формы в дискретную производится путем дискретизации, т. е. разбиения непрерывного графического изображения или непрерывного (аналогового) звукового сигнала на отдельные элементы. В процессе дискретизации производится кодирование, т. е. присвоение каждому элементу конкретного значения в форме кода.

Общие сведения об информационных процессахКодирование текстовой информации