Информация

ИНФОРМАЦИЯ. Наиболее  употребительные определения  информации сводятся к следующим: 1)  сообщение, описание фактов; 2)  новости, новые сведения; 3)  уменьшение неопределенности в  результате сообщения; 4) передача, основа связи и управления в  живой природе и машинах.  Распространено также определение  информации как «отраженного  разнообразия». Всякая информация обладает тремя основными  параметрами: содержанием,  количеством, ценностью.  Количественный момент исследуется в  основном математической статистикой, аксиологический и  содержательный — семантической теорией. Самую известную формулу  количества информации предложил К. Шеннон: количество  информации выражается количественным изменением неопределенности в результате сообщения. А.  Колмогоров решает проблему  алгоритмически: здесь количество  информации соответствует  сложности алгоритма, переводящего  систему из одного состояния в  другое. Суть семантического подхода к проблеме: информация есть  осмысленные тексты, состоящие из знаков некоторого языка.  Существует система, в которой эти  знаки различимы и осмысленны  (носитель информации).  Осмысление предполагает, что знаки  известны воспринимающей системе (приемнику информации).  Последняя должна содержать в себе подсистему, позволяющую  объяснить каждое понятие с помощью  набора других понятий — так  называемый тезаурус. Информация  воспринимается приемником  посредством цепочки трансляций —  перевода тезаурусом знаков языка  носителя на язык приемника. На основе  полученной таким образом  информации система реагирует на  окружающий мир. Понятие информации — основное в кибернетической теории Н. Винера и его последователей,  утверждающих, что все процессы  управления и связи в живой природе, обществе и машинах представляют собой процессы передачи, хранения и переработки информации.  Действующий объект поглощает  последнюю из окружающего мира и  использует ее для выбора правильного поведения. Количество информации есть количество выбора, или  отрицательная энтропия — основа и средство борьбы с кибернетическим «шумом», искажающим  информацию (в термодинамическом смысле «шум» означает возрастание  энтропийного хаоса). В исследованиях, связанных с  понятием информации, много  нерешенных вопросов. До сих пор  длится дискуссия, является ли  информация свойством всего материального, или — только живых организмов, или — исключительно разумных, сознательно действующих существ. Проблема информации стала  наиболее острой и актуальной в условиях современности, когда в  результате «компьютерной революции» функции передачи и хранения  информации фактически переданы машинам.

Рекомендуем прочитать