Всё сдал! - помощь студентам онлайн Всё сдал! - помощь студентам онлайн

Реальная база готовых
студенческих работ

Узнайте стоимость индивидуальной работы!

Вы нашли то, что искали?

Вы нашли то, что искали?

Да, спасибо!

0%

Нет, пока не нашел

0%

Узнайте стоимость индивидуальной работы

это быстро и бесплатно

Получите скидку

Оформите заказ сейчас и получите скидку 100 руб.!


Классическая теория информации и еe ограничения

Тип Реферат
Предмет Информатика и программирование
Просмотров
474
Размер файла
26 б
Поделиться

Ознакомительный фрагмент работы:

Классическая теория информации и еe ограничения

Э.А. Соснин, Институт сильноточной электроники СО РАН, г. Томск

Статья в краткой форме знакомит с парадоксами классической теории информации.

"Информация это информация."

Н. Винер

"Всегда познавайте предмет в противоречиях. Вы обнаружите при этом, что существует постоянный заговор, имеющий целью преподать тот же предмет догматически и односторонне."

Б. Шоу

Термин “информация” стал активно использоваться в научной литературе, начиная с тридцатых-сороковых годов XX века. Тогда слово “информация” обозначало, в основном, “сведения” или “осведомление”, то есть использовался прямой перевод латинского слова “informatio” (в оригинале латинское слово “informatio” переводится как “разъяснение” или “осведомление”).

К концу сороковых под “информацией” начали понимать функцию статистических характеристик букв какого-либо языка, и, согласно К. Шеннону [Шеннон К. Математическая теория связи // “К. Шеннон. Работы по теории информации и кибернетике”. М.: ИИЛ, 1963. - С. 243-332.], количество информации, содержащееся в каком-либо сообщении, состоящем из М букв, могло быть вычислено по формуле:

(1)

где n - число букв в данном языке, а рj - частота встречаемости j -той буквы (j = 1,2....n) в этом языке. Знак минус поставлен перед правой частью формулы для того, чтобы количество информации B всегда было положительным.

В восьмидесятые годы “информацией” уже называли “...обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом”, а также “обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму” [Советский энциклопедический словарь. М.: Изд-во “Советская энциклопедия”, 1981.- 505 с.].

Под влиянием работ Л. Бриллюзна [Бриллюэн Л. Научная неопределенность и информация. М.:. “Мир”, 1966. - 271 с.], начиная с шестидесятых годов, возник и приобрел широкую известность так называемый “негэнтропийный принцип информации”. Сторонники этого принципа стали называть “информацией” не только содержательный и статистический аспекты сообщений, но и нечто, противоположное физической энтропии, - так называемую негэнтропию. В отличие от энтропии, рассматриваемой в качестве неупорядоченности той или иной системы, негэнтропией обычно называют меру упорядоченности окружающих нас систем, связывая с ней различного рода антиэнтропийные процессы, протекающие в физическом мире. В основе негэнтропийного принципа лежит внешнее сходство формулы К. Шеннона (1), обобщенной для любого единичного события

(2),

где К - коэффициент, а Р - вероятность этого события, и формулы Макса Планка для физической энтропии:

(3),

где К0 постоянная Больцмана, равная 1.4 10-16 эрг град-1, а W  микросостояния системы, соответствующие данному ее макросостоянию.

Л. Бриллюэн предложил выражать информацию I и энтропию S в одних и тех же единицах - информационных (битах) или энтропийных эрг·град-1. Тем самым, по его мнению, была получена возможность рассчитывать количество информации, зная энтропию системы, и, напротив, рассчитывать энтропию системы, зная количество содержащейся в ней информации. Столь широкая трактовка термина “информация” приводит, по существу, к невозможности его строгого определения, а, следовательно, и использования. В этой связи В.В. Налимов [Налимов В.В. Вероятностная модель языка. М.: Наука, 1979. - 303 с.] пишет: “Мы не умеем определить, что есть “информация”, и будем считать, что это такое сложное понятие, смысл которого раскрывается при чтении тех фраз, в которых оно употребляется”. Но в таком случае приходится либо отказаться от употребления этого термина, либо каждый раз давать ему свое, частное, определение. Оба выхода из положения представляются нам неудовлетворительными, да и ненужными.

В большинстве случаев смысловой полиморфизм вызван тем, что под “информацией” часто понимают нечто, давно имевшее другое название, и вовсе не соответствующее этому слову,  например, сложность, гетерогенность, энтропию (или негэнтропию), логарифм вероятности какого-либо события и т.д.

Рассмотрим эти представления подробно.

Информация по-Винеру не является ни материей и ни энергией [Винер Н. Кибернетика, или Управление и связь в животном и машине. М .: Советское радио, 1968. - 340 с.]. В связи с этим логично было бы далее предположить, что она не предполагает строго количественного эквивалента, подобно энергии или материи. Но парадокс классической теории информации именно в том и состоит, что в её основе лежит предположение Р.Хартли, согласно которому информация допускает количественную оценку [Hartley R.V.L. Transmission of Information // BSTJ.- 1928. - V.7 - №3 - P.535-536.]. Вот как это в своё время пояснялось в соответствующем учебнике:

Для развития теории информации в её современном виде (т.е. в 30-е годы XX века,  прим. авт.) вообще не требуется определения понятия информации как такового (курсив наш); необходимым и достаточным для построения теории является понятие количества информации, не должно казаться странным, потому как такое положение характерно и для ряда других количественных теорий. Например, для изложения механики нужны лишь количественные характеристики движения, но не требуется анализа существа самого движения. [Тарасенко Ф.П. Введение в курс теории информации.  Изд-во томского университета, 1963.  240 с., стр.111].

Таким образом, согласно цитируемому отрывку:

 новая теория якобы должна быть количественной в силу того, что все предшествующие содержательные теории были именно таковыми;

 новая теория вообще не нуждается в определении информации (!!!).

Теория информации Шеннона родилась как теория поддержки для технических систем связи. И в этой сфере доказала свою безусловную полезность. Однако, предложившие ее ученые не могли не понимать, что вводимая ими количественная мера не отражает всей полноты существующих информационных процессов, а не только тех процессов, что характеризуют передачу сигналов по каналам связи. Возможно недаром, у Хартли информация допускает количественную оценку, хотя ничего не сказано о том, насколько исчерпывающей такая оценка может быть.

Сравнение количественной физической теории (механики) с теорией информации, без специальных оговорок, по-видимому незаконно. Механика, по своему происхождению, имеет дело с измеряемыми величинами массы и силы, что даёт возможность оперировать категориями материи и энергии. Но, если по-Винеровски посчитать нетождественность последних двух категорий информации, то отсюда не очевидно, что теория информации тоже будет количественной, и последнее нуждается в специальном доказательстве.

Отсутствие в теории информации дефиниции (определения) самой информации и акцент, который она сделала на количественном исчислении: 1) делают любое её заключение статистическим (см. напр., формулу (1)); 2) лишают информацию семантической нагрузки.

Вот несколько примеров, которые это подтверждают:

“Парадокс” с перестановкой букв. Нести информацию могут лишь определённые сочетания букв кода (рабочего алфавита, который может быть считан соответствующим считывающим устройством). Отдельные буквы, или поставленные как попало буквы, не несут информации, для передачи которой создан канал связи. Между тем расчёт по формуле (1) может быть произведён и для одной буквы сообщения! А это явная нелепица. В классической теории информации получается, что слово “буква” несёт столько же информации, сколько и слово “укваб”, а это бессмыслица. Ведь даже самостоятельное слово “буква” не несёт никакой информации без контекста, о чем мы подробно говорили в первой главе (см. например, комментарий 1 к этой части работы).

“Парадокс” длинных текстов. В длинных текстах смысл сообщения может распределяться неравномерно, однако, согласно записи (1), все элементы текста можно якобы считать осмысленными в равной мере. Этим действительно можно было бы удовлетвориться, если бы каналы связи были абсолютно надёжными, но даже в такой высокоразвитой области техники связи как радиосвязь существует, например, ситуация помех, то есть возможной утери куска передаваемого по каналу текста. И если бы была справедлива оценка типа (1), то риска потерять почти весь смысл или большую часть сообщения при этом не существовало бы.

Подобные сложности замечены давно. Ещё в 1963 году В.С. Флейшман писал, что “возникшая благодаря гениальной интуиции К.Шеннона теория информации испытывает кризис неадекватности физических представлений и своего аппарата” [Флейшман В.С. Конструкторские методы оптимального кодирования каналов с шумами.- М.: Изд. АН СССР, 1963. - 144 с.].

Шенноновская запись и последовавшая за ней теория тем самым “как бы создали возможность для отождествления двух разных по своей природе феноменов - информации, как семантики сообщения, и “информации”, как частоты осуществления какого-либо события, подобного модуляции тока на выходе канала связи” [Корогодин В.И. Информация и феномен жизни. Пущино: Пущинский научный центр АН СССР, 1991. - 204 с., с.11].

Итак, возможности возникшей теории были переоценены. Так стало расхожим заблуждением считать, что, используя формулу (1), или используя ее варианты, можно рассчитать информацию, содержащуюся в книге, тексте бегущей строки, и далее, ... в картине, мозге, и тому подобное! Иногда уверенность авторов в пригодности подобных расчётов при их употреблении вне математической теории связи Шеннона приводит к забавным ситуациям.

Парадокс с расчетом “принятой глазом информации”. В самом простом случае считается “информация” I, которая “содержится” в изображении чёрно-белого негатива. Для этого разлагают негатив-аналог на множество точек чёрного и белого цвета, а так же несколько промежуточных оттенков (градаций). Легко понять, что для разных (и условных) выборов числа градаций, мы получим совершенно разные итоговые значения I. И если в области технических систем считывания изображения можно как-то унифицировать процедуры расчёта, договорившись между собой брать одно и то же количество градаций и закладывать его во все конвенциональные схемы считывающих устройств, то в области живых систем проделать ту же процедуру затруднительно. В самом деле: расчёт “принятой глазом информации” подразумевает использование типовой формулы количества информации [Луизов А.В., Фёдорова Н.С. Глаз как приёмник информации. В кн. “Специальные вопросы светотехники в охране труда”.  М.: Наука, 1975. - 250 с.]:

(4)

где N  число элементов изображения, M  число градаций яркости. Но так как M глаза остаётся неопределённым, то и вычисления по формуле (4) можно считать достаточно случайными.

Идет война. Представьте себе, что Вы хотите рассчитать количество информации, содержащейся в пойманной Вами радиограмме противника. Какова будет ценность вашего расчета, если заведомо не известно, какая часть от пойманных Вами радиосообщений является намеренной дезинформацией, проводимой противником в целях запутывания?

Неудобства выражения информации через частоты (вероятности) осуществления какого-либо события вызывали к жизни несколько новых вариантов теории информации. С подробным методичным изложением всех появившихся предложений можно ознакомится в [Мелик-Гайказян И.В. Информационные процессы и реальность.  М.: Наука. Физматлит, 1998. - 192 с.]. Например, в 1966 году А.А. Харкевич предложил домножить выражения типа (1) и (4) на коэффициент, который был назван “ценностью информации” [Харкевич А.А. О ценности информации. В сб “Проблемы кибернетики”. // Вып. 4, М.: Физматгиз, 1960. - C.53-72.]. По мысли автора он должен был компенсировать сильно завышенные результаты расчётов применительно к сложным системам (живым системам, в частности). На наш взгляд такая попытка похожа на лукавство, ведь существа проблемы она не затронула, оставляя за собой возможность обобщения математической теории связи на широкий класс объектов (тем паче не искусственного происхождения). Кроме того, остался не ясен способ получения величины вводимого Харкевичем множителя.

Накопившихся несоответствий, обсуждавшихся в литературе, казалось бы должно было хватить, чтобы признать Шенноновскую теорию информации локальной теорией, с успехом описывающей процессы в системах связи с заведомо осмысленными передаваемыми текстами.

Выводы:

1) Количественная (классическая) теория информации изначально не нуждалась в дефиниции информации.

2) Определение меры информации (количества информации (1)) и её сходство со статистической мерой создали класс расширений классической теории информации, выходящих за рамки локальной теории, называемой иногда “математической теорией связи”.

3) Накоплен массив данных, свидетельствующих о неправомерности указанных расширений. Эти данные касаются процессов коммуникации в обществе и живой природе.


Нет нужной работы в каталоге?

Сделайте индивидуальный заказ на нашем сервисе. Там эксперты помогают с учебой без посредников Разместите задание – сайт бесплатно отправит его исполнителя, и они предложат цены.

Цены ниже, чем в агентствах и у конкурентов

Вы работаете с экспертами напрямую. Поэтому стоимость работ приятно вас удивит

Бесплатные доработки и консультации

Исполнитель внесет нужные правки в работу по вашему требованию без доплат. Корректировки в максимально короткие сроки

Гарантируем возврат

Если работа вас не устроит – мы вернем 100% суммы заказа

Техподдержка 7 дней в неделю

Наши менеджеры всегда на связи и оперативно решат любую проблему

Строгий отбор экспертов

К работе допускаются только проверенные специалисты с высшим образованием. Проверяем диплом на оценки «хорошо» и «отлично»

1 000 +
Новых работ ежедневно
computer

Требуются доработки?
Они включены в стоимость работы

Работы выполняют эксперты в своём деле. Они ценят свою репутацию, поэтому результат выполненной работы гарантирован

avatar
Математика
История
Экономика
icon
159599
рейтинг
icon
3275
работ сдано
icon
1404
отзывов
avatar
Математика
Физика
История
icon
156492
рейтинг
icon
6068
работ сдано
icon
2737
отзывов
avatar
Химия
Экономика
Биология
icon
105734
рейтинг
icon
2110
работ сдано
icon
1318
отзывов
avatar
Высшая математика
Информатика
Геодезия
icon
62710
рейтинг
icon
1046
работ сдано
icon
598
отзывов
Отзывы студентов о нашей работе
64 096 оценок star star star star star
среднее 4.9 из 5
им. С.Ю.Витте
Работа выполнена досрочно, содержание по существу, маленький недочет был исправлен. Спасибо!
star star star star star
БПТ
Обращался к Елене Александровне второй раз Всё очень здорово и оперативно сделанно, без за...
star star star star star
"КрасГАУ"
Заказываю в первый раз у Евгения , и остался максимально доволен , всё чётко !)
star star star star star

Последние размещённые задания

Ежедневно эксперты готовы работать над 1000 заданиями. Контролируйте процесс написания работы в режиме онлайн

Решение задач по предмету «Математика»

Решение задач, Математика

Срок сдачи к 29 дек.

1 минуту назад

Отчет с выполнением заданий

Решение задач, Отчет, бух учет

Срок сдачи к 25 дек.

4 минуты назад

Расчет параметров участка электроэнергетической системы

Решение задач, Электрические системы, электроника, электротехника

Срок сдачи к 8 янв.

4 минуты назад
4 минуты назад

Сделать курсач по методике

Курсовая, Электротехника

Срок сдачи к 26 дек.

5 минут назад

Психология безопасности труда

Реферат, Русский язык и культура речи

Срок сдачи к 29 дек.

7 минут назад

Сделать реферат и презентацию

Презентация, Биомеханика

Срок сдачи к 25 дек.

7 минут назад

написать курсовую работу по уголовному праву

Курсовая, Уголовное право

Срок сдачи к 25 дек.

7 минут назад

Начертить 12 чертежей

Чертеж, Начертательная геометрия

Срок сдачи к 9 янв.

8 минут назад

Феномен успеха и успешность в профессиональном развитии

Реферат, Психология

Срок сдачи к 28 дек.

9 минут назад

В файле прикреплен пример выполнения задания

Контрольная, Криминология

Срок сдачи к 27 дек.

9 минут назад

9-11 страниц. правовые основы военной реформы в ссср в 20-е гг

Реферат, История государства и права России

Срок сдачи к 26 дек.

10 минут назад

Выполнить реферат. История Англии. Е-01554

Реферат, Английский язык

Срок сдачи к 26 дек.

10 минут назад

Составить Проект массового взрыва

Контрольная, Взрывное дело, горное дело

Срок сдачи к 8 янв.

12 минут назад

Термодинамика

Решение задач, Термодинамика

Срок сдачи к 26 дек.

12 минут назад

Нужен реферат, объем 15-20 страниц

Реферат, Безопасность в техносфере

Срок сдачи к 5 янв.

12 минут назад

Выполнить реферат. История Англии. Е-01554

Реферат, История

Срок сдачи к 26 дек.

12 минут назад
planes planes
Закажи индивидуальную работу за 1 минуту!

Размещенные на сайт контрольные, курсовые и иные категории работ (далее — Работы) и их содержимое предназначены исключительно для ознакомления, без целей коммерческого использования. Все права в отношении Работ и их содержимого принадлежат их законным правообладателям. Любое их использование возможно лишь с согласия законных правообладателей. Администрация сайта не несет ответственности за возможный вред и/или убытки, возникшие в связи с использованием Работ и их содержимого.

«Всё сдал!» — безопасный онлайн-сервис с проверенными экспертами

Используя «Свежую базу РГСР», вы принимаете пользовательское соглашение
и политику обработки персональных данных
Сайт работает по московскому времени:

Вход
Регистрация или
Не нашли, что искали?

Заполните форму и узнайте цену на индивидуальную работу!

Файлы (при наличии)

    это быстро и бесплатно