это быстро и бесплатно
Оформите заказ сейчас и получите скидку 100 руб.!
Ознакомительный фрагмент работы:
Хронология событий, связанных с теорией информации, сжатием данных, кодами коррекции ошибок и смежных дисциплин:
· 1872 — Людвиг Больцман представляет свою H-теорема, а вместе с этим формулу Σpi log pi для энтропии одной частицы газа.
· 1878 — Джозайя Уиллард Гиббс, определяет энтропию Гиббса: вероятности в формуле энтропии теперь взяты как вероятности состояния целой системы.
· 1924 — Гарри Найквист рассуждает о квантификации «Интеллекта» и скорости, на которой это может быть передано системой коммуникации.
· 1927 — Джон фон Нейман определяет фон Неймановскую энтропию, расширяя Гиббсовскую энтропию в квантовой механике.
· 1928 — Ральф Хартли представляет Формулу Хартли, как логарифм числа возможных сообщений, с информацией, передаваемой, когда приемник (получатель, ресивер) может отличить одну последовательность символов от любой другой (независимо от любого связанного значения).
· 1929 — Лео Сцилард анализирует Демон Максвелла, показывают, как двигатель Szilard может иногда преобразовывать информацию в извлечение полезной работы.
· 1940 — Алан Тьюринг представляет deciban как единицу измерения информации в немецкой машине Энигма с настройками, зашифрованными процессом Banburismus.
· 1944 — теория информации Клод Шеннона в основном завершена.
· 1946 — Ричард Хемминг представляет Код Хемминга для обнаружения ошибок и их исправления.
· 1948 — Клод Шеннон публикует Математическую теорию связи
· 1949 — Клод Шеннон публикует Передачу Информации в виде шумов — пример теорема Найквиста — Шеннона и закон Шеннон-Хартлей.
· 1949 — Рассекречена Теория конфиденциальности систем коммуникации Клода Шеннона.
· 1949 — Дж. Голей вводит коды Голея для исправления ошибок методом упреждения.
· 1950 — Ричард Хемминг вводит коды Хемминга для исправления ошибок методом упреждения.
· 1951 — Дэвид Хаффман изобретает кодирование Хаффмана, метод нахождения оптимальных Префиксных кодов для сжатия данных без потерь.
· 1951 — Соломон Кульбак и Ричард Леиблер вводят понятие расхождения Кульбака-Леиблера.
· 1954 — Ирвинг С. Рид и Д.E. Мюллер вводит коды Рида-Мюллера.
· 1955 — Питер Элиас вводит свёрточные коды.
· 1957 — Юджин Прандж первый обсуждает циклический избыточный код.
· 1959 — Радж Чандра Боуз и Двайджендра Камар Рей-Чоудхури, и самостоятельно в следующем году Алексис Хоквингем, представляют коды Боуза-Чоудхури-Хоквингема (БЧХ-коды).
· 1960 — Ирвинг С. Рид и Густав Соломон вводят коды Рида-Соломона.
· 1962 — Роберт Галлагер предлагает код с малой плотностью проверок на чётность; их не использовали в течение 30 лет из-за технических ограничений.
· 1967 — Эндрю Витерби открывает алгоритм Витерби, делающий возможным декодирование свёрточных кодов.
· 1968 — Элвин Берклекамп изобретает алгоритм Берлекэмпа — Мэсси; его применение к расшифровке БЧХ-кодов и кода Рида-Соломона, указанный Джеймсом Мэсси в последующем году.
· 1968 — Крис Уоллис и Дэвид М. Бутон издают первый из многих докладов о Сообщениях минимальной длины (СМД) — их статистический и индуктивный вывод.
· 1973 — Дэвид Слепиан и Джек Уолф открывают и доказывают код Слепиан-Уольфа, кодирующего пределы распределенного источника кодирования.
· 1977 — Джома Райссанен патентует арифметическое кодирование для IBM.
· 1977 — Абрахамом Лемпель и Якоб Зив развивают алгоритм сжатия Лемпеля-Зива (LZ77)
· 1982 — Готфилд Андебоэк создает Trellis-модуляцию, поднимая скорость аналогового модема старой обычной телефонной службы от 9.6 кбит/сек до 36 кбит/сек.
· 1989 — Фил Катз создает .zip формат, включая формат сжатия DEFLATE (LZ77 + Huffman кодирование); позже это становится наиболее широко используемым алгоритмом сжатия без потерь.
· 1993 — Клод Берроу , Алэйн Главиукс и П.Ситимашимой вводят понятие Турбо-кодов.
· 1993 — Майкл Барроуз и Дэвид Уилер публикуют теорию преобразования Барроуза-Уилера, которая далее найдет свое применение в bzip2.
Вклад отечественных ученных в теорию информации
· Понятие марковской цепи принадлежит русскому математику А. А. Маркову, чьи первые статьи по этому вопросу при решении лингвистических проблем были опубликованы в 1906—1908
· 1933 — Академиком В. А. Котельниковым в была доказана знаменитая теорема отсчетов.
· 1947 — В. А. Котельниковым создана теория потенциальной помехоустойчивости. Теория потенциальной помехоустойчивости давала возможность синтеза оптимальных устройств обработки любых сигналов в присутствии помех. Она имела два раздела — теория приема дискретных и аналоговых сигналов.
· 1948—1949 — Основы Информационной теории были заложены американским ученым Клодом Шенноном . В её теоретические разделы внесен вклад советским учеными А. Н. Колмогоровым и А. Я. Хинчиным, а в разделы, соприкасающиеся с применениями, — В. А. Котельниковым, А. А. Харкевичем и др.
· 1950 — При сравнении конкретных кодов с оптимальными широко используются результаты Р. Р. Варшамова. Интересные новые границы для возможностей исправления ошибок установлены В. И. Левенштейном и В. М. Сидельниковым.
· 1956 — Были нужны работы математического уровня, закладывающие математический фундамент теории информации. Задача была решена известным докладом А. Н. Колмогорова на сессии АН СССР, посвященной автоматизации производства. Первые пионерские работы А. Я. Хинчина были посвящены доказательству основных теорем теории информации для дискретного случая.
· 1957 — при исследовании А. Н. Колмогоровым знаменитой проблемы Гильберта о суперпозициях он не только показал возможность представления любой непрерывной функции в виде суперпозиции непрерывных же функций трех переменных, но и создал метод, позволивший его ученику В. И. Арнольду понизить число переменных до двух и тем самым решить упомянутую проблему.
· 1958 — А. Н. Колмогоров. Новый метрический инвариант транзитивных динамических систем и автоморфизмов пространств Лебега.— ДАН СССР. Очень важные и плодотворные возможности применения понятия энтропии к проблеме изоморфизма динамических систем.
· 1958 — Доклад И. М. Гелъфанда, А. Н. Колмогоровым, А. М. Яглома «Количество информации и энтропия для непрерывных распределений».— В кн.: Тр. III Бсесоюз.мат. съезда. М.: Изд-во АН СССР.
Отметим также работы китайского ученого Ху Го Дина, стажировавшегося в то время в Московском университете.
· 1961 — Ху Го Дин. Три обратные теоремы к теореме Шеинона в теории информации.
· 1962 — Ху Го Дин. Об информационной устойчивости последовательности каналов. Теория вероятностей и её применения.
· 1965 — вышел первый номер журнала «Проблемы передачи информации», созданного по инициативе А. А. Харкевича.
· 1966 — Стратонович Р. Л., Гришанин Б. А. « Ценность информации при невозможности прямого наблюдения оцениваемой случайной величины».
· 1968 — Стратонович Р. Л., Гришанин Б. А. «Игровые задачи с ограничениями информационного типа».
· В конце 1960-x Разработана Теория Вапника-Червоненкиса, статистическая теория восстановления зависимостей, разработанная В. Н. Вапником и А. Я. Червоненкисом
· 1972 — Солев В. Н. О среднем на единицу времени количестве информации, содержащейся в одном гауссовском стационарном процессе относительно другого.
Источник: http://ru.wikipedia.org/wiki/Хронология_развития_теории_информации
Сделайте индивидуальный заказ на нашем сервисе. Там эксперты помогают с учебой без посредников
Разместите задание – сайт бесплатно отправит его исполнителя, и они предложат цены.
Цены ниже, чем в агентствах и у конкурентов
Вы работаете с экспертами напрямую. Поэтому стоимость работ приятно вас удивит
Бесплатные доработки и консультации
Исполнитель внесет нужные правки в работу по вашему требованию без доплат. Корректировки в максимально короткие сроки
Гарантируем возврат
Если работа вас не устроит – мы вернем 100% суммы заказа
Техподдержка 7 дней в неделю
Наши менеджеры всегда на связи и оперативно решат любую проблему
Строгий отбор экспертов
К работе допускаются только проверенные специалисты с высшим образованием. Проверяем диплом на оценки «хорошо» и «отлично»
Работы выполняют эксперты в своём деле. Они ценят свою репутацию, поэтому результат выполненной работы гарантирован
Ежедневно эксперты готовы работать над 1000 заданиями. Контролируйте процесс написания работы в режиме онлайн
Выполнить 2 контрольные работы по Информационные технологии и сети в нефтегазовой отрасли. М-07765
Контрольная, Информационные технологии
Срок сдачи к 12 дек.
Архитектура и организация конфигурации памяти вычислительной системы
Лабораторная, Архитектура средств вычислительной техники
Срок сдачи к 12 дек.
Организации профилактики травматизма в спортивных секциях в общеобразовательной школе
Курсовая, профилактики травматизма, медицина
Срок сдачи к 5 дек.
краткая характеристика сбербанка анализ тарифов РКО
Отчет по практике, дистанционное банковское обслуживание
Срок сдачи к 5 дек.
Исследование методов получения случайных чисел с заданным законом распределения
Лабораторная, Моделирование, математика
Срок сдачи к 10 дек.
Проектирование заготовок, получаемых литьем в песчано-глинистые формы
Лабораторная, основы технологии машиностроения
Срок сдачи к 14 дек.
Вам необходимо выбрать модель медиастратегии
Другое, Медиапланирование, реклама, маркетинг
Срок сдачи к 7 дек.
Ответить на задания
Решение задач, Цифровизация процессов управления, информатика, программирование
Срок сдачи к 20 дек.
Написать реферат по Информационные технологии и сети в нефтегазовой отрасли. М-07764
Реферат, Информационные технологии
Срок сдачи к 11 дек.
Написать реферат по Информационные технологии и сети в нефтегазовой отрасли. М-07764
Реферат, Геология
Срок сдачи к 11 дек.
Разработка веб-информационной системы для автоматизации складских операций компании Hoff
Диплом, Логистические системы, логистика, информатика, программирование, теория автоматического управления
Срок сдачи к 1 мар.
Нужно решить задание по информатике и математическому анализу (скрин...
Решение задач, Информатика
Срок сдачи к 5 дек.
Заполните форму и узнайте цену на индивидуальную работу!