Сделай Сам Свою Работу на 5

Характеристика и-и как отраженного разнообразия.





История становления понятия информации. Основные подходы к определению понятия информации

Понятие информации рассматривалось ещё античными философами. В течение многих веков это понятие не раз изменялось. Сначала под этим словом понимали «представление», «понятие», затем – «сведения», «передачу сообщений». Слово ин-я происходит от латинского слова informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Такое значение слова «информация» продержалось до середины 20 века. В это время благодаря бурному развитию телеграфа, телефона, радио, телевидения и других средств массового общения и воздействия появилась необходимость измерять количество информации. Возникают различные математические подходы к измерению информации, и слово стало изменяться. Начало научному изучению информации как таковой положено в работах Н. Винера, У.Р. Эшби, которые связывали информацию с теорией управления и К.Э. Шеннона, который вел меру количества информации – бит. Далее рассматривать вопросы теории информации стала новая на то время наука кибернетика (наука об управлении).

Коммуникативный подход рассматривает информацию как сферу общения. Важно знать, как происходит обмен информацией между людьми.



Функциональная подход определяет информацию как форму отражения, которая связана с самоуправляемыми системами (это система управления, способная постоянно поддерживать свою качественную определенность, осуществлять целенаправленное (программное) функционирование и саморазвитие, самосовершенствование (в плане видоизменения своих программ и способов функционирования). При данном подходе информация тесно связана с понятием «сигнал». Сигнал выступает в качестве формы, а информация является содержанием. Важным является содержание сообщения, хотя физические свойства носителя информации накладывают определенные ограничения на отображение действительности и адекватное управление ею.

Атрибутивный подход понимает информацию как «отражение разнообразия в любых объектах и процессах, как в живой, так и в неживой природе». При этом информация определяется как мера неоднородности распределения материи и энергии в пространстве и во времени. Различают четыре формы материи: физическую, химическую, биологическую и социальную.



Характеристика и-и как устраненной неопределенности.

В теории К. Шеннона информация определена величиной устранённой с её помощью неопределённости, а неопределённость измеряется посредством вероятности. Уменьшение неопределенности всегда связано с отбором одного или нескольких элементов. Такая взаимная обратимость понятий вероятности и неопределенности послужила основой для использования понятия вероятности при измерении степени неопределенности в теории информации. Чем меньше вероятность какого-либо события, тем большую неопределенность снимает сообщение о его появлении и, следовательно, тем большую информацию оно несет. Количество информации в сообщении определяется тем, насколько уменьшится мера неопределенности после получения сообщения. Энтропия (Н) - мера неопределенности. Чем больше Н, тем больше хаоса. Формула энтропии:

Теория К. Шеннона называется вероятностно-статистической теорией информации.

Характеристика и-и как снятой неразличимости.

Р. Эшби осуществил переход от толкования информации как «снятой» неопределенности к «снятой» неразличимости. Он считал, что информация есть там, где имеется (дано или выявляется) разнообразие, неоднородность. В данном случае единицей измерения информации может быть элементарное различие, т. е. различие между двумя объектами в каком-либо одном фиксированном свойстве. Чем больше в некотором объекте отличных (в строго определенном смысле) друг от друга элементов, тем больше этот объект содержит информации. Информация есть там, где имеется различие хотя бы между двумя элементами. Информации нет, если элементы неразличимы.



Характеристика и-и как отраженного разнообразия.

Информация в самом общем виде характеризуется как отраженное разнообразие. Это определение позволяет отличать данное понятие от других понятий, оно концентрирует в себе наиболее общие и существенные признаки информации. Разнообразие — основа информации. И. существует там, где имеется разнообразие, различие. Если два объекта отличаются, то их совокупность содержит два элемента с разнообразием. Простейшей единицей измерения информации является элементарное различие. Чем больше в совокупности отличных друг от друга элементов, тем больше эта совокупность содержит информации. Информация появляется, когда два объекта различаются, и исчезает, если эти объекты отождествляются. Информация существует там, где существует различие. Но информация — это не различие. Отличие информации от разнообразия в том, что она не отделима от отражения, которое является всеобщим свойством материи. Именно представление об информации как о чем-то таком, что содержит один объект относительно другого, обнаруживает тесную связь с понятием «отражения». Информация — это не отражение в его совокупности свойств и сторон, а именно лишь та сторона отражения, которая характеризует его разнообразие. В то же время информация — это не разнообразие вообще, а именно разнообразие, отраженное объектом, и об информации можно говорить лишь по отношению к конкретному отражению и к конкретному разнообразию. Например, соответствующее разнообразие слов, являющееся информацией для человека, не будет информацией для одноклеточного организма.(Урсул А.Д)

 








Не нашли, что искали? Воспользуйтесь поиском по сайту:



©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.