Сделай Сам Свою Работу на 5

Говорит о том, что в организованном целом не может быть больше порядка, чем информации.





Упорядоченность- это характеристика системы, отражающая наличие определенным образом установленных взаимосвязей. Полный порядок - это состояние, когда определены границы системы, элементы системы, взаимодействие элементов системы.

Например, на практике при создании программных продуктов для компаний, таких как система электронного документооборота (СЭД), ERP-система (система планирования ресурсов на предприятии), нередко приводят выражение: «Нельзя автоматизировать хаос». Для консультантов- внедренцев программного продукта это значит, что при организации потоков информации в организации необходимо, прежде всего, упорядочить сами бизнес-процессы, происходящие в данной компании. Хотя, на наш взгляд, данный вопрос – что делать сначала, внедрять программу, повышать организованность или все одновременно – остается открытым.

Также много примеров проявления данного закона встречается в биологическом мире. Гены, содержащиеся в молекуле ДНК, по сути, содержат ту самую информацию, по которой в дальнейшем будет развиваться живой организм.

Информация играет решающую роль в упорядоченности системы. Она всегда окружала человека. Главное, что информация несет сведения, то есть снимает незнание, уничтожая тем самым неопределенность. Обоснование фундаментальной роли информации является достижением такой науки как кибернетика. Смысл информации шире, чем обыденное понятие, т.к. это понятие в науке:



- точнее: информация несет лишь те сведения, которые уменьшают неопределенность,

- глубже: информация фундаментальное понятие, как энергия в физике,

- шире: информация присуща не только человеческому сознанию. Например, кибернетические системы существуют в живой природе (передача информации к потомству через гены, распространение акациями в Африке через пахучие вещества информации об опасности, грозящей со стороны травоядных).

Для понимания закона информированности-упорядоченности обратимся к термину «энтропия». Это понятие используется в разных науках, однако его смысл может отличаться. Рассмотрим, как оно применяется в теории организации, физике и кибернетике.

Богданов в своей книге «Тектология. Всеобщая организационная наука» приводит простой пример, знакомый нам из школьных учебников. Пусть шар № 1 получает толчок от другого твердого тела – шара № 2. Что будет дальше? Упругое тело при деформации вновь восстановит свою форму, и вся энергия первого шара перейдет в движение второго (кинетическую). Неупругое тело – подвергается деформации. Если рассмотреть пример на молекулярном уровне, то мы обнаружим, что часть энергии толчка первого шара будет теряться, она перейдет в тепловую. При этом молекулы второго шара будут двигаться быстрее, его температура повысится. Перед нами энтропический процесс – часть живой силы толчка теряется. При абсолютной упругости второго шара такой потери бы не было. Но абсолютная упругость, как и абсолютная проводимость и т.п. пока не достижимы. Энтропия – это цена подбора, который совершается при переходе энергии от одной системы к другой.



Энтропия – это рассеивание энергии, ее расточение.

 

Если представить удар как процесс, то сначала энергия первого шара идет на деформацию и нагревание молекул второго, потом уже энергия толчка переходит на перемещение тела. При первичном столкновении молекулы идут от удара в глубь шара, вызывая деформацию. Затем возвращаются назад, восстанавливая форму шара, но не полностью, не по тем путям. Часть толка переходит в вибрацию, в кинетическую энергию молекул второго шара, то есть в тепловую энергию.

Закон энтропии справедлив для всех молекулярно-организованных систем, при переходе энергии от одной к другой. Исключение составляют случаи абсолютной упругости и т.п., когда при взаимодействии не происходит изменения структуры системы. Броуновское движение (аналог хаоса) тоже не подчиняется закону возрастающей энтропии. Это результат ударов молекул жидкости от их теплового движения. Размером молекул и силой их взаимодействия в данном случае пренебрегают.



Таким образом, можно сделать вывод. Энтропия – это специфическое свойство организации, которое обуславливает потерю энергии при передаче ее от одной части системы к другой.

 

В физике говорят о законе возрастания энтропии в закрытых системах. Там мы дело имеем с тепловым движением молекул, когда тепло передается от холодильника и нагревателя к порции идеального газа. При этом происходит потеря энергии при передаче вследствие теплового выравнивания системы. На этом основана гипотеза о тепловой смерти вселенной.

Что будет, если кусок сахара положить в горячий чай? Он раствориться. А почему бы ему вновь не собраться на дне стакана? Кочерга остынет на воздухе, передав кинетическую энергию своих молекул воздуху. Продырявленный мяч шипит. Выпуская воздух. Почему сами собой идут процессы выравнивания системы? Потому что любая система стремиться перейти из менее вероятного состояния в более вероятное. А это и есть равномерное распределение частиц по объему.

Далее Богданов говорит о принципе экономии в природе, о стремлении снижения энтропии. Световой луч идет по наикратчайшему пути – прямой. Жидкость стремиться принять форму, наименьшую по площади поверхности – шар- то есть выбирает линию наименьшего сопротивления. Однако, если мы рассмотрим процесс эволюции жизни на земле, то увидим гигантскую растрату сил, расточительность в средствах достижения цели. Свидетельством является появление млекопитающих, в частности человека, как наиболее прогрессивных форм жизни, не зависящих от условий внешней среды, например, температуры.

Это понятие в кибернетику было введено К. Шенноном. Оно несколько отличается от описанных выше трактовок. Под энтропией здесь понимается состояние выхода из системы, которое представляет собой разнообразие состояний, отраженных наблюдателем. Чем больше отличных друг от друга состояний проявляет объект, тем выше его разнообразие.

Анализ энтропии и информации провел Норберт Винер. Его вывод ошеломляюще прост: энтропия и информация характеризуют реальность с позиции соотношения хаоса и порядка. Количество информации – мера организованности системы, энтропия - мера дезорганизованности. Тогда информация - негатив, противоположность энтропии, т.е. «негэнтропия».

Для закрытых систем характерно постоянное возрастание энтропии, открытые системы черпают негэнтропию из внешней среды. Например, в экономике существует «закон невидимой руки» А. Смита - это стихийное действие объективных экономических законов. Цена в данном случае может быть рассмотрена как средство передачи информации об изменениях на рынках.

Таким образом, закон информированности-упорядоченности отражает понимание и регулирование процессов перехода от хаоса к организованности.

Рис. Роль информации в организации

 

Каждая система стремится получить как можно больше достоверной, ценной и насыщенной информации о внешней и внутренней среде для своего устойчивого функционирования. Объем, ценность, достоверность и насыщенность – это все характеристики информации. Если все перечисленные характеристики максимальны (в определенный промежуток времени), то получаем дезинформацию из-за переизбытка оной.

Пример неэффективной системы: руководитель обладает высоким профессионализмом, а информационная служба - низким и средним профессионализмом, исполнителям свойственен высокий профессионализм. Для менеджера перенасыщенность информацией может привести к принятию неверного управленческого решения.

Качество получаемой информации.

Практика показывает, что информация может быть абсолютно достоверной и при этом - абсолютно необъективной.

 

 








Не нашли, что искали? Воспользуйтесь поиском по сайту:



©2015 - 2024 stydopedia.ru Все материалы защищены законодательством РФ.