Понятие информации в современном научном мире неоднозначно. Несмотря на то, что появилось оно довольно-таки давно, до сих пор ученые не могут дать строгое определение данному термину и утверждают, что его следует рассматривать в качестве неопределимого первичного понятия. В учебниках по информатике можно найти такие определения:

Информация - сведения или знания о чем-либо; знания, которые можно собрать, хранить, передать, обработать и использовать. Информация в информатике - базовое понятие науки, так как информатикой называют науку об информации, ее структуре и свойствах, способах ее обработки и передачи. Информатика изучает информацию при помощи главного инструмента - компьютера.

Сам термин в переводе с латинского означает «сведения», «изложение». Сегодня наука находится в поисках общих свойств и закономерностей, которые присущи информации, но пока информация в информатике - интуитивное понятие, которое имеет разные смыслы в разных сферах человеческой деятельности.

Несмотря на наличие большого количества определений, выделим наиболее общее и понятное. Информация - отражение окружающего мира посредством сигналов и знаков. Ценность заключается в новых знаниях, которые содержатся в нем.

В информатике. В зависимости от способа восприятия, она может быть воспринята при помощи глаз, обоняния, вкуса и осязания. Кроме того, по форме представления выделяют текстовую, числовую, графическую и звуковую. В этой же классификации находится и видеоинформация.

Информация в информатике обладает рядом свойств. К ним относится полнота, достоверность, актуальность, доступность, защищенность, релевантность (способность соответствовать запросам), эргономичность.

Информация как особый вид ресурса обладает свойствами, характерными для него. К таковым относятся: запоминаемость, воспроизводимость, передаваемость, преобразуемость и стираемость.

При этом может быть любой предмет материального мира, волны (акустические, электромагнитные и т.д.), вещество в любом состоянии. Есть также машинные носители (например, магнитная лента). Передается информация в информатике при помощи сигналов.

Сигнал - физический процесс, который имеет информационное значение и может быть дискретным или непрерывным. Первый принимает лишь конечное число значений за определенное число моментов времени, а непрерывный - тот, который постоянно изменяется как во времени, так и по амплитуде. Сигналы, которые несут символическую или текстовую информацию - дискретные. В качестве примеров аналоговых сигналов можно привести телефонную связь или телевидение.

В наши развивается очень стремительно, и уже сегодня в науке об информации выделяют ряд новых направлений, таких как программирование, кибернетика, искусственный интеллект, вычислительная техника, информационные системы и теоретическая в информатике - сравнительно новое в лексиконе человека, и несмотря на повсеместное использование этого слова в речи, содержание его остается нечетким и размытым. Информатика связана с информацией и ее обработкой на компьютерах. На интуитивном уровне все ясно, однако, если присмотреться поближе, вопрос становится намного сложнее, чем может показаться с первого взгляда.

Так как компьютеры сегодня широко распространены, и человечество переживает информационный бум, азы информатики должны быть понятны каждому современному индивиду, который хотя бы немного хочет шагать в ногу со временем. Именно эти факторы повлияли на то, что преподавание информатики введено в школьный курс и каждый молодой человек имеет возможность освоить эту новую, но очень интересную и нужную науку.

от лат. ?nf?rm?tio - разъяснение, изложение). Одно из значений термина - сведения, сообщаемые различными способами: устными, письменными, техническими, изобразительными и т.д., а также процесс передачи этих сведений. К середине ХХ в. «информация» становится одним из центральных понятий кибернетики и приобретает общенаучное значение; появляется специальная отрасль знаний - информатика.

Отличное определение

Неполное определение ↓

Информация

лат. informatio - ознакомление, представление. 1) любые сведения, данные, сообщения, передаваемые посредством сигналов; 2) уменьшение неопределенности в результате передачи сведений, данных, сообщений - в этом качестве И. противопоставляется энтропии. До сер. 20 в. понятие И. относилось только к сведениям и сообщениям, передаваемым человеком с помощью знаковых средств, способность к передаче И. рассматривалась как отличит. характеристика человека - разумного вида, однако с развитием науки и техники понятие И. стало применяться и для характеристики процессов обмена сигналами в живой природе (сигнальное поведение у животных и растений, генетич. передача данных в клетках и т.д.), а также в среде автоматизированных средств. Интерес к изучению информ. процессов, к колич. и кач. оценке И., возникший в нач. 20 в., был обусловлен и развитием логико-математич., логико-семантич. и семиотич. исследований, привлекших внимание к проблемам представленности знаков и значений, и значит. увеличением объемов передаваемой И., и развитием техн. средств ее передачи (телеграф, телефон, радиосвязь, телевидение), происходившим в рамках модернизационных процессов. В пер. трети 20 в. исследования И. преследовали прежде всего цели уточнения процессов ее формализации (означения – см. Означение) и оптимизации условий ее передачи. Однако уже к сер. 20 в. появились первые теор. исследования, сформировавшие в дальнейшем ряд теорий И. - вероятностную, комбинаторную, алгоритмич. и др. Эти теории, разрабатывавшиеся средствами математики, позволили осуществить математич. моделирование процесса передачи И., выявить осн. элементы этого процесса (в классич. схеме, предложенной К. Шенноном, обмен И. включает шесть составляющих: источник - передатчик - канал передачи - приемник - адресат - источник помех), выявить принципы колич. оценки И. (пропускной способности) и степени ее искажения (помехоустойчивости). Разработка этих теорий привела к появлению информатики как науки, предмет к-рой - И. и способы ее передачи. Однако решающее воздействие на развитие исследований в области И. оказало появление автоматизир. средств обработки И. (ЭВМ) и кибернетики - науки о связи, управлении и информ. обработке. Развитие машинной обработки И. стимулировало исследования в области формализации и алгоритмизации (сведения к операциям с элементарными высказываниями) И. и появление развернутых теорий алгоритмического синтаксиса, а также множества языков алгоритмизации и программирования. Попытки алгоритмизации семантич. процессов - означения и понимания - хотя и были далеко не столь успешны, однако оказали значит. влияние на развитие англ. лингвистич. философии и лингвистич. семантики, а также трансформационной грамматики в русле поиска универсального языка записи семантич. характеристик. В кибернетике И. рассматривается в более узком понимании - не как любые сведения, а только как сведения, ведущие к уменьшению неопределенности (снижению количества возможных альтернативных вариантов) в ситуации общения, сведения, направленные на управление и согласование. В соответствии с таким подходом к И. в рамках общих теорий управления получили развитие исследования прагматич. аспектов И. - оценка И. с т.зр. ее актуальности (достаточная, избыточная, излишняя И.), ценности, полезности, адекватности и т.д. В рамках кибернетики стал возможен синтез математич. моделей и теорий И. с теориями социального взаимодействия и коммуникации, существенно обогативший научные представления о коммуникационных и трансляционных процессах в об-ве. На стыке информатики, кибернетики и антропологии получили также развитие нейроинформ. и нейролингвистич. исследования, рассматривавшие процессы передачи И. на уровне высшей нервной деятельности. Применительно к социокультурному материалу математич. модели И. претерпели существ. трансформацию. Было установлено, что на информ. процессы в человеч. сооб-ве помимо шести осн. элементов существенно влияют также барьеры и фильтры: внутренние (индивидуальные психич. особенности участников информ. обмена, их опыт и компетентность), и внешние (социальные и культурные нормы, ценности, коллективные представления), значительно трансформирующие, искажающие И., и при этом они не всегда носят рац. характер. Колич. оценки этих искажающих влияний (помех) совершенно недостаточно, поскольку индивидуальный характер и сложность природы этих влияний делают принципиально необходимым их содержат. кач. анализ и определение механизмов их воздействия на И. Информ. процессы в человеч. сооб-ве далеко не всегда можно интерпретировать как ведущие к снижению неопределенности ситуации, и неактуальная информация (шум) имеет здесь не меньшее значение, чем актуальная. В соответствии с этим, помимо актуальности для социально и культурно значимой И. важны адекватность, достоверность, полнота, новизна, убедительность, выразительность, воспринимаемость и т.д. Понимание того, что информ. процессы являются важной составляющей любой культурной общности (истор. и современной), и применение к их изучению методов математич. моделирования (частично осуществленное структурализмом и европ. социальной антропологией) существенно обогатило теоретико-методол. багаж социокультурных наук. Функциональный подход к И. получил дальнейшее развитие в теории коммуникации. В рамках семиотики (см. Семиотика) изучение И. осуществляется в основном в ее семантич. аспектах (И. как пространство смыслов и значений). В настоящее время изучение И. в социокультурных науках осуществляется по двум направлениям: 1) изучение информ. процессов (информ. культуры) разл. культурных общностей (гос-в, этносов, цивилизаций и т.д.); 2) исследования локальных информ. процессов в разл. видах деятельности (менеджмент, маркетинг, реклама, социальное участие, полит. деятельность и т.д.). Исследования такого рода, как правило, имеют прикладную направленность и наиболее широко привлекают достижения информатики и кибернетики. Такие исследования посвящены прежде всего совр. проблемам информ. обмена. Прогрессирующая активизация и глобализация информ. процессов (средства массовой информации, массовая культура, глобальные информ. сети и т.д.) в культуре на протяжении всего 20 в. определили признание исключит. важности информ. процессов для развития совр. об-ва и сделали И. предметом не только научного, но и философского рассмотрения. И. интерпретировалась в культурфилософии, как правило, в рамках общих представлений того или иного направления (для неотомизма характерно представление И. как трансцендентального феномена; для экзистенциализма и феноменологии - ориентация на ее субъективистскую трактовку; для филос. герменевтики (см. Герменевтика) - стремление обусловить информ. процессы культурным опытом, для постпозитивизма - акцент на некогнитивные аспекты И.). Совр. ситуация нередко характеризуется культур-философией как “информ. взрыв”, “информ. бум”, обработка И. рассматривается как осн. вид деятельности в формирующемся “постиндустриальном об-ве”, предпринимаются попытки ее филос. истолкования и предсказания возможных путей развития “информ. цивилизации”. Лит. : Шеннон К.Э. Работы по теории информации и кибернетики. М., 1963; Пирс Дж. Символы, сигналы, шумы. Закономерности и процессы передачи информации. М., 1967; Винер Н. Кибернетика или управление и связь в животном и машине. М., 1968; Гришкин И.И. Понятие информации. М., 1973; Афанасьев В.Г. Социальная информация и управление об-вом. М., 1975; Стратонович Р.Л. Теория информации. М., 1975; Дубровский Д.И. Информация, сознание, мозг. М., 1980; Страссман П.А. Информация в век электроники: Пробл. управления. М., 1987; Кин Дж. Средства массовой информации и демократия. М., 1994; Брой М. Информатика. Основополагающее введение. Ч. 1-3. М., 1996; Федотова Л.Н. Массовая информация: Стратегия производства и тактика потребления. М., 1996; Иванов А.М., Козлов В.И. Информация. Информатика. Компьютер. Самара,1996. А. Г. Шейкин. Культурология ХХ век. Энциклопедия. М.1996

В стремлении дать определение понятию И. ученые прошли за последние 50 лет эволюцию от формальных (преимущественно теоретико-математических) дефиниций того, что собой представляет и как может измеряться количество И., до новейших попыток построения универсальных концепций информационного общества, универсального метаязыка, всеобщей метатеории и т. п. Парадоксальность многих из этих концепций заключается в том, что само понятие И. в них не определяется, а принимается на интуитивном уровне. Отсюда понятен профессиональный интерес к осмыслению феномена И. среди философов.

Разработки в области теории И. содействовали сдвигам в методологии научного познания, которые нашли выражение в смещении акцентов от вещи к отношению, от поисков универсальной первоосновы бытия к признанию разнообразия в качестве базового принципа научного исследования. Именно эти категории философии - отношение и разнообразие - занимают сегодня центральное место в попытках определить природу информационных явлений.

Вместе с тем многочисленные исследования феномена И. обнаружили его связь с организацией, системностью, упорядоченностью, структурой, а также с функциональными состояниями и процессами в сложных системах управления. И тогда И. предстает как функциональное свойство процессов управления, неотделимое от последних, а теория И. - как раздел кибернетики.

Из научно-технических разработок по теории И. родились специализированные научные дисциплины. Это информатика (комбинация из слов "информация" и "автоматика") - область изучения научно-технической И., ориентирующаяся на автоматизированную обработку данных, массивов знаний производственно-технического и социального назначения с использованием вычислительной техники, средств связи и математико-программного обеспечения. Другая научная дисциплина - информология (наука об И.) - область изучения И. как фундаментального фактора бытия, закономерностей производства, передачи, получения, хранения и использования И.

Теория И. в узком смысле (математическая теория связи) - область изучения информационных процессов со стороны количества И., проходящей по каналам связи, запоминаемой и т. п.; в ней рассматриваются вопросы оптимального кодирования сообщений в форму сигнала, максимальной пропускной способности каналов связи и др., (вопрос о содержании сообщения (сигнала) обычно выносится за рамки этой теории).

Основные исторические этапы информационной эволюции общества обусловлены появлением различных носителей информации: письменности, книгопечатания, современной информационно-кибернетической (в частности, вычислительной) техники. В наше время понятие И. ассоциируется с компьютерами, рекламой, издательской деятельностью, телевидением, радио- и телеграфной связью, другими средствами массовой информации (СМИ). В науку это понятие введено в 1928 г. Р. Хартли (США) для обозначения меры количественного измерения сведений, распространяемых по техническим каналам связи (заметим, безотносительно к содержанию этих сведений). Последние, ввиду ограниченных возможностей фиксации и передачи устной речи, преобразуются источником И. сначала в форму языкового (знакового) сообщения, а затем передатчиком во вторичную, удобную для трансляции по техническим каналам связи форму сигнала, что предполагает операцию кодирования с последующим декодированием на стороне приемника. Тем самым получатель имеет на выходе приемника сообщение, которое при минимизации помех ("шума") представляет собой, с определенной степенью соответствия, копию сообщения на стороне источника. Заметим, что доведение И. до адресата (получателя), если эта И. не является ложной (дезинформацией), всегда приводит к уменьшению неопределенности в знаниях и действиях последнего. Хартли предложил логарифм при основании два для вычисления количества И. как меры неопределенности, устраняемой в результате получения И. у того, кто эту И. получает. Так возникла единица И. - бит, или "одно из двух": либо "да", либо "нет" по отношению к вопросу, фиксирующему неопределенность знаний или сведений получателя о чем-либо его интересующем. В 40-е гг. другой американский ученый К. Шеннон, специализировавшийся в вопросах пропускной способности каналов связи и кодирования сообщений, придал этой мере количества И. более универсальную форму: количество И. стало пониматься как величина энтропии, на которую уменьшается общая энтропия системы в результате получения этой системой И. Формула эта выражает энтропию через сумму целого ряда вероятностей, помноженных на их логарифмы, и относится только к энтропии (неопределенности) сообщения.

Иными словами, информативность сообщения обратно пропорциональна его очевидности, предсказуемости, вероятности: чем менее предсказуемо, неочевидно и маловероятно сообщение, тем больше И. оно несет для получателя. Совершенно очевидное (с вероятностью, равной 1) сообщение столь же пусто, сколь полное отсутствие такового (т. е. сообщения, вероятность которого заведомо равна 0). Оба они, согласно допущению Шеннона, неинформативны, не несут получателю никакой И. По ряду причин, относящихся к математике и связанных с удобствами формализации, энтропия сообщения описывается Шенноном как функция распределения случайных величин.

Проблема И. многоаспектна не только в общенаучном, но и в философском смысле. В онтологическом и мировоззренческом аспектах предпринимаются попытки раскрыть соотношение И. с веществом и энергией, ее природу и статус в структуре бытия; в гносеологическом аспекте - соотнести И. с содержанием и формой знания, с образами, знаками, моделями и т. п.; в логико-методологическом аспекте - выявить количественно-математические, измеримые стороны информационных процессов в математической теории связи, моделях массовых коммуникаций, кибернетике.

В 60 - 80-е гг. многие результаты, полученные в исследованиях предыдущего двадцатилетия, были эксплицированы в связи с исследованиями кибернетических моделей машинного перевода с одного языка на другой, теории игр и принятия решений, распознавания образов. Наряду с дальнейшей разработкой статистической (синтаксической) концепции И. появились семантические и прагматические концепции. Стало ясно, что работы Фишера, Найквиста, Хартли и Шеннона, будучи попыткой количественной экспликации качественного понятия И. как сведений, сообщений, не дают ответа на вопрос, о количестве какого качества идет речь. Интерпретация И. в этих работах носит формальный, абстрактно-математический характер. Исходным принципом создания сообщения служит принцип последовательного выбора его знак за знаком, буква за буквой из бесконечного резервуара готовых сообщений (ансамбля), и создание индивидуального сообщения есть его статистический выбор из ансамбля. Сообщения между собой статистически однородны (свойство эргодичности), поэтому математическую теорию связи интересуют индивидуальные различия сообщений, равно как и количество И., содержащейся в индивидуальном сообщении. Определимо лишь среднее количество И., приходящейся на одно сообщение в случае его выбора. Но И. выбора сообщения не есть И.. самого сообщения (Е. К. Войшвилло). Индивидуальность события не должна исчезать в однородности статистического ансамбля. Более того, А. Н. Колмогоровым и его учениками было показано, что статистическое понятие И. выражает не абсолютное ее количество, а дополнительную И., дополнение к имеющемуся у получателя информационному содержанию.

Этим был дан толчок, во-первых, разработке т. н. тезаурусной модели и, как следствие, семантической и прагматической концепций И., во-вторых, уточнению взаимосвязи между И. и разнообразием.

В 80-е и особенно в 90-е гг. обозначилась тенденция заметного размежевания специалистов в области теории И. на пессимистов и оптимистов, критиков и апологетов. Из области семантики и математических проблем теории связи дискуссии переместились в социально-этическую и политическую сферы проблем информационного общества. Объективной основой этих изменений стали громадные преимущества, которые дает развитие информационной инфраструктуры обладающим ею государствам и регионам, организациям и физическим лицам: возможность сжатой во времени переработки больших массивов И., практически мгновенной коммуникативной связи в пределах земного шара, проектирования сложных систем и управления ими и др. В ряде работ термин "информационное общество" символизирует по существу новую социальную парадигму (О. Тоффлер), исторически новый и особый тип цивилизации, идущей на смену сельскохозяйственной и индустриальной. Реальные преимущества, в возрастающей степени получаемые государствами и регионами (США, Европа, Япония) с развитыми И. технологиями и компьютерными сетями, приводят к изменению характера экономических, политических и социальных отношений, семьи, быта, досуга, образа жизни, переворачивают традиционные представления о ценности сельскохозяйственного и индустриального производства. И одновременно информатизация всех сфер жизнедеятельности современного человека, с т. зр. ее пессимистически настроенных критиков, сопровождается дегуманизацией, порождает новую и неизвестную предыдущим эпохам виртуальную реальность существования в иллюзорном мире. С социально-психологической т. зр., информатизация разрушает привычные природные ритмы и циклы жизнедеятельности людей; с нравственно-этической - вытесняет ценность и привлекательность живого общения, сопереживания, понимания; с политической - резко усиливает возможности манипулирования массовым и индивидуальным сознанием, влияния "четвертой власти" - СМИ, изменяет потенциал властных элит, в т. ч. посредством перемещения полномочий и возможностей последних из внутригосударственной сферы в область иерархии межгосударственных отношений.

С социально-исторической т. зр., негативные проявления информатизации могут быть обозначены как апофеоз рациональности, доведение европейского классического типа рациональности до логически завершенной формы информационного господства в масштабах планеты. В современной типологии исследований И. среди "оптимистов" заметна тенденция разработки на основе теории И. всеобщей метатеории и всеобщего информационного метаязыка для научных и вненаучных областей знания. Известный российский исследователь И. И. Юзвишин, разрабатывая новую обобщенную науку - информациологию (1993), предлагает концепции И. кода человека и Вселенной, информационные подходы к сохранению здоровья и увеличению долголетия, построению нового мирового сообщества и др. Цель будущего видится в создании единого мирового распределенного информационно-сотового сообщества новой информационной цивилизации, а в гносеологическом аспекте - в революционном прорыве посредством И. в трансцендентные миры.

Добавить сайт в закладки

Что такое информация?

Информация в общепринятом определении - это сведения, сообщения, передаваемые от одного субъекта другому устным, письменным или каким-либо другим способом (например, с помощью условных сигналов, с использованием технических средств и т.д.), а также сам процесс передачи или получения этих сведений или информационный обмен.

Информация для каждого человека является источником энергии. Важно то, как человек ею пользуется.

Другое же, обобщающее определение информации как универсального свойства материи, менее известно. Информация - это
нематериальная категория Вселенной, закодированная в материальных носителях и при раскодировании и адекватной реактивности отрицающая вероятность в статистических процессах перехода от неупорядоченности к порядку; или, как принято говорить в физике, информация - это энтропия с обратным знаком, или отрицательная энтропия.

Однако как нематериальная категория информация с разрушением носителя или исчезает, или перекодируется. Новая информация возникает только в случайных процессах создания нового носителя. Случайный процесс - это совокупность случайных событий, вероятность которых чрезвычайно мала, и чем меньше вероятность создания нового носителя, тем выше качество воспроизведенной информации. С такими процессами работает Естественный Отбор.

Отбор непротиворечивых аргументов или синтез - всего лишь сведения, сообщения, временная совокупность знаний субъекта (субъектов). Вре менная в смысле пожизненная. С разрушением носителя исчезает вся информация - как возникшая при рождении, так и приобретенная в онтогенезе. Вновь возникшая родительская информация может быть сохранена только с рождением нового носителя.

Чем больше объем совокупных знаний субъекта, приобретенных в онтогенезе (временных), тем больше возникает у него точек соприкосновения с неизвестным, тем шире ассоциативное поле воображения, тем глубже эмоциональный накал, тем выше вероятность декодирования объективной информации с обследуемого носителя. Отсюда очевидно, что на данном этапе развития социума доступ к объективной информации, или, точнее, информации об объективной реальности, для нас весьма ограничен. Таким образом, можно говорить об информации и Информации как о двух взаимовложенных понятиях.

Энтропия - это глубоко конкретная физическая величина с размерностью кал/град, которая всегда больше нуля, т.е. положительна, что физически понимается как закон перехода тепла от более горячего тела к холодному. Но, как и для понятия «информация», термином энтропия определяется еще одно понятие, а именно - выражение её через связь со статистической концепцией перехода от неупорядоченности к порядку, что так же мало изучено, как и понятие «информация», хотя и выражается простейшей количественной связью, открытой еще Больцманом и Гиббсом в 1872 г.:

Энтропия=k·lgD, где:

  • D и есть количественный показатель этой неупорядоченности атомно-молекулярного движения в веществе;
  • а k – постоянная Больцмана = 1,3807×10 -23 Дж/К.

Исходя из определения понятия Информации как энтропии с обратным знаком, очевидно, существуют во Вселенной неуправляемые, точнее, самоуправляемые процессы, позволяющие извлекать Информацию без раскодирования, или, что то же самое, процессы, позволяющие осуществлять обратный переход тепла от холодного тела к более горячему. Такие самоуправляемые процессы происходят постоянно вокруг нас, это самовоспроизводство жизни, т.е. извлечение Информации без раскодирования при воспроизводстве себе подобного.

С точки зрения физика очевидно, что живые организмы, как и все во Вселенной, что остывает, непрерывно изменяют свою энтропию, или производят неупорядоченность и таким образом приближаются к состоянию минимальной энтропии, к состоянию «абсолютного нуля» температуры окружающей среды, что представляет собой «тепловую смерть» организма, причем скорость изменения энтропии примерно равна скорости остывания чайника - в зависимости от температуры среды и массы тела организма. Они могут избежать «остывания», т.е. оставаться живыми, только постоянно извлекая тепло из окружающей среды или отрицательную энтропию, как обычный бытовой холодильник, потребляя электроэнергию, извлекает тепло в замкнутом объеме из более холодного тела. А жизнь, потребляя энергию, содержащуюся в продуктах питания, поддерживает внутри себя температуру гомеостаза (+36,6ºС для вида homo erectus). Бактерии в конце питательной цепи извлекают отрицательную энтропию из бульона, переводя его в растворимые соединения, которыми питаются растения, извлекая положительную энтропию Солнца.

Иными словами, процессы обмена в организме ведут к возрастанию энтропии, а саморегулирование этих процессов или гомеостаз уменьшают её. И чем ближе к нулю сбалансированность положительной и отрицательной энтропии, тем выше выживаемость организма, тем выше качество естественного отбора. Отрицательная энтропия - это то, что организмы извлекают из окружающей среды (разность между температурой среды и температурой собственного тела) для поддержания своего гомеостаза (стабильности внутренней среды) и своей комфортности. Жизнь во Вселенной, с точки зрения физики, - это постоянное, непрерывное извлечение энтропии с обратным знаком.

Жизнь - это лишь адаптация к условиям окружающей среды, изначально имманентной Информации как фундаментального свойства материи. Носителем такой Информации является двуспиральная, замкнутая (по Мёбиусу) стабильная ядерная РНК как микромодель Вселенной, занесенная на эту планету со льдом какого-то астероида, когда на ней еще не было атмосферы.

Вот как рассматривает эту проблему К.Ю. Еськов в своей «Истории Земли и Жизни на ней»: «Наш подход к проблеме жизни на Земле будет сугубо функциональным, и в его рамках нам следует принять одно аксиоматическое утверждение: эволюция биосферы и составляющих ее экосистем идет в целом в сторону возникновения все более совершенных, т.е. устойчивых и экономных (извлекающих отрицательную энтропию с минимальными затратами), круговоротов вещества и энергии. Совершенствование циклов направлено на то, чтобы минимизировать безвозвратные потери биологических систем: экосистема стремится препятствовать вымыванию микроэлементов и захоронению неокисленного углерода, переводить воду из поверхностного стока в подземный и т.д. Поэтому с общепланетарной точки зрения жизнь следует рассматривать как способ стабилизации существующих на планете геохимических циклов».

Однако действительная суть этой концепции заключается вовсе не в романтических межпланетных странствиях «зародышей жизни», а в том, что жизнь как таковая просто является одним из фундаментальных свойств материи, и вопрос о происхождении жизни стоит в том же ряду, что и, например, вопрос о происхождении гравитации (но это совсем не означает, что мы перестанем задаваться этими вопросами, тем более что эти явления - «одно из фундаментальных свойств материи»).

«В этом плане предшественником Эйгена является биохимик Г. Кастлер (1966), проанализировавший поведение системы нуклеиновых кислот в рамках теории информации. Он пришел к выводу, что новая информация возникает в системе, только если в ней происходит случайный выбор («методом тыка») с последующим запоминанием его результатов, а не целенаправленный отбор наилучшего варианта. В последнем случае можно говорить лишь о реализации той информации, что заложена в систему изначально, то есть о выделении уже имеющейся информации из «шума» (или ее декодировании).

Сама же возможность возникновения новизны (т.е. акта творчества) определяется свойствами информации как таковой: как было показано А.А. Ляпуновым (1965), на нее не распространяются законы сохранения, т.е. информация, в отличие от материи и энергии, может быть заново создана (и, соответственно, может быть и безвозвратно утрачена.)»

Здесь необходимо выделить две составляющие единого процесса возникновения информации по законам естественного отбора: создание помех с необходимыми и достаточными условиями для уменьшения вероятности события и его повторяемости для «случайного» выбора, или в терминах теории информации - выделение уже имеющейся информации в экосистеме из «шума». Случай и случка - слова однокоренные, и случайность всякого рождения - это, прежде всего, выделение из помех уже имеющейся в экосистеме полезной информации или «целенаправленный отбор наилучшего варианта» . «На то и щука в море, чтобы карась не дремал». Но эта полезная информация не является наследуемой (см. ниже мутация и граничные условия ).

Что же является критерием качества Естественного Отбора, или какая информация является полезной?

Естественный Отбор не имеет никакого иного инструмента для совершенствования своих творений, кроме статистического бросания костей или «метода тыка», где за каждым броском - рождение и смерть, и чем выше частота смены поколений (или количество бросков рождений-смертей за условную единицу времени, определяемую массой тела, точнее, энергоемкостью, потраченной на его взращивание), тем выше скорость обмена генофонда, тем больше преимуществ проявляется в межвидовой борьбе, тем шире видовая экологическая ниша и выше качество Естественного Отбора.

Однако же скорость обмена генофонда можно увеличить не только частотой смены поколений, но и за счет количества особей в одном помете (например, рыбы, насекомые).

Поэтому критерий качества у Естественного Отбора самый примитивный, самый жесткий и потому самый надежный: приращение биомассы популяции. Чем больше биомасса популяции, тем выше частота смены поколений или бросков рождений-смертей, тем выше качество Отбора.

Однако этот статистический закон отбора вступает в противоречие с законом минимизации энергоемкости на выращивание отдельной «экспериментальной» особи, чтобы не зря она опустошала свою экологическую нишу. Это противоречие разрешается тем же отбором, но только еще на уровне семени. Для растений, например, и не существует иного способа совершенствования вида. Отсюда важное следствие.

Для достижения наивысшей эффективности механизма отбора на уровне семени у млекопитающих неизбежна адаптация по признаку моногамии - парной семьи, что уже давно поняли приматы, волки, слоны. Чтобы гибель миллионов сперматозоидов из одной порции эякулята по пути к маточному яйцу не была бесцельной, в организме самки должен быть, обязан быть механизм, консервирующий адаптационную информацию, собранную самцом в борьбе с помехами.

Поэтому у самца происходит практически трехдневное обновление семенного материала, накапливающего информацию об изменениях окружающей среды (возникающие помехи) и реакциях организма самца на них, а в яичниках самки происходит консервация этой информации после каждого коитуса и передача ее каждому яйцевому зародышу при овуляции. Дело в том, что в женском организме от рождения заложено ограниченное, невосполнимое число яйцевых зародышей. Посчитайте число лунных месяцев в промежутке лет между 13 и 45-49, и вы получите это число яйцевых зародышей: примерно 350-400 шт. Как у сорной куры. В мужском организме генерация эякулята не иссякает до последнего часа.

Отсюда очень важное следствие. Это запрет на внебрачные связи для повышения продуктивности парной семьи и повышение качества ее потомства. Это и есть отбор полезной информации. Женский организм при блуде накапливает искажения, вносимые чужеродным эякулятом, и физиологические и психические, а мужской - вхолостую растрачивает свой генный материал и накопленную жизненно необходимую полезную информацию.

Итак, чем больше семени в разовой порции эякулята при коитусе и чем чаще потребность коитуса, тем выше качество Естественного Отбора. У млекопитающих отбор начинается при движении продуктов эякулята по маточным трубам, где ради «просперити» одного гибнет «паблисити» большого государства, примерно 250 млн. И преимущество перед другими имеет тот вид или то семейство, которое имеет более совершенный механизм для естественного отбора на уровне семени.

Этот механизм у нас и наших эволюционных предков ускорен в двенадцать раз по сравнению с другими животными и приматами, для спаривания ожидающими сезонной подготовки кормовой базы для вскармливания потомства. И платим мы за это совершенствование дорогой ценой - ускоренным изнашиванием женского организма и его детородной функции. 40-45 лет - и климакс. Это в современности, а для предковой обезьяны - еще меньше. И это при ожидаемой среднестатистической продолжительности биологической активности для среднего веса 75-80 кг примерно 130 лет.

Каким способом могло появиться семейство приматов, у которых сроки овуляции маточного яйца стали зависимы не от солнечного годового цикла, а от лунного, месячного, как и при каких условиях стала возможной такая трансформация сложнейшего механизма воспроизводства, - для нас тайна. Но это не божественное провидение.

Единственная правдоподобная догадка - всесезонная независимость кормовой базы четверорукой узконосой обезьяны, освоившей плодовый ярус тропического леса. За этой же сезонной независимостью плодовой кормовой базы стоит и отсутствие в нашем организме механизма выработки аскорбиновой кислоты (и человеческого интерферона). Все животные умеют вырабатывать витамин С (и не умеют - интерферон). Все, кроме человека, розового тропического скворца и морской свинки. А зачем был нужен нашей предковой обезьяне этот механизм, если аскорбиновая кислота всесезонно поступает извне с кормом и стимулирует выработку самого совершенного антибиотика - интерферона?

Но почему все-таки двенадцатимесячный менструальный цикл и всегда в одной и той же фазе Луны - полнолуния? Это может означать, что «приливное» действие спутника нашей планеты когда-то было более сильным, чем сейчас. И это «приливное» действие Луны определило адаптационное влияние на детородную функцию какого-то вида обезьян, ставших нашими предками.

Итак, единственным критерием качества естественного отбора, заложенным в геноме, является приращение биомассы популяции. И повышение его качества возможно только при уменьшении вероятности самого события репликации нового организма или наличия помех, необходимых и достаточных условий уменьшения вероятности репликации.

Например, насекомое земляной рак, медведка, капустница спаривается только в июньское полнолуние (летнего солнцестояния) и только в полете; кроты спариваются на поверхности, лосось, чтобы отметать икру, должен войти в устье только своей реки, прорваться через плотный заслон «едоков» по пути к истокам и, отметавшись, пасть гниющей плотью - кормом для своего потомства, несущим генетическую память об истоках своей реки; мужчина в своей единственной женщине ищет свою мать, а женщина в мужчине – своего отца; все самцы проходят через обряд брачного боя, жребия, свадьбы=судьбы: ср. «суженый» и еще масса примеров… Особо одаренные дети на Руси отмечены поговоркой: «Ни в мать, ни в отца, а в проезжего молодца».

Однако совсем не обязательно, что избыточное творчество всегда приведет к выделению полезной информации из помех - появлению потомства.

Думается, что А.А. Ляпунов здесь не ошибается. Это основополагающее свойство информации лежит в основе законов биогенеза планеты и Естественного Отбора, и если бы это было не так, то проще было бы назвать Информацию богом. Информация с разрушением носителя исчезает или перекодируется, но может быть создана из сочетания случайных процессов, и необязательно биохимических, но и чисто физических, где случайность - это событие, вероятность которого определяется количественным показателем неупорядоченности атомно-молекулярного движения в веществе D из закона Больцмана-Гиббса. Это для процессов физических.

Для процессов биологических, с которыми работает Естественный Отбор, показателем неупорядоченности является количество сперматозоидов, истраченных на один оборот поколения одной пары, деленное на общее число особей, рожденных и выживших от той пары. Для вида homo erectus оптимальное содержание сперматозоидов в порции эякулята - 180-250 млн. Содержание менее 150 млн называется олигоспермией, при которой зачатие исключено.

Если вы умножите это количество сперматозоидов на среднее число спариваний одной пары за срок детородной функции самки и разделите полученное на численность выжившего половозрелого поколения, то обратная величина этого числа покажет вероятность выделения полезной информации из «шума» экосистемы для этой пары. Это для идеальной пары, исключающей блуд, снижающий качество информации.

Таким образом, антропогенез необходимо рассматривать как постоянное повышение качества имманентной информации, заложенной в геноме предковой формы примата. И только для вида homo erectus частота смены поколений в 12 раз выше, чем у остальных видов, т.е. женские регулы и являются главным и единственным антропоморфным признаком, который определяет скорость и качество антропогенеза.

Единственно важные, истинные ценности в нашей жизни, ее содержание и смысл - целомудрие женщины, честь мужчины, их совместная любовь к своим детям. Это семья. Взаимное уважение между семьями и к старикам. Это Родина. Любовь к Родине и защита ее. Это государство.

Берегите женщину, свою, одну единственную половину! Целомудрие женщины - основа государственности. Только целомудренная мать может вырастить строителя и защитника Родины.

Информация, как и жизнь, является фундаментальным свойством материи, и может быть утрачена какая-то индивидуальная жизнь с неким объемом информации-сведений, но не Жизнь как имманентное свойство Вселенной.

Можно вычислить количественный показатель неупорядоченности для единицы массы любого вещества, определяющий случайность - числовую величину вероятности событий в системе, при которой возможно возникновение новой информации.

lgD = Энтропия/k

Либо по предложенной методике вычислить вероятность возникновения новой информации для Естественного Отбора. И чем ниже эта вероятность, тем выше качество Естественного Отбора, тем выше качество выделенной информации.

Вторая составляющая единого процесса возникновения информации - переполнение экосистемы помехами, при которых выделение информации по критерию приращения биомассы становится невозможным, что ведет к гибели экосистемы и вырождению вида либо к мутагенному взрыву. Здесь, наверное, необходимо все-таки ввести очень важные граничные условия. Собственно, их необходимо было ввести уже давно, и они подразумевались в предшествующих рассуждениях, т.к. Естественный отбор работает с новой информацией только при скачкообразных ее изменениях.

Отбор не закрепляет качественные результаты при непрерывных изменениях наследственной информации, потому что они не наследуются как видовые признаки при выделении информации из шума, поэтому все попытки обнаружить некие «промежуточные формы» между видами обречены на провал. Непрерывные изменения наследственной информации внутри вида - тот самый наследственный «шум» системы при «целенаправленном отборе наилучшего варианта».

Гуго де Фриз (Hugo de Vries, 1848-1935) - ботаник из Голландии на ошибочном примере Ослинника Ламарка (Oenothera lamarckiana), развивая дарвиновскую теорию происхождения видов, доказал, что новый вид - не результат постепенного накопления непрерывных изменений фенотипа согласно синтетической теории эволюции (СТЭ), а результат скачкообразных изменений (в течение нескольких поколений), превращающих один вид в другой.

«Выражение скачкообразные означает в этом случае не то, что изменения очень значительны, а только факт прерывистости, так как между неизмененными особями и немногими измененными нет промежуточных форм. Де Фриз назвал это мутацией. Здесь существенна именно прерывистость. Физику она напоминает квантовую теорию - там тоже не наблюдается промежуточных ступеней между двумя соседними энергетическими уровнями атома. Физик был бы склонен мутационную теорию де Фриза фигурально назвать квантовой теорией биологии. Позже мы увидим, что это значительно больше, чем фигуральное выражение. Своим происхождением мутации действительно обязаны “квантовым скачкам” в генной молекуле. Но квантовой теории было только два года, когда де Фриз впервые опубликовал свое открытие (в 1902 г.). Не удивительно, что потребовалась жизнь целого поколения, чтобы установить тесную связь между ними! <…>

В свете современных знаний механизм наследственности тесно связан с самой основой квантовой теории и, даже более того, опирается на нее. Эта теория была сформулирована Максом Планком в 1900 г. Современная генетика начинается с “открытия” менделевской работы де Фризом, Корренсом и Чермаком (1900 г.) и с работы де Фриза о мутациях (1901-1903 гг.). Таким образом, время рождения двух великих теорий почти совпадает, и не удивительно, что обе должны были достигнуть определенной степени зрелости, прежде чем между ними могла возникнуть связь.

Для квантовой теории потребовалось больше четверти века, когда в 1926-1927 гг. В. Гайтлер и Ф. Лондон сформулировали основные положения квантовой теории химических связей. Гайтлер-лондоновская теория включает в себя наиболее тонкие и сложные понятия позднейшей квантовой теории, называемой квантовой механикой, или волновой механикой. Изложение ее без применения высшей математики почти невозможно или потребовало бы, по крайней мере, небольшой книги. Но теперь, когда вся работа уже выполнена, становится возможным установить связь между квантовыми переходами и мутациями» (Шрёдингер Эрвин).

Единственным слабым местом мутационной теории де Фриза является решение вопроса: как пара «калек-выродков», «белые вороны» с новыми признаками (и неизвестно, полезными ли) могут отыскать друг друга в обновленной экологической нише для закрепления в фенотипе мутационных изменений? Половина ответа находится в самом вопросе. Именно накопившиеся изменения условий экосистемы, невозможность преодоления помех являются основанием мутационного взрыва или скачкообразного возникновения новой информации. Далее вступают в силу статистические законы Естественного Отбора.

Итак, подытожим. В наиболее широком понимании мы можем поставить знак равенства между понятиями «информация» и «жизнь». Организм жив, пока его мозг в состоянии извлекать и перерабатывать-декодировать информацию. И единственный способ существования мозга - это извлечение, декодирование информации и выработка управляющих воздействий.

И не какой-то отвлеченный, чей-то «ничейный» организм, а наш организм.

Мозг до последней секунды биологической активности сопротивляется небытию, перерабатывает информацию и выдает управляющие воздействия. Отсюда басни о потустороннем бессмертии, основа всех культов. У животных отсутствует необходимость культовых захоронений, а значит, и представления о потусторонней жизни.

И только человеческий мозг, сопротивляясь небытию и оберегая информацию, способен на оккультное безумство и расточительство некрополей. И если именно ваш спермий прорвался сквозь мириады поколений и миллиарды смертей к жизни, будьте достойны этих усилий в своей земной юдоли, в течение всего лишь 25-30 тыс. дней. Помните, что, как и для всех прочих животных, по ту сторону жизни у нас нет ничего. Основатели всех конфессий и их апологеты, оформляя в безумство толпы нашу врожденную религиозность (совестливость), это очень хорошо знали и знают. В основу всех конфессий положен догмат антропоцентризма - «венца творения» «по образу и подобию» и «рая» по ту сторону. Уравняв «венец» с «тварями», Церковь рухнет. И каждый знающий, что нет возмездия «на том свете», совсем иначе ценит каждый день и каждый поступок «на этом». И любит и ненавидит.

Энергетическая целесообразность избыточного творчества организма определяется необходимостью постоянной подпитки мозга его единственной пищей - информацией, поэтому энергозатраты на творчество, даже такое как чтение, всегда избыточны. И вершиной творческих усилий является полная самоотдача, самопожертвование, самоотречение пары - основа всякого плодородия и залог здоровья рожденного носителя выделенной информации.

Также всегда избыточны энергозатраты на творчество при возникновении новой информации в любой физической системе.

А теперь зададимся вопросом, что есть временная совокупность знаний субъекта и что есть объективная Информация, каким мусором нас пичкают средства информации для масс и какие усилия предпринимает организм для выживания, фильтруя из этого мусора жизненно важную информацию (не потому ли мы так катастрофически быстро стареем?), какой организм можно считать мертвым, даже если он ещё шевелится?

Но у жизни, человеческой жизни, есть еще задача, за которую она ответственна: извлечение отрицательной энтропии и уменьшение социальной неупорядоченности на уровне популяции.

Вероятность - математическая категория, говорящая о закономерностях возникновения случайных явлений. Для замкнутой системы становится равной нулю при раскодировании ею Информации с окружающих носителей. Или более категорично информация - это отрицание вероятности.

Случайность - это закономерность более высокого порядка, или событие, вероятность которого определяется количественным показателем D неупорядоченности атомно-молекулярного движения в веществе из закона Больцмана-Гиббса или количественным показателем неупорядоченности для любой другой системы - биологической, социальной, космической.

Материя - объективная реальность, отраженная в Информации о ее свойствах, при этом мера объективности материи не зависит от реальности ощущений субъекта. С точки зрения физика материя состоит из вещества и поля. Вещество - это пространственная атомно-молекулярная решетка, погруженная в поле на девять десятых своего объема (в среднем, в зависимости от плотности и агрегатного состояния вещества, наибольшая плотность вещества в его жидкой фазе).

Сознание - это способность субъекта к отображению объективной реальности, материи, на основе возникшей при рождении Информации, декодированной информации при онтогенезе и возникших при этом эмоций - индивидуальных психических реакций.

Звуковой стереотип - прочно сложившиеся в сознании субъекта ассоциативные связи между возникшим образом и произнесенным звуком.

Общественное сознание - суммарный вектор индивидуальных интересов (по-русски личной корысти) в социуме.

Совесть (лат. RELIGIO) - генетически наследуемая социальная категория, определяющая устойчивое состояние психики изолированного субъекта в социуме, при котором он так оценивает свое поведение, как если бы он находился под пристальным, оценивающим взглядом иных субъектов. А равно и мотивация поведения неизолированного субъекта в среде себе подобных иных субъектов социума.

Свобода - см. Совесть

Нужда, нищета. Мудрец сказал: «Мелочи жизни - это разные события между рождением и смертью». Дополним его. Нужда – это наши рождения и смерти между векторами индивидуальной корысти, под Властью права присвоения общественной собственности.

Самообладание, невозмутимость, хладнокровие - модель поведения личности, которая реализует волю управляющих структур Власти (см.), либо же это равнодушие абсолютного эгоиста. Человек с совестью, обладающий свободой выбора, всегда эмоционален.

Информация (от лат. informatio, разъяснение, изложение, осведомленность) - общенаучное понятие, связанное с объективными свойствами материи и их отражением в человеческом сознании.

В современной науке рассматриваются два вида информации.

Объективная (первичная) информация - свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий (фундаментальные взаимодействия) передаются другим объектам и запечатлеваются в их структуре.(см.В.М. Глушков, Н.М. Амосов и др. «Энциклопедия кибернетики». Киев. 1975 г.)

Субъективная (семантическая,смысловая, вторичная) информация – смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, образов и ощущений) и зафиксированное на каком-либо материальном носителе. Человеку свойственно субъективное восприятие информации через некоторый набор ее свойств: важность, достоверность, своевременность, доступность, «боль­ше-меньше» и т.д. Использование терминов «больше информации» или «меньше информации» подразумевает некую возможность ее измерения (или хотя бы коли­чественного соотнесения). При субъективном восприятии измерение информации возможно лишь в виде установления некоторой субъективной порядковой шкалы для оценки «больше-меньше». При объективном измерении количества информа­ции следует заведомо отрешиться от восприятия ее с точки зрения субъективных свойств, примеры которых перечислены выше. Более того, не исключено, что не всякая информация будет иметь объективно измеряемое количество.

В бытовом смысле информация - сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.{см.С.И.Ожегов. "Словарь русского языка". Москва. 1990г.). В простейшем бытовом понимании с термином «информация» обычно ассоции­руются некоторые сведения, данные , знания и т.п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. При­мерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полу­ченные в результате работы составленной вами программы, и т.д. При этом предполагается, что имеются «источник информации» и «получатель информации». Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае «каналом связи». Так, при передаче речевого сообщения в качестве канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (на­пример, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст. Чтобы сообщение было передано от источника к получателю, необходима не­которая материальная субстанция - носитель информации. Сообщение, передава­емое с помощью носителя, - сигнал. В общем случае сигнал - это изменяющийся во времени физический процесс. Та из характеристик процесса, которая использу­ется для представления сообщений, называется параметром сигнала. В случае, когда параметр сигнала принимает последовательное во времени ко­нечное число значений (при этом все они могут быть пронумерованы), сигнал на­зывается дискретным, а сообщение, передаваемое с помощью таких сигналов, - дискретным сообщением. Если же источник вырабатывает непрерывное сообще­ние (соответственно параметр сигнала - непрерывная функция от времени), то соответствующая информация называется непрерывной. Примеры дискретного со­общения - текст книги, непрерывного сообщения - человеческая речь, переда­ваемая модулированной звуковой волной; параметром сигнала в последнем случае является давление, создаваемое этой волной в точке нахождения приемника - человеческого уха. Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором интервале. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Из бесконечного мно­жества значений параметра сигнала выбирается их определенное число, которое приближенно может характеризовать остальные значения. Для этого область опре­деления функции разбивается на отрезки равной длины и на каждом из этих от­резков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке. В итоге получим конечное множество чисел. Таким образом, любое непрерывное сообщение может быть представлено как дискрет­ное, иначе говоря, последовательностью знаков некоторого алфавита. Возможность дискретизации непрерывного сигнала с любой желаемой точно­стью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер - цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информа­ции (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.

Понятие «информация» является одним из фундаментальных в современной науке вообще и базовым для информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако если задаться целью формально определить понятие «информация», то сделать это будет чрезвычайно сложно. В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Согласно концепции К.Шеннона, информация - это снятая неопределенность, т.е. сведения, которые должны снять в той или иной степени существующую у потребителя до их получения неопределенность, расширить его понимание объекта полезными сведениями.

Единицы количества информации

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одно­временно. В конце 40-х годов XX века один из основоположников кибернетики, амери­канский математик Клод Шеннон, развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием правильной иг­ральной кости, имеющей N граней. Результаты данного опыта могут быть следую­щие: выпадение грани с одним из следующих знаков: 1, 2, ..., N .

Введем в рассмотрение численную величину, измеряющую неопределенность - энтропию (обозначим ее Н ). Согласно развитой теории, в случае равновероятного выпадания каждой из граней величины N и Н связаны между собой формулой Хартли

Важным при введении какой-либо величины является вопрос о том, что при­нимать за единицу ее измерения. Очевидно, H будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероят­ных исходов (примером такого опыта может служить бросание монеты, при кото­ром возможны два исхода: «орел», «решка»). Такая единица количества информа­ции называется «бит».

В случае, когда вероятности Рi результатов опыта (в примере, приведенном выше, - бросания игральной кости) неодинаковы, имеет место формула Шеннона

В случае равновероятности событий , формула Шеннона переходит в формулу Хартли.

В качестве примера определим количество информации, связанное с появлени­ем каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле Хартли

Однако в словах русского языка (равно как и в словах других языков) различ­ные буквы встречаются неодинаково часто. Ниже приведена таблица вероятностей частоты употребления различных знаков русского алфавита, полученная на осно­ве анализа очень больших по объему текстов.

Объемный подход

В двоичной системе счисления знаки 0 и 1 называют битами (bit - от английского выражения Binary digiTs - двоичные цифры). В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными зна­ками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по числу требуемых для такой записи двоичных символов. При этом, в частно­сти, невозможно нецелое число битов (в отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит , единицы ко­личества информации. Так, двоичное слово из восьми знаков содержит один байт информации. 1024 байта образуют килобайт (Кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, до­пускает измерение объема информации в вероятностном (кибернетическом) смыс­ле, но заведомо допускает его в объемном. Далее, если некоторое сообщение до­пускает измеримость количества информации в обоих смыслах, то это количество не обязательно совпадает, при этом кибернетическое количество информации не может быть больше объемного.

В прикладной информатике практически всегда количество информации пони­мается в объемном смысле.

Классификация информации

Информацию можно разделить на виды по разным критериям.

Способ восприятия: Визуальная - воспринимаемая органами зрения. Аудиальная - воспринимаемая органами слуха. Тактильная - воспринимаемая тактильными рецепторами. Обонятельная - воспринимаемая обонятельными рецепторами. Вкусовая - воспринимаемая вкусовыми рецепторами.

Форма представления: Текстовая - передаваемая в виде символов, предназначенных обозначать лексемы языка. Числовая - в виде цифр и знаков, обозначающих математические действия. Графическая - в виде изображений, предметов, графиков. Звуковая - устная или в виде записи передача лексем языка аудиальным путём.

Предназначение: Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума. Специальная - содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация. Личная - набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

Свойства информации

Качество информации - степень её соответствия потребностям потребителей. Свойства информации являются относительными, так как зависят от потребностей потребителя информации.

Объективность информации характеризует её независимость от чьего-либо мнения или сознания, а также от методов получения. Более объективна та информация, в которую методы получения и обработки вносят меньший элемент субъективности.

Информацию можно считать полной , когда она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых на основании информации решений.

Достоверность - верность информации, не вызывающая сомнений. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Причинами недостоверности могут быть: преднамеренное искажение (дезинформация); непреднамеренное искажение субъективного свойства; искажение в результате воздействия помех; ошибки фиксации информации. В общем случае достоверность информации достигается: указанием времени свершения событий, сведения о которых передаются; сопоставлением данных, полученных из различных источников; своевременным вскрытием дезинформации; исключением искажённой информации и др.

Адекватность - степень соответствия смысла реально полученной информации и её ожидаемого содержимого. Например задан вопрос - "Сколько у человека пальцев на руке?" "На руке у человека пять пальцев" - ответ достоверный и адекватный, "У человека две руки" - ответ достоверный но неадекватный.

Доступность информации - мера возможности получить ту или иную информацию.

Актуальность информации - это степень соответствия информации текущему моменту времени.

Эмоциональность - свойство информации вызывать различные эмоции у людей. Это свойство информации используют производители медиаинформации. Чем сильнее вызываемые эмоции, тем больше вероятности обращения внимания и запоминания информации.

Как ни важно измерение информации, нельзя сводить к нему все связанные с этим понятием проблемы. При анализе информации социального (в широким смыс­ле) происхождения на первый план могут выступить такие ее свойства, как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах «уменьшение неопределенности» (вероятностный подход) или числа сим­волов (объемный подход). Обращение к качественной стороне информации поро­дило иные подходы к ее оценке. При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. из качественных харак­теристик, значимых в социальной системе. При семантическом подходе информа­ция рассматривается с точки зрения как формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации. Эти подходы не исключают количе­ственного анализа, но он становится существенно сложнее и должен базироваться на современных методах математической статистики.

Понятие информации

Понятие информации нельзя считать лишь техническим, междисциплинарным и даже наддисциплинарным термином. Информация - это фундаментальная фи­лософская категория. Дискуссии ученых о философских аспектах информации на­дежно показали несводимость информации ни к одной из этих категорий. Концеп­ции и толкования, возникающие на пути догматических подходов, оказываются слишком частными, односторонними, не охватывающими всего объема этого по­нятия.

Попытки рассмотреть категорию информации с позиций основного вопроса философии привели к возникновению двух противостоящих концепций - функ­циональной и атрибутивной. «Атрибутисты» квалифицируют информацию как свой­ство всех материальных объектов, т.е. как атрибут материи. «Функционалисты» свя­зывают информацию лишь с функционированием сложных, самоорганизующихся систем.

Можно попытаться дать философское определение информации с помощью указания на связь определяемого понятия с категориями отражения и активности. Информация есть содержание образа, формируемого в процессе отражения. Активность входит в это определение в виде представления о формировании некоего образа в процессе отражения некоторого субъект-объектного отношения. При этом не требуется указания на связь информации с материей, поскольку как субъект, так и объект процесса отражения могут принадлежать как к материальной, так и к духовной сфере социальной жизни. Однако существенно подчеркнуть, что матери­алистическое решение основного вопроса философии требует признания необхо­димости существования материальной среды - носителя информации в процессе такого отражения. Итак, информацию следует трактовать как имманентный (неотъемлемо присущий) атрибут материи, необходимый момент ее самодвижения и саморазвития. Эта категория приобретает особое значение применительно к высшим формам движения материи - биологической и социальной.

Известно большое количество работ, посвященных физической трактовке ин­формации. Эти работы в значительной мере построены на основе аналогии форму­лы Больцмана, описывающей энтропию статистической системы материальных частиц, и формулы Хартли. Соответствующие материалы можно найти в литерату­ре, отраженной в приведенном ниже перечне.

Информацию следует считать особым видом ресурса, при этом имеется в виду толкование «ресурса» как запаса неких знаний материальных предметов или энер­гетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизве­дения и обновления, чем материальные ресурсы. В связи с таким взглядом цент­ральными становятся следующие свойства информации: запоминаемость, передаваемость, преобразуемость, воспроизводимость, стираемостъ.

Подводя итог сказанному, отметим, что предпринимаются (но отнюдь не за­вершены) усилия ученых, представляющих самые разные области знания, пост­роить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах са­мой разной природы. Движение информации есть сущность процессов управле­ния, которые суть проявление имманентной активности материи, ее способности к самодвижению. С момента возникновения кибернетики управление рассматрива­ется применительно ко всем формам движения материи, а не только к высшим (биологической и социальной). Многие проявления движения в неживых - искусственных (технических) и естественных (природных) системах также обладают общими признаками управления, хотя их исследуют в химии, физике, механике в энергетической, а не в информационной системе представлений. Информационные аспекты в таких системах составляют предмет новой междисциплинарной на­уки - синергетики.

Высшей формой информации, проявляющейся в управлении в социальных систе­мах, являются знания. Это наддисциплинарное понятие, широко используемое в пе­дагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории. В философском плане познание следует рассмат­ривать как один из функциональных аспектов управления. Такой подход открывает путь к системному пониманию генезиса процессов познания, его основ и перспектив.

Данные, информация и знания

К базовым понятиям, которые используются в экономической информатике, относятся: данные, информация и знания. Эти понятия часто используются как синонимы, однако между этими понятиями существуют принципиальные различия.

Термин данные происходит от слова data - факт, а информация (informatio) означает разъяснение, изложение, т.е. сведения или сообщение.

Данные - это совокупность сведений, зафиксированных на определенном носителе в форме, пригодной для постоянного хранения, передачи и обработки. Преобразование и обработка данных позволяет получить информацию.

Информация - это результат преобразования и анализа данных. Отличие информации от данных состоит в том, что данные - это фиксированные сведения о событиях и явлениях, которые хранятся на определенных носителях, а информация появляется в результате обработки данных при решении конкретных задач. Например, в базах данных хранятся различные данные, а по определенному запросу система управления базой данных выдает требуемую информацию.

Существуют и другие определения информации, например, информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Знания – это зафиксированная и проверенная практикой обработанная информация, которая использовалась и может многократно использоваться для принятия решений.

Знания – это вид информации, которая хранится в базе знаний и отображает знания специалиста в конкретной предметной области. Знания – это интеллектуальный капитал.

Формальные знания могут быть в виде документов (стандартов, нормативов), регламентирующих принятие решений или учебников, инструкций с описанием решения задач. Неформальные знания – это знания и опыт специалистов в определенной предметной области.

Необходимо отметить, что универсальных определений этих понятий (данных, информации, знаний) нет, они трактуются по-разному. Принятия решений осуществляются на основе полученной информации и имеющихся знаний.

Принятие решений – это выбор наилучшего в некотором смысле варианта решения из множества допустимых на основании имеющейся информации. Взаимосвязь данных, информации и знаний в процессе принятия решений представлена на рисунке.

Взаимосвязь данных, информации и знаний в процессе принятия решений

Для решения поставленной задачи фиксированные данные обрабатываются на основании имеющихся знаний, далее полученная информация анализируется с помощью имеющихся знаний. На основании анализа, предлагаются все допустимые решения, а в результате выбора принимается одно наилучшее в некотором смысле решение. Результаты решения пополняют знания.

В зависимости от сферы использования информация может быть различной: научной, технической, управляющей, экономической и т.д. Для экономической информатики интерес представляет экономическая информация.

Литература

  1. Могилев А.В. Практикум по информатике: Учеб. пособие для студ. высш. учеб. заведений/А.В.Могилев, Н.И.Пак, Е.К.Хеннер; Под ред. Е.К.Хеннера. - 2-е изд., стер. - М.: Издательский центр "Академия", 2005. - 608 с.

Любой человек каждый день сталкивается с большими объемами различной информации. Она разнообразна, может быть полезной или не очень. Но в любом случае без нее невозможно жить. К информации имеет прямое отношение наука информатика, это объект ее изучения. Ниже мы рассмотрим понятие и виды информации.

Информация - это первичное, базовое понятие в информатике. Его невозможно определить с помощью других, так как их еще нет. Проблема определения осложнена тем, что это понятие используется во многих науках (кибернетика, информатика, биология, физика и др.), и в каждой из них оно связано с разными системами научных знаний.

Информация и физика

В физике есть понятие "энтропия системы", которое является мерой хаоса, беспорядка для термодинамической системы, информация же (антиэнтропия) - это мера ее сложности и упорядоченности. Если увеличивается ее сложность, то величина энтропии становится меньше, а величина информации растет. Подобный процесс, при котором увеличивается информация, возникает в открытых, саморазвивающихся, обменивающихся энергией и веществом с окружающей средой системах живой природы (белковые организмы и молекулы, популяции животных). Можно сказать, что в физике информацию рассматривают как антиэнтропию.

Информация и биология

В биологии, изучающей живую природу, информация связана с целесообразным поведением живых организмов. Это поведение строится согласно полученным организмом сведениям о внешней среде.

В биологии понятие «информация» применяется также при исследованиях механизмов наследственности, так как известно, что генетическая информация способна передаваться по наследству и храниться в каждой клетке живого организма. Все сведения о строении организмов содержат в себе такие молекулярные структуры как гены. Ученые, зная это, могут создавать точную копию организмов из всего лишь одной клетки (клонирование).

Информация и кибернетика

Кибернетика - это наука об управлении, понятие «информация» в ней связывается с процессами управления в достаточно сложных системах (технических устройствах, живых организмах). Нормальное функционирование технического устройства или жизнедеятельность каждого организма зависят от управления, благодаря которому могут поддерживаться в нужных пределах значения их параметров. Получение, хранение, преобразование и передача информации - это процессы управления.

Определения понятия «информация»

Информация - это различные сведения о явлениях и объектах окружающей среды, а также об их свойствах, состояниях и параметрах, которые способны уменьшить имеющуюся неопределенность неполноты знаний о них. Это одна из исходных общенаучных категорий, которая отражает структуру материи и способы ее познания, она не может быть сведена к другим, более простым понятиям.

Информация - это представление (понимание, интерпретация, смысл), которое возникает в аппарате мышления человека, сразу после того как он получает данные, взаимоувязанное с предшествующими понятиями и знаниями. Это содержание сигнала или сообщения, сведения, которые рассматриваются в процессе их восприятия или передачи.

Особенность информации

У информации существует характерная особенность, которая отличает ее от прочих объектов общества и природы - это дуализм, так как на ее свойства могут влиять свойства данных, которые составляют ее содержательную часть, а также методов, которые взаимодействуют с данными в ходе информационного процесса.

Исключительность информации

Информация проявляется только в том случае, если имеются объекты, которые находятся в контакте между собой. Обмен ею происходит не между любыми объектами, а только между теми, которые являются организованной структурой (системой). Элементами такой системы могут являться не обязательно люди: обмен различными сведениями может осуществляться между животными и растениями, живой и неживой природой, устройствами и людьми.

Виды информации в информатике

Человек всю свою историю пытался преобразовать природу и общество, в ходе этого возникала все новая и новая информация. Мы рассмотрим все виды информации. Таблица представлена ниже.

Виды информации по форме представления

Информация может быть представлена разными формами. Мы воспринимаем текстовую информацию (представленную в виде символов алфавита какого-либо языка), читая книги, журналы, газеты, ищем ее в текстовом виде по средствам сети Интернет. Одновременно с ней можем получать и символьные сведения, которые состоят из цифр в различных системах счисления. Глядя на всевозможные иллюстрации, картины, схемы, чертежи, графики, мы способны воспринять графический вид информации. Звуковые сообщения поступают к нам от других людей, которые говорят что-то, мы слышим их с помощью радио, звуковоспроизводящих устройств. Но чаще всего мы предпочитаем комбинированный вид получения сведений, когда нам, например, не только рассказывают, но и показывают; рассказывают и дают прочитать это самостоятельно. Он оказывает на нас наибольшее влияние. Рассмотренные виды информации в информатике встречаются постоянно в повседневной жизни любого человека, и мы вольно или невольно воспринимаем ее, она откладывается у нас памяти.

Виды информации по способам восприятия

Урок информатики, на котором рассматриваются виды информации, способен дать сведения о том, что она может быть воспринята по-разному, разными органами чувств. Визуальная - воспринимается при помощи зрения, аудиальная - слуха, тактильная - ощущений, обонятельная - запаха, а данные о вкусе дает нам язык. Отдельные виды информации в информатике могут восприниматься разными людьми по-разному. Кто-то больше запоминает, если что-то услышал, другой - если увидел, а третий - если потрогал.

Виды информации по типу сигнала

В информатике принято различать основные виды информации: аналоговую (непрерывную) и знаковую (дискретную). Знаковая может передаваться, обрабатываться и храниться в виде множества различных символов. Ее можно содержать в рукописных и печатных документах, она способна отразить состояние цифровых автоматов и т. п. Противоположностью этому виду является непрерывная информация, которая воплощается в звуковых, зрительных и прочих образах, ее еще можно наблюдать в непрерывных траекториях процессов (кардиограмма, осцилограмма).

Можно сказать, что все сведения могут быть представлены в аналоговом виде (свет, звук) или последовательностью отдельных сигналов (компьютерный код, электрические импульсы).

Рассмотренные выше понятие и виды информации дают понять, как она многообразна и многолика. Каждый из нас ее постоянно воспринимает, обрабатывает, передает. Без нее невозможна наша жизнь. Виды и средства информации менялись на протяжении истории человечества. От зарубок на стенах пещер и примитивной речи мы перешли к современному уровню развития.