МЕТОДОЛОГИЧЕСКИЕ АСПЕКТЫ ФОРМИРОВАНИЯ ПОНЯТИЯ ИНФОРМАЦИИ В НАУКЕ

В. Н. Гончаров Ставропольский государственный педагогический институт,

Г. Ставрополь, Россия

METHODOLOGICAL ASPECTS OF FORMATION OF CONCEPT INFORMATION IN THE SCIENCE

V. N. Goncharov

The Stavropol State Teacher Training College,

Stavropol, Russia

Summary. The concept «information» was formed, since researches in the field of theoretical physics. In 1894 by Boltsman it was noted that entropy of physical system is directly connected with probability. «Information loss» conducts to reduction of number of mutually exclusive possible conditions of system, that is to entropy increase. Leo Stsillard applied the concept of entropy interfaced with «information loss», to information in physics, von Neumann (1932) to quantum mechanics and nuclear physics (1925), Claude Shannon created the mathematical theory of information (1948), and Norbert Wiener, having applied it to management, thereby impulsed to universal application of this concept of all areas of a modern science. However, despite extremely being multiplied quantity of cases of the use of this concept, its exact definition doesn't exist.

Key words: Information; number of information; entropy; information theory; religion; variety; probability; informatsionnost; matter; knowledge; knowledge; message; scientific information; information activities; public and scientific research activity; information and logical analysis; research process.

Для решения отдельных конкретных задач разработаны определения информации К. Шеннона [30], А. Я. Хинчина [29], Н. Винера [6], Л. Бриллюэна [5], Дж. Неймана [20], Э. Кольмана [1] и ряда других исследователей. Согласно Шеннону, информацию можно определить как меру того количества неопределенности, которое уничтожается после получения сообщения. Важность ин-формации, содержащейся в сообщении, не учитывается. Чем больше неопределенностей в равновероятных состояниях системы, тем больше требуется информации для того, чтобы свести ее к определенности. В исследовании (например, экспериментальном) определяемые объекты имеют неодинаковую вероятность. Поэтому задача заключается в оптимальном выборе кратчайшего пути к искомому ответу на поставленные вопросы путем узнавания наиболее вероятных состояний системы.

В теории информации учитываются взаимосвязи сигналов, то есть свойства совокупностей сообщений. Если все сигналы статически подобны, то наблюдения за одним из них экстраполируются на всю их совокупность. Л. Бриллюэном предложено несколько иное, отличное от шенноновского, понимание информации, а именно: на основании второго закона термодинамики энтропия системы должна увеличиваться или оставаться постоянной. Это означает, что организационные связи между ее элементами должны становиться все более случайными, хаотичными. В случае получения информации неопределенность системы уменьшается, то есть ее энтропия уменьшается. «Убывающая энтропия системы служит началом самоорганизации в материальных системах» [16, с. 118]. Следовательно, полученная информация может рассматриваться как отрицательная энтропия, или негэнтропия. Добавочная информация увеличивает негэнтропию системы. Увеличивая негэнтропию, мы увеличиваем тем самым

17


Информацию о системе. Справедливо и обратное заключение: уменьшение негэнтропии системы ведет к потере информации.

Статистическая интерпретация энтропии в термодинамике была перенесена Клодом Шенноном на другие области действительности, где могли происходить случайные процессы, и прежде всего на теорию связи. Вскоре стало понятным, что концепция информации применима не только в теории связи, но и в биологии, психологии, лингвистике и других науках, там, где объективно существуют статистические закономерности. Норберт Винер применил понятие информации к управлению и тем самым дал толчок к повсеместному применению этого понятия во всех областях современной науки. Расширение области применения понятия информации и теории информации К. Шеннона начало приводить к пониманию специфики информации и информационных закономерностей в различных сферах действительности. По мере развития самой математической теории информации понятие информации распространялось с дискретных на непрерывные системы, с конечных на бесконечные.

Антропоморфное понимание информации в докибернетический период представляет лишь составную часть того содержания, которое вкладывается в этот термин в настоящее время. Следует отметить, что сам термин «информация» понимается разными исследователями далеко не однозначно.

Очень широкий смысл понятию «информация» был придан С. Л. Соболевым, А. Н. Китовым и А. А. Ляпуновым в одной из работ, позитивно освещавших проблемы кибернетики. Столь же широкий «всеобъемлющий» смысл понятия «информация» содержится в работах В. М. Глушкова [9], Н. М. Амосова [2], Ф. П. Тарасенко [26], 3. И. Ровенского, А. И. Уемова, Е. А. Уемовой [23], Д. А. Гущина [11], И. Б. Новика [21]. А. Н. Медведьев, напротив, сужает это понятие до условно-рефлекторной деятельности [19]. К. Шеннон склонен истолковывать понятие «информация» как относящееся лишь к техническим средствам связи [31].

Своеобразное понимание информации как объекта рассмотрения зачастую ограничивается лишь формализованной стороной информации и отмежевывается от анализа тех сторон, которые еще не получили формального описания. Широко распространенное сужение понятия информации до ее формализованной части находим и в «Кратком философском словаре», где под научным понятием информации берется именно ее формализованная сторона и противопоставляется ее богатому связями определению, выработанному в докибер-нетический период. Необходимо отметить, что небольшой области формализованных отношений противостоит огромное количество отношений, под-лежащих формализации, но с трудом поддающихся ей. Это касается также и информации. Исследователи в области кибернетики в качестве конечной цели имеют в виду формализовать или по возможности формализовать все стороны информации. Результаты, достигнутые быстро развивающейся отраслью кибернетики – теорией информации, касаются лишь чрезвычайно частных процессов передачи, приема и переработки информации. Можно говорить только о частных разделах этой теории.

Ф. И. Георгиев и Г. Ф. Хрустов [8] рассматривают информацию как сведения о предметах внешней действительности и разделяют ее на витальную и предметную. Под витальной при этом подразумевается информация о постоянных признаках объекта, входящих в сферу биологических потребностей организма, которые замещаются временными сигналами, играющими роль биологически значимых для организма. Предметной называется информация об объективных признаках предметов, выявляемых при соотношении этих предметов друг с другом.

По мнению некоторых исследователей, информация разделяется на два более общих вида. У Н. И. Жукова [12] это – информация живой и искусствен-18


Ной природы. У С. Г. Иванова [13] и И. И. Блоха [4] – человеческая, осмысленная, и машинная. У В. В. Косолапова [18] – семантическая и техническая. При этом понимается, что техническая (машинная) информация касается непосредственной передачи через канал связи при помощи сигналов, ее можно точно математически выразить, она имеет вполне объективный характер и не имеет непосредственно никакого касательства к человеческому сознанию. Это информация, передаваемая техническим математическим устройством или переносимая математическим устройством или нервными волокнами. Семантическая человеческая осмысленная информация касается потребителя, который сообщение истолковывает, понимает и использует.

Некоторые зарубежные авторы связывают понятие информации с религией, используя современный аппарат науки, и в частности кибернетики, для доказательства своих идей: в информации усматривается особый нематери-альный принцип действительности, принцип, который объединяет субъективную и объективную области [34]; информация понимается как посредник между сознанием и материей [36]; дается «кибернетическое доказательство бытия божьего», при этом информация – это третья ценность наряду с сознанием и материей, а бог представляет тождество этих трех ценностей [37].

Рядом исследователей информация трактуется через понятие разнообразия. Впервые подобное толкование находим у У. Росс Эшби [33]. Взаимосвязь информации и разнообразия также отмечает Ст. Бир [3]. Подобное отношение к информации, как к разнообразию, находим у биологов, например у И. И. Шмальгау-зена [32]. В философских работах также разрабатывается подобная трактовка. К таковым можно отнести работы П. В. Копнина [17], А. Д. Урсула [27; 28].

В дальнейшем можно отметить некоторый отход от статистическо-вероятностных концепций определения информации. По мнению А. Н. Колмогорова, «информация по своей природе – не специально вероятностное понятие» [14, с. 35–36]. Еще ранее подобная концепция нашла свое выражение в комби-наторном определении количества информации и ее теоретико-множественном развитии в рамках концепции е-энтропии. А. Н. Колмогоров отмечает, что комбинаторное определение количества информации как логарифма мощности конечного множества (и как его обобщение – е-энтропия) логически независимо от статистического подхода к определению количества информации [15]. В упомянутых двух работах А. Н. Колмогоров развивает способы математически отличного от статистического определения количества информации – алгоритмический (на основе рекурсивных функций) и топологический. Можно указать на трактовку понятия информации в рамках не статистической, а динамической системы, где количество информации определяется при помощи меры множеств [24]. Некоторые исследователи рассматривают аксиоматическое понятие информации как некоторую вещественную функцию на булевых кольцах, не прибегая к помощи вероятной меры, исходя из того, что первичным является понятие, а производным от него – понятие вероятности [35].

Описанные определения понятия информации составляют сущность математической теории информации, или теории «сигнальной информации». Эта теория лежит в основе информатики. Но в информатике, кроме количественных характеристик, рассматриваются также ее качественные особенности, ее семантическое значение, важность информации для потребителя.

Информация является знанием со всеми присущими ему свойствами: достоверностью, первичностью или вторичностью, соответствием достигнутому научно-техническому уровню. Как знание информация может быть выражена и ассоциативным образом, и термином, и структурно-логическим знаком.

Чувственный аппарат в логической информатике не анализируется, но он является средством получения, хранения и воспроизведения знаний.

19


Понятие информации в этом смысле С. Л. Соболев, А. И. Китов и А. А. Ляпунов описывают так: «Информацией называются сведения о результатах каких-либо событий, которые заранее не были известны... Понятию информации кибернетика придает очень широкий смысл, включая в него как всевозможные внешние данные, которые могут восприниматься или передаваться какой-либо определенной системой, так и данные, которые могут вырабатываться внутри системы... Информацией могут являться, например, воздействия внешней среды на организм человека и животного; знания и сведения, получаемые человеком в процессе обучения; сообщения, предназначенные для передачи с помощью какой-либо линии связи; исходные промежуточные и окончательные данные в вычислительных машинах [25, с. 136]. Но являются ли информация и знание полностью тождественными понятиями? Чтобы ответить на этот вопрос, не-обходимо уточнить круг тех объектов, которые принципиально могут изучаться с помощью понятий «информация» и «знание». Обмен информацией совершается не вообще между материальными телами, а только между теми из них, которые представляют систему, обладающую каким-то минимумом организованнос-ти. Информационные процессы всегда связаны с взаимодействием тел, переносом энергии, ее потерей в одном месте и накоплением в другом. Но они не являются ни энергией, ни формой материального движения, аналогичной, скажем, механической или биологической. Информационность – это такое же свойство материальных тел, как их пространственность, бытие, существование. И как атрибут пространственного расположения тел фиксируется человеком на основании всех известных данных о действительности, а не каких-то отдельных умозрительных заключений, так и информационность, присущая материи, доказывается всей общественно-исторической практикой. «Информация есть информация, а не материя и не энергия. Тот материализм, который не признает этого, не может быть жизнеспособным в настоящее время» [7, с. 166].

Поскольку это так, то информация – понятие, описывающее один из главнейших атрибутов свойств материи. То, что описывается этим понятием, является конкретным содержанием категории отражения в философии. Как известно, отражение является всеобщим свойством материальной действительности.

Свойства материи – движение, пространство, время, информационность – определяются структурой материальных тел. Например, пространство макромира – эвклидово, то есть трехмерно, пространству Космоса присуща кривизна, оно описывается неэвклидовыми геометриями. Структурные уровни организации материи определяют качественно разные формы информации. Можно говорить об информационности физических, биологических, социальных и других процессов. В обществе действующим субъектом является человек, наделенный сознанием. Содержанием сознания является совокупность знаний, добытых человеком в процессе познания действительности. Познавательная деятельность, в том числе и научно-исследовательская, представляется процессом получения знания с целью уменьшения энтропии сознания, то есть повышения его организованности. Знание – это информация, существующая в условиях социальной среды, являющаяся результатом познания как процесса повышения информаци-онной емкости сознания человека и общества вообще.

Таким образом, можно сказать, что знание – это только та часть информации, которая циркулирует в социальной среде и имеет какой-либо смысл только в ее пределах. Знание, изучаемое многими научными дисциплинами, в информатике исследуется как информационный процесс.

В основании научной информации лежат также другие фун-даментальные, исходные понятия, которые средствами этой теории не определяются. Их достоверность устанавливается практикой информационной деятельности. К таким понятиям можно отнести алфавит, код, сообщение.

20


Алфавит – это система графических знаков, букв, символов, знаков препинания, которые используются для записи информации как основной формы ее передачи и обмена в обществе. Сообщение – это любая часть информации (от одной буквы алфавита до их значительного числа), которой обмениваются люди. Код – это алфавит, специализированный с учетом технических средств передачи сообщений. Переход от одного алфавита к другому является процессом перекодирования, а специализация алфавита – кодированием сообщения. Сообщение передается в форме определенного кода каналом связи. Канал связи – это совокупность технических средств, приспособленных для передачи кодированных сообщений от источника сообщений к приемнику (получателю) сообщений.

Поскольку источником сообщений является вся человеческая деятельность, то они содержат разнообразнейшую информацию. Информация – это функция состояния любой материальной системы, показатель разнообразия (изменчивости) ее структуры (организации). Чтобы какая-либо система была источником информации, достаточно наличия в ее структуре хотя бы несколь-ких переменных элементов. Канал связи определяется только количественной характеристикой передаваемых сообщений, то есть тем числом, которое соответствует объему сообщений – количеству содержащихся в нем букв (знаков) алфавита. Содержательная (качественная) сторона сообщения не оказывает на свойства канала связи никакого влияния. Прием сообщения осуществляет функции получателя информации о предмете (или материальной системе) и ее интерпретации (истолкования или понимания смысла сообщения). Смысл – это все то, что устанавливается интерпретацией полученного сообщения о предмете информации и имеет ценность с точки зрения его получателя.

Одно и то же сообщение может иметь бесконечное количество интерпретаций, а следовательно, и смыслов. Информацию по определенному кругу вопросов, которая находится в любом источнике научной информации, можно раз-делить на сообщения. Возникает вопрос о необходимости установить какую-то среднюю величину сообщения, то есть определить среднее сообщение, так как в противном случае нельзя будет сравнивать отдельные сообщения. Под средним сообщением понимается определенное количество информации, одинаковое для всех сообщений.

Научную информацию целесообразно накапливать только по наиболее ценным источникам информации. Можно, очевидно, говорить о смысловой емкости одного и того же понятия, употребляемого в разных теоретических систе-мах, о глубине интерпретации знаков и, вероятно, в зависимости от этого о глубине индексирования терминов. На информационную емкость понятий решающее влияние оказывает контекст, в котором они употребляются. Информация обладает также ценностью как средство объяснения действительности, предска-зания получения новых информационных сведений, описания и систематизации этих сведений. В процессе развития знания информационные сведения могут обесцениваться или их ценность может возрастать.

Ценность научной информации тесно связана со шкалой времени и имеет тенденцию с течением времени уменьшаться. Это положение имеет особое значение для тех наук, которые используют методы информатики в качестве приема исследования.

Понятия теории информации используются в физике, химии, биологии, геохимии, геологии как эффективное средство анализа, а также в области общественных наук. Конкретные задачи, стоящие перед исследователями социальных явлений и процессов, и тенденции развития информационной ситуации в науке в целом обусловливают усиленное внимание к вопросу повышения уровня организации общественно-научных исследований. «Такие исследования ведутся на основе все более широкого методологического и методического инструментария,

21


Комплексного подхода с позиций разных наук, так как ясно, что средствами одной лишь статистической теории информации невозможно охватить все многообразие информационных проблем в социальной среде» [10, с. 9].

Практика информационной деятельности в области естественных наук и техники показывает рациональность организации подобного рода деятельности и в области наук общественных.

Все более настоятельной становится необходимость функционального разделения общественно-научной исследовательской деятельности с выделением в самостоятельный вид научной работы информационной деятельности. Дифференцированное обслуживание исследователя предусматривает информационный сервис, а это требует предварительного анализа, качественной переработки информационных материалов – составляющих информационного потока. Информационный поток – это упорядоченное множество ин-формационных документов, циркулирующих в информационной системе. Процесс формирования потока является не просто процессом накопления. Ему обязательно предшествует отбор наиболее информативных источников, преследующий цели упорядочения потока, обслуживающего информационную систему на входе.

Специфика общественных наук и образующих их понятий, обусловливающая характер общественно-научной информации, определяет особенности формирования потоков в области этих наук. Причем процесс формирования информационных потоков в большой степени зависит от степени формализации общественно-научной информации.

Информация условно может иметь два состояния: статическое и динамическое. Фиксация информации приводит ее в статическое состояние по отношению к некоторому материальному носителю, массиву, то есть к окружающей среде. Фиксация информации преследует две цели – сохранение ее на определенное время (память человечества) и последующую передачу ее какому-то кругу потребителей информации. Информационное взаимодействие людей путем передачи информации является конкретным выражением динамического состояния информации. Поэтому статическое и динамическое состояния информации являются не взаимоисключающими, а взаимодополняющими понятиями. Динамика информации характерна для всех видов, но содержание информации, средства, формы и методы передачи существенно отличаются друг от друга. Можно выделить две характерные группы: передачу информации без изменения ее содержания и с изменением. Вторая группа представляет сложный интеллектуальный процесс переработки информации.

Первостепенное значение имеет передача информации в пространстве. На этом пути возможна многократная трансформация информации, особенно с использованием технических средств связи. Главным критерием трансформации является надежность (отсутствие потери). Перевод (традиционными методами и машинный) является особым видом трансформации информации. Потеря информации при этом является нежелательным, но практически (хотя и в незначительных размерах) часто встречающимся случаем.

Для научной информации немаловажным является описание эвристических особенностей познавательных форм эмпирического и теоретического знания факта, системы фактов, гипотезы как совокупности вероятного значения, теории как множества достоверных знаний. При этом в отличие от логики науки эти формы рассматриваются в плане возрастания их эвристичности по мере исторического становления науки. Структура научного знания изучается как система, содержащая в себе аккумулятивный опыт познания действительности. Это придает структурным элементам науки эвристические особенности в получении принципиально новой информации. Само научное знание, развива-22


Ясь, порождает проблемы и служит средством их разрешения. В этом смысле научная теория – всегда метод, путь, способ получения новой информации. Важную роль в формировании информации имеет современный эксперимент. Информационно-логический анализ позволяет изучать термины, различные виды высказываний из терминов, уровни индексирования.

Наряду со структурой научной информации рассматриваются также методы формирования этой структуры. Некоторые структурные образования информации настолько тесно связаны со способами образования, что их природу нельзя понять, не рассмотрев одновременно и те методы, с помощью которых они созданы. Как эмпирическое знание преобразуется в теоретическое? Сводима ли информация, содержащаяся в теории, к той информации, которая добыта в эксперименте и послужила основанием для построения теории? Какова роль общенаучных методов моделирования, интерполяции, экстраполяции, абстрагирования, индукции, дедукции и других в образовании новой информации? Вот те вопросы, ответы на которые способствуют прояснению ситуации в этом направлении исследования.

Информационный анализ этих методов заключается в выяснении их эвристических возможностей в процессе научного открытия, в изучении этих способов преобразования информации с целью определения границ их применения в научном познании. Информационный анализ научного исследования в математике, физике, экономической науке, истории изучает специфические особенности использования этих общенаучных методов в отдельных отраслях науки с целью получения информации, обладающей новизной. При этом используются понятия и логики науки, и того раздела кибернетики, который определяется как эвристика и, естественно, анализируются также категории и принципы эмпирических наук, их роль и значение в создании новых информационных сведений.

Любая информация выражается в языковых образованиях. Уста-новленные в эксперименте закономерности фиксируются предложениями. Теория – это совокупность высказываний, определенным образом взаимосвязанных. Научное исследование – это процесс преобразования информации, закрепленной в языке. Автоматическое индексирование и вообще информационный поиск невозможны без анализа терминологических связей в современном научном знании, без создания специальных информационных языков на базе соответствующей обработки естественного языка.

Каковы общие принципы построения информационных языков? Есть ли закономерности в научном поиске или это – чисто интуитивный процесс постижения истины? Эти вопросы требуют решения. Они поставлены развитием науки. Логика науки способствовала возникновению и бурному развитию самостоятельной отрасли знания – логической семантики.

Любое информационное сообщение состоит из знаков алфавита. В информационно-логическом анализе языка науки важное значение имеют разработанные современной формальной логикой методы построения исчислений, а также гносеологические, философские приемы исследования [22]. Информация имеет смысл, если она является знанием о действительности. В процессе открытия важно точно установить, отражает добытая информация что-либо реальное или она – плод человеческого воображения. Проблема проверки знаний, их под-тверждаемости – одна из наиболее сложных в науке. Информация всегда релятивна. Абсолютное в ней – это только тенденция, становящаяся закономерностью на бесконечной сумме информационных сведений. Научная теория, как правило, строится в форме последовательности знаков, допускающих различную интерпретацию.

23


Проблема сведения, то есть замены теоретических терминов некоторой упорядоченной совокупностью эмпирических терминов (или указанием способа построения теоретических терминов), неразрешима чисто логическими средствами. Поскольку нет критериев простоты или сложности теоретических понятий, то нет и единой их последовательности, ведущей к научному результату. Одно и то же открытие может совершаться различными сочетаниями терминов и используемых методов. Поэтому логическая «препарация» теоретического знания должна быть дополнена анализом существа информации, то есть тех практических путей употребления терминов, которые приняты в данной науке. В каждой научной отрасли проблема сведения решается практически.

Задача информационного анализа – изыскание путей управления научно-исследовательским процессом. Информационный анализ научного исследования охватывает две стороны творческого процесса: совокупность элементов творчества, приемы и методы, с помощью которых достигается определенный познавательный результат и их взаимодействие. Эту же мысль можно выразить определеннее, если употребить термин «функция» для обозначения процесса преобразования информации в ходе проведения научного исследования и понятие «набор элементов исследования» для вычленения в научном исследовании как системы материальных и нематериальных средств его реализации экспериментальной техники, методов, приемов, умений, каких-то операций. Определенный набор элементов исследования сопряжен с определенными правилами их функционирования. Поэтому, зная набор элементов, можно отыскать правила их функционирования, те методы и приемы, которыми научная информация в пределах системы исследования преобразуется в исследовательские результаты. Справедливо и обратное утверждение: зная функциональные особенности данного научного исследования, можно описать те элементы, из которых оно состоит.

Научное исследование исходит из теории научной информации как методики, науки об информационной деятельности – теории выявления закономерностей возникновения научной информации, основу которой составляет понятие информации в различных своих аспектах.

Библиографический список

1. Автоматизация производства и промышленная электроника / ред.: А. И. Берг, В. А. Трапезников. – М. : Советская энциклопедия, 1965. – Т. 4. Телекомандование – Ячейки стандартные. – 544 с.

2. Амосов Н. М. Мышление и информация // Проблемы мышления в современной науке. – М. : Мысль, 1964. – 420 с.

3. Бир Ст. Кибернетика и управление производством. – М. : Физматгиз, 1963. – 275 с.

4. Блох И. И. Основные понятия теории информации. – Л. : Изд-во общества по распространению политических и научных знаний РСФСР. Ленинградское отделение, 1959. – 28 с.

5. Бриллюэн Л. Наука и теория информации. – М. : Физматгиз, 1960. – 392 с.

6. Винер Н. Кибернетика и общество. – М. : Изд-во иностранной литературы, 1959. – 432 с.

7. Винер Н. Кибернетика, или Управление и связь в животном и машине. – М. : Советское радио, 1958. – 215 с.

8. Георгиев Ф. И., Хрустов Г. Ф. О предпосылках и особенностях сознания // Вопросы философии. – 1965. – № 10. – С. 14–21.

9. Глушков В. М. Мышление и кибернетика // Вопросы философии. – 1963. – № 1. – С. 10–24.

10. Гончаров В. Н. Исследование информационных процессов в контексте определения ценности информации // Социосфера. – 2011. – № 3. – С. 9–14.

11. Гущин Д. А. К вопросу о природе информации // Вопросы философии. – 1965. – № 1. – С. 84–93.

12. Жуков Н. И. Информация. Философский анализ. – Минск : Наука и техника, 1966. – 164 с.

13. Иванов С. Г. Некоторые философские вопросы кибернетики. – Л. : Общество по распространению политических и научных знаний РСФСР. Ленинградское отделение, 1963. – 56 с.

14. Колмогоров А. Н. Проблемы теории вероятностей и математической статистики // Вестник АН СССР. – 1965. – № 5. – С. 35–36.

24


15. Колмогоров А. Н. Три подхода к определению понятия «количество информации» // Проблемы передачи информации. – 1965. – Т. 1. – № 1. – С. 3–11.

16. Колосова О. Ю. Социальная синергетика в управлении социальными системами // Исторические, философские, политические и юридические науки, культурология и искусствоведение. Вопросы теории и практики. – 2011. – № 1. – С. 118–120.

17. Копнин П. В. Введение в марксистскую гносеологию. – Киев : Наукова думка, 1966. – 288 с.

18. Косолапов В. В. Информационно-логический анализ научного исследования. – Киев : Изд-во УкрНИИНТИ, 1968. – 352 с.

19. Медведьев Н. В. Теория отражения и ее естественнонаучное обоснование. – М. : Соцэкгиз, 1963. – 286 с.

20. Нейман Дж. Общая и логическая теория автоматов / пер. с англ. – М. : Физматгиз, 1960. – 110 с.

21. Новик И. Б. Кибернетика. Философские и социологические проблемы. – М. : Госполитиздат, 1963. – 207 с.

22. Попович М. В. О философском анализе языка науки. – Киев : Наукова думка, 1966. – 224 с.

23. Ровенский 3. И., Уемов А. И., Уемова Е. А. Машина и мысль. – М. : Госполитиздат, 1960. – 143 с.

24. Синай Я. О понятии энтропии динамической системы // Доклады АН СССР. – 1959. – Т. 124. – С. 768–771.

25. Соболев С. Л., Китов А. И., Ляпунов А. А. Основные черты кибернетики // Вопросы философии. – 1955. – № 4. – С. 136.

26. Тарасенко Ф. П. К определению понятия «информация» в кибернетике // Вопросы философии. – 1963. – № 4. – С. 64–68.

27. Урсул А. Д. Информационный критерий развития в природе // Философские науки. – 1966. – № 2. – С. 43–51.

28. Урсул А. Д. О природе информации // Вопросы философии. – 1965. – № 3. – С. 134.

29. Xинчин А. Я. Об основных теоремах теории информации // Успехи математических наук. – 1956. – Т. XI. – Вып. 1. – С. 17–75.

30. Шеннон К. Работы по теории информации и кибернетике. – М. : Изд-во иностранной литературы, 1963. – 830 с.

31. Шеннон К. Статистическая теория передачи электрических сигналов // Теория передачи электрических сигналов при наличии помех : сб. ст. / под ред. А. Н. Железнова. – М. : ИЛ, 1953. – 288 с.

32. Шмальгаузен И. И. Естественный отбор и информация // Известия АН СССР (серия биологическая). – 1960. – № 1. – С. 19–38.

33. Эшби У. P. Введение в кибернетику. – М. : Изд-во иностранной литературы, 1959. – 432 с.

34. Вlom А. V. Raum Leit und die Elektron Perspektiven der Kybernetik. – Miinchen, 1959.

35. Ingаrdеn R. S., Urbaniк К. Information without probability // Colloquium mathematicum. – 1962. – № 1. – Р. 9.

36. Quntheг G. Das Bewubtsein der Maschine Eine Metaphysik der Kybernetik. – Krefeld, 1957.

37. Wasmuth E. Der Mensch und Denkmaschin. – Koln, 1956.

© Гончаров В. Н.

25