Учебное пособие и з д а т е л ь с к о •у. М о с к в а т о р г о в ы й дом г од I r f I p U
Download 1.12 Mb. Pdf ko'rish
|
Organizatsiya informatsionnogo proizvodstva text
- Bu sahifa navigatsiya:
- Системы мер измерения движения информации и ее потоков.
ОСНОВНЫЕ ТЕХНОЛОГИИ
ИНФОРМАЦИОННОГО ПРОИЗВОДСТВА 1. ЗАКОНОМЕРНОСТИ ДВИЖЕНИЯ ИНФОРМАЦИИ И ИХ ВЛИЯНИЕ НА ТЕХНОЛОГИЮ ИНФОРМАЦИОННОГО ПРОИЗВОДСТВА ПЛАН 1 . С и с т е м ы м е р и з м е р е н и я д в и ж е н и я и н ф о р м а ц и и . 2 . В е р б а л ь н а я ф о р м а п р е д с т а в л е н и я и н ф о р м а ц и и . 3 . Е д и н и ц ы и н ф о р м а ц и и , п р и н я т ы е в б и б л и о т е ч н о м п р о и з в о д с т в е . 4 . К о л и ч е с т в е н н ы е и к а ч е с т в е н н ы е с в о й с т в а и н ф о р м а ц и и . 5 . С т а т и ч е с к и е з а к о н ы д в и ж е н и я и н ф о р м а ц и и . 6 . Д и н а м и ч е с к и е з а к о н ы д в и ж е н и я и н ф о р м а ц и и . Системы мер измерения движения информации и ее потоков. Изу чение закономерностей движения информации в обществе и развития общественного информационного производства необходимо начать с определения системы мер, характеризующих эти процессы количест венно. Единого согласованного определения понятия «информация» в на стоящее время не существует. До сих пор с различных позиций харак теризуются сущность (субстанция) информации, ее структурные эле менты, свойства и признаки, формы проявления (выражения) и ор ганизации, ее роль в производстве и управлении, в жизни и развитии общества. Мы рассматриваем особый вид информации, объекты и субъекты которой — человек и техника. Человек или любая человеко-машинная система имеет дело не вообще с информацией того или иного вида, а с конкретными материальными формами ее проявления, которые часто называют структурными единицами (элементами) информации. Конечная, элементарная единица информации — сигнал опреде ленной природы, процесс или явление, позволяющие автомату или че ловеку воспринимать информацию, заключенную в сообщениях. В тех нических системах используются сигналы самой различной физичес кой природы (электрические, пневматические, гидравлические и др.). В сигнальных системах типа «человек — человек» конечным сигналом служит слово. В смешанных, так называемых человеко-машинных сис- 53 темах слово, понятное человеку, преобразуется в сигналы, понятные ма шине, и наоборот. Промежуточным структурным элементом информа ции в этих преобразованиях служит знак (буквенный, цифровой или другой). Знак не дает достаточной информации об обозначаемом пред мете, не является субъективным образом этого предмета. Только сис тема знаков способна составить этот образ. Поскольку информация о предмете практически бесконечна, то образ отражает л и ш ь часть дан ной информации. Знак, следовательно, несет не всю информацию о предмете, а его «информационный инвариант», то есть часть информа ции, общую и для предмета, и для образа. Таким образом, схема трансформации информации при ее «движе нии» от объекта к субъекту будет следующей: предмет — образ — сло во — знак — сигнал. Характерно, что при таком движении происходит редукция информации. Кроме информации о предмете и его образе, знак содержит и субъективную информацию, характеризующую отно шение человека к предмету и образу. Со знаком как со структурной единицей и формой выражения ин формации тесно связано понятие кода. В социально-технических сис темах код представляет собой значение знака или слова естественно го языка, выраженное в символах какого-либо искусственного языка. Символы выбираются и строятся с таким расчетом, чтобы их можно было легко преобразовывать в сигналы, воспринимаемые и автоматом, и человеком. Знаки и знаковые системы, коды и кодовые системы, как формы выражения информации, обладают относительной независи мостью от содержания информации, хранимой, передаваемой и обра батываемой при их посредстве. Одна и та же информация может быть выражена при помощи различных знаков и кодов. Это очень важное положение теории информации. В соответствии с этим положением вся информационная техника развивается в направлении поисков и созда ния искусственных систем сигнализации, знаковых и кодовых систем, обеспечивающих более эффективное представление, а также передачу, хранение и обработку информации. Важная структурная единица информации — язык. Выделяют два больших класса языков: естественные и искусственные. Искусственные информационные языки делятся на следующие виды: классификаци онные, дескрипторные, алгоритмические, машинные. Более крупная единица информации — информационные модели, представляющие собой систему знаков, символов, слов, предложений искусственного или естественного языка, имитирующих объект (пред мет, явление, процесс) в целом или его отдельные части, те или иные стороны (аспекты) его функционирования. Известны четыре основных класса (группы) информационных моделей: абстрактные (знаковые и графические), наглядные (изображения), предметные (макеты) и ком бинированные. Важным понятием является поток информации — направленное движение информации от источника к получателю. Направление пото- 54 ка задается, как правило, адресами источника и получателя информа ции. Содержание потока — перечень структурных единиц информации. Объем потока определяется количеством структурных единиц, обычно с указанием их максимальной длины. Режим потока определяется пе риодом времени между сообщениями. С понятием потока информации тесно связано понятие «комму никация» — путь информации. В настоящее время этот термин приоб рел более широкий смысл и употребляется, помимо указанного, еще и в других значениях. Коммуникацией называют способность и сам факт общения между людьми (массовая коммуникация), а также сигнальный способ связи у животных. В исследованиях вопросов массовой комму никации отмечается, что в настоящее время происходит процесс заме ны движения человека к информации на обратное движение — инфор мации к человеку. Эта тенденции обусловлена необходимостью про ведения особой политики в развитии средств обработки и доставки информации человеку. С понятием «коммуникация» тесно связано понятие «связь». Вообще «связь», как и «информация», общенаучное понятие. В фило софском осмыслении связь — это взаимообусловленность существова ния явлений, разделенных в пространстве и времени. В Советском эн циклопедическом словаре (СЭС) понятие «связь» трактуется как: — форма движения материи: механическая, физическая (тепловая, электромагнитная, гравитационная, атомная, ядерная), химическая, биологическая, общественная; — форма детерминизма (определенности): однозначная, вероят ностная, корреляционная; — сила: жесткая, корпускулярная, сильная, слабая (связь); — характер результата: связи порождения, связи преобразования; — направление действия: прямая, обратная (связь); — тип процесса, который данная связь определяет: функциониро вание, развитие, управление; — содержание, которое является предметом связи: перенос вещест ва, энергии, информации. Мы рассматриваем понятие «связь» в контексте интересующих нас видов информации, то есть мы говорим о связи между людьми, челове ком и автоматом, автоматом и автоматом. Таким образом, дополнитель но к перечисленным видам связи добавляется связь как характер субъ екта и объекта, передатчика и приемника (реципиента) информации. Из приведенной классификации видов связи следует, что информа ция является содержанием, предметом связи. В вероятностно-статисти ческой теории связи (именно эта теория положила начало теории ин формации) информация определяется как противоположность неопре деленности, как уменьшаемая неопределенность (энтропия). Исходя из этого, количество информации — это степень уменьшен ной (снятой) неопределенности в результате передачи сообщений. В случае когда событие может иметь два равновероятных значения, один 55 из возможных двоичных ответов на двоичный вопрос «да» или «нет» представляет собой минимальное количество информации. Этот от вет передается по каналам связи в виде физического сигнала, имеюще го одно из двух равновесных значений — «О» или «1» (есть импульс или нет). Такому двоичному ответу на один из двоичных вопросов, переда ваемому по каналам связи с помощью физического сигнала, и соответс твует минимальное количество информации, которое Клод Э. Ш е н н о н назвал «бит» (binary digit — двоичная цифра). Содержащееся в сообще н и и полное количество информации в битах определяется с учетом ко личества слов естественного языка (в случае социальной и н ф о р м а ц и и ) , количества знаков в каждом слове и количества двоичных символов (О или 1), необходимых для выражения каждого знака. Двоичная фор ма кодирования информации, сейчас основная в дискретных системах типа «автомат — автомат», служит арифметической основой проектиро вания и функционирования дискретных средств вычислительной тех ники. В работах Хартли и Ш е н н о н а информация возникает перед нами л и ш ь в своей внешней оболочке, которая представлена отношениями сигналов, знаков, сообщений друг к другу — синтаксическими отноше ниями. Количественная мера Хартли—Шеннона не претендует на оцен ку содержательной (семантической) или ценностной, полезной (праг матической) сторон передаваемого сообщения. Для раскрытия общих закономерностей движения информации в обществе необходимы более грубые и более предметные изменения ин формации и ее потоков. Нейропсихологи утверждают, что кратковре менная память человека в состоянии удерживать около семи различных объектов, обдумываемых им одновременно. При этом сложность и при рода объектов может быть различной. Причем в шенноновских битах (двоичных единицах) эти объекты, как правило, измерить не удается. Общаясь друг с другом, люди работают в режиме «вопрос—ответ», причем в битах можно измерить только длину передаваемых сообще ний. С позиций движения информации больший интерес представ ляет число вопросов и ответов, произведенных в процессе общения. Сложность вопросов и ответов только косвенно можно измерить бита ми. В зависимости от субъектов и темы общения сложность может из меряться в более крупных, чем бит или символ (буква, байт и пр.), еди ницах. В сложных информационных производствах одновременно обща ются друг с другом много пар: «человек—человек», «человек—машина», «машина—машина». В процессе общения вырабатываются и на какое- то время фиксируются некоторые порции информации. Сопоставить различные информационные производства можно только при относи тельно близких единицах измерения этих порций, или единицах ин формации. В каждом информационном производстве информация перемеща ется в процессе ее использования или создания от одной технологи- 56 ческой позиции к другой порциями, имеющими некоторое закончен ное содержание в виде формальных записей на бумажных, магнитных, электронных, акустических и других носителях, воспринимаемых полу чающей стороной, в том числе памятью людей. Мы будем различать следующие порции (единицы) информации, принятые во многих информационных производствах: символ, поле, запись, документ, текст, файл или другие массивы информации. Символ является одним из знаков принятого в производстве языка общения. Несколько символов составляют поле, имеющее в языке об щ е н и я смысл некоторого указателя — слова или числа. Несколько полей составляют запись, в которой содержится инфор мация об одном или нескольких взаимосвязанных событиях и/или фак тах, используемых или получаемых в процессе информационного про изводства. Документ содержит несколько записей. Из документов и записей формируются массивы информации крат косрочного или долговременного хранения. Наличие таких массивов предполагает использование в информационном производстве техно логических позиций, обеспечивающих формирование и хранение мас сивов, поиск в массиве требуемых документов и/или записей и озна комление с ними заинтересованных л и ц — смежников по технологи ческой цепочке производства. Поиск задается некоторой записью или документом, называемыми запросами. Download 1.12 Mb. Do'stlaringiz bilan baham: |
Ma'lumotlar bazasi mualliflik huquqi bilan himoyalangan ©fayllar.org 2024
ma'muriyatiga murojaat qiling
ma'muriyatiga murojaat qiling