Hi! My name is Damir. I’m co-founder at IFAB.ru and i’m pretty good at these scary things

  • Startups
  • E-Commerce
  • Process development
  • Process implementation
  • Project management
  • Financial modeling
  • Business strategy

You can reach me out via these networks

Are you hiring? Check out my CV

My CV page

Лекции информатика

Часть 1. Общее теоретические основы информатики
Глава 1. Предмет, основные понятия и задачи информатики
1.1 Основные понятия.

Информатика – это техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.

Из этого определения видно, что информатика очень близка к технологии, поэтому в тем, что она изучает нередко называют информационными технологиями.

Предмет информатики составляют следующие понятия:
аппаратное обеспечение средств вычислительной техники;
программное обеспечение средств вычислительной техники;
средства взаимодействия аппаратного и программного обеспечения;
средства взаимодействия человека с аппаратными и программными средствами.

Как видно из этого списка, в информатике особое внимание уделяется вопросам взаимодействия. Для этого даже есть специальное понятие – интерфейс. Методы и средства взаимодействия человека с аппаратными и программными средствами называют пользовательским интерфейсом. Соответственно, существуют аппаратные интерфейсы, программные интерфейсы и аппаратно-программные интерфейсы. Основной задачей информатики является систематизация приемов и методов работы с аппаратными и программными средствами вычислительной техники. Цель систематизации состоит в выделении, внедрении и развитии передовых, наиболее эффективных технологий, в автоматизации этапов работы с данными, а также в методическом обеспечении новых исследований.

Информатика – практическая наука. Ее достижения должны проходить подтверждение практикой и приниматься в тех случаях, когда они соответствуют критерию повышения эффективности. В составе основной задачи информатики сегодня можно выделить следующие направления для практических приложений:
архитектура вычислительных систем (приемы и методы построения систем, предназначенных для автоматической обработки данных);
интерфейсы вычислительных систем (приемы и методы управления аппаратным и программным обеспечением);
программирование (приемы, методы и средства разработки компьютерных программ);
преобразование данных (приемы и методы преобразования структур данных);
защита информации (обобщение приемов, разработка методов и средств защиты данных);
автоматизация (функционирование программно-аппаратных средств без участия человека);
стандартизация (обеспечение совместимости между аппаратными и программными средствами, а также между форматами представления данных, относящихся к различным типам вычислительных систем).

На всех этапах технического обеспечения информационных процессов для информатики ключевым понятием является эффективность. Для аппаратных средств под эффективностью понимают отношение производительности оборудования к его стоимости (с учетом стоимости эксплуатации и обслуживания). Для программного обеспечения под эффективностью понимают производительность лиц, работающих с ним (пользователей). В программировании под эффективностью понимают объем программного кода, создаваемого программистами в единицу времени. В информатике все жестко ориентировано на эффективность. Вопрос, как сделать ту или иную операцию, для информатики является важным, но не основным. Основным же является вопрос, как сделать данную операцию эффективно.
Вернуться
1.2 Истоки и предпосылки информатики

Слово информатика происходит от французского слова Informatique, образованного в результате объединения терминов Information (информация) и Automatique (автоматика), что выражает ее суть как науки об автоматической обработке информации. Кроме Франции, термин информатика используется в ряде стран Восточной Европы. В то же время, в большинстве стран Западной Европы и США используется другой термин – Computer Science (наука о средствах вычислительной техники).

В качестве источников информатики обычно называют две науки: документалистику и кибернетику. Документалистика сформировалась в конце XIX века в связи с бурным развитием производственных отношений. Ее расцвет пришелся на 20-30-е годы XX в., а основным предметом стало изучение рациональных средств и методов повышения эффективности документооборота.

Основы близкой к информатике технической науки кибернетики были заложены трудами по математической логике американского математика Норберта Винера, опубликованными в 1948 г., а само название происходит от греческого слова (kyberneticos – искусный в управлений).

Впервые термин кибернетика ввел французский физик Андре Мари Ампер в первой половине XIX в. Он занимался разработкой единой системы классификации всех наук и обозначил этим термином гипотетическую науку об управлении, которой в то время не существовало, но которая, по его мнению, должна была существовать.

Сегодня предметом кибернетики являются принципы построения и функционирования систем автоматического управления, а основными задачами – методы моделирования процессов принятия решений, связь между психологией человека и математической логикой, связь между информационным процессом отдельного индивидуума и информационными процессами в обществе, разработка принципов и методов искусственного интеллекта. На практике кибернетика во многих случаях опирается на те же программные и аппаратные средства вычислительной техники, что и информатика, а информатика, в свою очередь, заимствует у кибернетики математическую и логическую базу для развития этих средств.
Вернуться
1.3. Человек и информация в материальном мире. Объекты и явления материального мира. Энергетический обмен.

Мы живем в материальном мире. Все объекты, которые нас окружают, являются материальными. Материя существует в двух формах: в виде материальных тел и в виде энергетических полей. Вещество и энергия – это два фундаментальных понятия, изучением которых занимаются естественные науки. Носителями вещества являются материальные тела, а носителями энергии – энергетические поля.

Поля и тела непрерывно взаимодействуют друг с другом. Материя существует только в состоянии непрерывного движения. Под движением понимается как перемещение тел, так и непрерывное изменение их состояния в результате энергетического обмена между частицами. Этот обмен сопровождается непрерывным изменением свойств, как самих тел, так и окружающих их полей.

Кроме объектов материального мира мы наблюдаем также и процессы их взаимодействия. Эти процессы мы воспринимаем как явления природы. В основе любого природного явления, будь то горение веществ, испарение жидкостей, смена дня и ночи, извержения вулканов и землетрясения, лежит взаимодействие материальных тел и энергетических полей.

Жизнь – это тоже явление природы, хотя до сих пор и малоизученное. Одной из характерных особенностей организмов живой природы является происходящий в них непрерывный обмен веществ. Этот обмен тоже имеет энергетическую природу и происходит на уровне клеток и их структурных элементов. При прекращении обмена веществ прекращаются и жизненные процессы.

Человек, с одной стороны, это обычный материальный объект, и потому ему свойственно непрерывное энергетическое взаимодействие с другими объектами материального мира. В то же время он является организмом живой природы и в этом качестве обладает непрерывным внутренним обменом веществ. Эти два процесса могут взаимодействовать между собой. Результат такого взаимодействия мы воспринимаем как информационный обмен между живой и неживой природой.

Рассмотрим пример, известный из курса биологии. Если через органы чувств животное воспринимает окружающую среду как угрожающую, это приводит к изменению обмена веществ. В частности, в кровь выделяются специальные вещества, повышающие частоту дыхания, усиливающие сердцебиение и приводящие органы опорно-двигательной системы в состояние готовности к отражению угрозы. Иные по содержанию, но похожие по механизму процессы происходят в среде, которая воспринимается как успокаивающая. Все это результат информационного обмена, инициированного внешней средой.

Но информационный обмен не обязательно инициируется только внешней средой. Человеку достаточно лишь представить опасность (или иное состояние), чтобы в его организме начались физиологические реакции, связанные с изменением процесса обмена веществ. Здесь проявляется реакция на ранее зарегистрированные результаты предшествующего взаимодействия. На этом основаны механизмы вспоминания, воображения, логического мышления и другие. С их проявлениями мы сталкиваемся, например, в процессе творчества. То есть, в основе логического мышления и творчества тоже лежит информационный обмен.

Информационный обмен может не иметь материальную природу, но он с ней неразрывно связан. Он является промежуточным звеном между энергетическим обменом, свойственным материальным объектам, и обменом веществ, свойственным живым организмам. Информационный обмен развивается в виде информационных процессов. Если проследить информационный процесс от начала до конца, то на отдельных его этапах можно и не увидеть объектов живой природы, но в его начале или конце объект живой природы присутствует обязательно. Забегая вперед, укажем, что свойство отдельных этапов информационного процесса обходиться без объектов живой природы ныне широко используется в информационных технологиях. Оно лежит в основе функционирования автоматических систем обработки информации.

Любое взаимодействие материальных объектов имеет энергетическую природу. Космические тела взаимодействуют друг с другом через гравитационные поля. Взаимодействие заряженных частиц осуществляется через электрическое поле. Даже механическое взаимодействие твердых тел можно рассматривать как взаимодействие их кристаллических или молекулярных структур, в основе которого лежат электромагнитные взаимодействия между частицами, составляющими тела.

С точки зрения физики, любые изменения, происходящие во внутренней структуре вещества или в, энергетических полях, сопровождаются образованием сигналов. Сигналы обладают способностью распространяться во времени и пространстве. Они затухают в результате взаимодействия с веществом.

Сигналы окружают нас на каждом шагу. Солнечный свет – это сигналы, образовавшиеся в результате термоядерных реакций, происходящих в веществе Солнца. Радиосигналы – результат электромагнитных процессов, происходящих в материале излучающей антенны передатчика. Сигналы, регистрируемые сейсмографом, – результаты сложнейших геофизических процессов, происходящих в веществе земной коры и в более глубоких областях планеты.

Как и все объекты материальной природы, сигналы не возникают из ничего и не исчезают бесследно. Их распространение в пространстве всегда завершается взаимодействием с веществом физических тел. Такое взаимодействие в информатике рассматривается как регистрация сигналов.

Сигналы разной физической природы взаимодействуют с веществом по-разному. Например, мы знаем, что свет может оказывать давление на вещество и может выбивать электроны вещества. Световые сигналы могут вызывать долговременные химические изменения в составе вещества – в растительных организмах на этом основана явление фотосинтеза, а в технике – фотографические процессы.

Изменения магнитного поля могут быть зарегистрированы на ферромагнитном покрытии. На этом явлении основана магнитофонная звукозапись и видеозапись на магнитной пленке. Сигналы регистрируются и при механическом взаимодействии двух тел. Эта регистрация может происходить как деформация тел, как продолжительные упругие колебания и даже в виде образования поверхностного электрического заряда.

В информатике подход к сигналам не совсем такой, как в других естественных науках. Так, например, для физики природа энергетических сигналов чрезвычайно важна, поскольку они по-разному распространяются и затухают. Для биологии важны свойства электромагнитных волн, поскольку одни волны вызывают фотосинтез растений, а другие – нет. Информатика не изучает природу сигналов – ее интересует факт их регистрации. Результат регистрации сигналов информатика рассматривает как данные. Если сигнал зарегистрирован четко и легко различим на фоне регистрации побочных сигналов, то он может стать источником для получения информации о событиях, которые имели место, или источником информации о предполагаемых событиях (при прогнозировании).

Таким образом, в информатике данные – это зарегистрированные сигналы.

Поскольку все сигналы имеют энергетическую, то есть материальную природу, то и данные – тоже объекты материальной природы. Данные всегда объективны. Их можно посмотреть, потрогать, услышать. Что именно можно сделать с конкретными данными, зависит от их физической природы, но в любом случае данные можно каким-то образом воспроизвести. Это вытекает из определения данных как зарегистрированных сигналов. Если у нас есть средства зафиксировать факт регистрации сигнала, значит, у нас непременно есть и средства для воспроизведения данных, образовавшихся в момент такой регистрации.

Следы, которые преступник оставляет на месте преступления, – это результат его взаимодействия с окружающими телами. Для криминалистов это данные, несущие информацию о произошедших событиях. Если эти данные нельзя увидеть невооруженным глазом, то их можно разглядеть в микроскоп или подвергнуть спектральному анализу. В данном случае микроскоп или спектрограф предоставляют метод доступа к данным.

Для обычного человека текст, который он видит в документе, – это данные. Но для эксперта-криминалиста данными может быть текст, которого в документе нет (удален в результате подчистки). Разумеется, обычный наблюдатель и эксперт-криминалист получат в этом случае разную информацию из одного и того же документа. Это различие связано с тем, что они пользуются разными методами доступа к данным.

Для того чтобы данные стали информацией, обычно требуется не один, а множество взаимосвязанных методов. Вот пример для обычного текста, напечатанного темными буквами на светлом фоне.
Чтобы рассмотреть текст, наблюдатель должен обладать методом зрения, а не все люди им обладают. Зрение – это естественный метод, присущий большинству людей.
Необходимо достаточное освещение, то есть, нужен метод для его обеспечения. Освещение – это физический метод, основанный на использовании естественного или искусственного света.
Необходимо знать азбуку (систему кодирования звуков) того языка, на котором написан текст.
Надо знать язык, на котором написан текст.
Надо понимать термины и понятия, использованные в сообщении.

Последние три метода – логические. Они связаны с мышлением человека и не доступны от рождения, а приобретаются в результате обучения. Кстати, обратим внимание на то, что если бы текст был напечатан черными буквами на черном фоне, то количество методов в цепочке стало бы больше. К естественным и логическим методам потребовалось бы добавить технические, например исследование текста в ультрафиолетовых лучах.

Мы постепенно приближаемся к определению информации, на оно не столь очевидно, как хотелось бы. Для определения информации нам очень важно понять, что информация образуется из данных, но ее содержательная часть зависит не только от того, какие сигналы были зарегистрированы при образовании данных, но и оттого, каким методом данные воспроизводятся.
Вернуться
1.4. Естественные методы воспроизведения и обработки данных

Естественные методы воспроизведения данных присущи человеку и другим организмам живой природы. Если мы говорим о человеке, то прежде всего к естественным методам относим все методы, основанные на его органах чувств (зрение, осязание, обоняние, слух и вкус).

Благодаря зрению человек получает отпечаток окружающей среды на сетчатке глаза. Сигналы, свидетельствующие об интенсивности, а также о спектральном составе света, отраженного от наблюдаемого объекта, регистрируются нервными окончаниями сетчатки (палочками и колбочками), в результате чего образуются данные, которые впоследствии анализируются головным мозгом. Результатом этого анализа является наблюдаемый образ, то есть информация.

Вам, конечно, знакома разница между внимательным и невнимательным наблюдением. И в том и в другом случае на сетчатке глаза образуются совершенно одинаковые данные, но информацию мы получаем разную. Это связано с тем, что при внимательном наблюдении мозг применяет более сложные методы обработки данных.

Хороший пример того, как из одних и тех же данных образуется разная информация, представляют собой стереограммы. Их следует рассматривать так, чтобы левый и правый глаз фокусировались в разных точках рисунка. В этом случае мозг обрабатывает данные иным методом, и вместо регулярного узора мы можем наблюдать скрытое объемное изображение.

Кроме методов, основанных на органах чувств, человек обладает и другими методами ,обработки данных. К ним относится, например, логическое мышление. Оно позволяет работать с данными, не имеющими объективных аналогов в материальном мире. В окружающей природе мы никогда не встретим идеально прямую линию бесконечной длины и нулевой толщины. Однако в геометрии это не мешает нам основывать свои логические умозаключения на свойствах идеальных объектов и постепенно, переходя от теоремы к теореме, делать выводы и получать информацию, имеющую непосредственное отношение к объектам материальной природы.

Например, результатом этих “идеальных” методов является способность определять размеры вполне материальных тел, рассчитывать их объемы и вычислять площади фигур.

К прочим естественным методам, присущим человеку и основанным на особенностях его мышления, можно отнести воображение, сравнение, сопоставление, анализ, прогнозирование и другие.

Многие естественные методы обработки данных присущи и другим живым организмам. Естественными методами воспроизведения данных обладают даже клетки организмов, у которых нет ни органов чувств, ни способности к мышлению. В качестве примера можно привести метод генетического наследования. Данные, сохраняющиеся в структуре ДНК в виде набора нуклеотидов, становятся генетической информацией нового организма в процессе деления клетки.
Вернуться
1.5. Аппаратные методы воспроизведения и обработки данных

До последнего времени методы обработки данных можно было разделить на естественные и технические. Однако в связи с бурным развитием вычислительной техники в последние годы в классе технических методов четко выделились два направления: аппаратные и программные методы, способные во многих случаях подменять или дополнять друг друга.

Аппаратные методы взаимодействия с данными используют в тех случаях, когда физическая природа данных не позволяет применять для их воспроизведения и обработки естественные методы, основанные на органах чувств. Простейший пример – радиосигналы и другие сигналы электромагнитной природы. Человек не имеет органов чувств для их регистрации и потому вынужден использовать аппаратные методы. С примерами таких методов вы знакомы – они представлены приборами, например телеприемниками и радиоприемниками.

Аппаратные методы – это всегда устройства (приборы). Широко известны такие устройства воспроизведения данных, как магнитофоны, видеомагнитофоны, телефоны, рентгеновские аппараты, телескопы, микроскопы и многие другие. С точки зрения физики все эти устройства обладают разными принципами действия и выполняют разные функции. С точки зрения информатики эти устройства выполняют общую функцию – преобразуют данные из формы, недоступной для естественных методов человека, в форму, доступную для них.

В отдельных случаях данные должны проходить через достаточно длинные цепочки преобразования аппаратными средствами, прежде чем станут доступны для восприятия человеком и из них образуется информация. Поскольку разные приборы выпускаются разными предприятиями, между различными устройствами возможны проблемы совместимости. Не всегда одни устройства могут обрабатывать данные, созданные другими приборами. В таких случаях применяют специальные устройства преобразования данных, но уже говорят не о преобразовании формы данных, а о преобразовании их формата. Например, видеозапись, выполненную с помощью любительской видеокамеры, нельзя передать по каналам телевизионного вещания без предварительного преобразования. В таких случаях данные из формата, в котором работают бытовые видеокамеры, преобразовывают в формат, с которым работают профессиональные средства телевещания и видеотехники.
Вернуться
1.6. Программные методы воспроизведения и обработки данных

Широкое внедрение средств вычислительной техники позволяет автоматизировать обработку самых разных видов данных с помощью компьютеров. Компьютер – это прибор особого типа, в котором одновременно сочетаются аппаратные и программные методы обработки и представления информации. Эти методы составляют предметную область информатики, и мы познакомимся с ними более подробно в последующих главах, а сейчас приведем лишь несколько примеров того, как программные методы влияют на содержание информации, представленной в данных.
Вернуться
1.7. Понятие информации.

До сих пор мы определили только данные как результат регистрации сигналов. Определить, что такое информация, не столь просто, хотя бы потому, что она, в отличие от данных, не является объектом материальной природы и образуется в результате взаимодействия данных с методами. Напомним, что в результате работы таких методов, как логическое мышление, воображение и прогнозирование, может образовываться или обрабатываться информация об “идеальных” объектах, не имеющих адекватного отражения в материальном мире. Это явление хорошо известно, например, по анализу свидетельских показаний. Свидетели не всегда различают информацию, полученную в результате наблюдения и логического мышления. Поэтому одни и те же объективные данные могут интерпретироваться в их показаниях в разную информацию.

Несмотря на то, что понятие информации очень широко используется и в науке, и в повседневной жизни, его строгого научного определения до последнего времени не существовало. По сей день разные научные дисциплины вводят это понятие по-разному. Здесь можно выделить три возможных подхода:
антропоцентрический,
техноцентрический
недетерминированный.

Суть антропоцентрического подхода состоит в том, что информацию отождествляют со сведениями или фактами, которые теоретически могут быть получены и усвоены, то есть преобразованы в знания. Этот подход в настоящее время применяется наиболее широко. Его примеры мы можем наблюдать, в частности, в российском законодательстве
.

“Под информацией понимаются сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления” (Федеральный Закон № 24-ФЗ “Об информации, информатизации и защите информации” от 25.01.95 г. “Российская газета” № 39 от 22.02.95 г.)

Недостатки антропоцентрического подхода заключаются в том, что в его рамках невозможно найти адекватного объяснения генетической информации живой природы и абстрактной информации, не имеющей адекватного отображения в природе и обществе. С такой информацией, например, имеют дело теология, идеалистическая философия и некоторые разделы математики.

Наиболее простой пример недостаточности антропоцентрического подхода проявляется при рассмотрении таких информационных объектов, как команды. Например, команда “Вперед!” – это отнюдь не сведения. Это именно команда, для отработки которой исполнитель должен обладать соответствующим методом. “Вперед!” – очень простая команда. Существуют более сложные команды синхронизации, соответствия и другие. Их информационная сущность может быть завуалированной, но в рамках антропоцентрического подхода она не раскрывается.

До последнего времени антропоцентрический подход удовлетворительно работал в области правовых и общественных наук. Однако в связи с широким внедрением вычислительной техники его недостатки все чаще дают о себе знать. Так, например, подход к информации только как к сведениям не позволяет адекватно интерпретировать такие информационные объекты, как компьютерные программы. В пассивном состоянии (в момент создания, распространения) компьютерная программа – это действительно набор сведений. Их можно просмотреть, размножить, распечатать, то есть, перевести в другую форму, а также усвоить, как знания. В активном состоянии, при работе на компьютере, то есть во время взаимодействия с аппаратным методом, компьютерная программа – это не совокупность сведений, а совокупность команд, то есть, это программный метод.

Суть техноцентрического подхода состоит в том, что информацию отождествляют с данными. Этот подход нашел очень широкое распространение в технических дисциплинах. Например, нам часто встречаются упоминания о том, что “информация передается по компьютерным сетям”, “информация обрабатывается компьютерами”, “информация хранится в базах данных”. Во всех этих случаях происходит подмена понятий. Дело в том, что по компьютерным сетям передаются только данные, компьютеры обрабатывают только данные, а в базах данных хранятся тоже только данные. Станут ли эти данные информацией и если да, то какой, зависит не только от данных, а и от многочисленных аппаратных, программных и естественных методов.

В российском законодательстве мы не находим явных признаков техноцентрического подхода, но они имеются в законодательствах других государств, например Германии. В частности, такие понятия, как информация, доступ к информации, модификация информации, во всех случаях, когда речь идет об эксплуатации технических систем, представляются как данные, доступ к данным, модификация данных.

Недетерминированный подход к понятию информации встречается также достаточно широко. Он состоит в отказе от определения информации на том основании, что оно является фундаментальным, как, например, материя и энергия. В частности, мы не найдем определения информации в “Законе о государственной тайне” и в “Законе о средствах массовой информации”, хотя и в том и в другом правовом акте это понятие используется.

Отсутствие определения использованного понятия это вовсе не недосмотр законодателя. Во многих случаях отказ от определения информации можно считать традиционным. Так, например, мы не найдем определения информации и в таком уважаемом справочном издании, как Британская энциклопедия. Определение можно получить лишь косвенным образом через статью “Обработка информации и информационные системы, где говорится, что этот термин используют применительно к фактам и суждениям, получаемым в повседневной жизни от других живых существ, из средств массовой информации, из электронных баз данных, а также путем наблюдения явлений окружающей среды”.

Здесь смешаны и антропоцентрический, и техноцентрический подход, после чего определение сведено к бытовому уровню. При этом приводится обширный список литературы, опубликованной за последние 50 лет, анализ которой не дал прямого определения.

Информация – это действительно фундаментальное научное понятие. Во всех случаях фундаментальные научные понятия для прикладных научных дисциплин должны поставляться фундаментальными естественными науками. В данном случае мы имеем дело с тем фактом, что фундаментальной естественнонаучной дисциплины, занимающейся природой информации, никогда не существовало. Понятие информации прошло мимо физики, химии, математики, биологии. Нельзя сказать, что эти дисциплины совсем не занимались изучением информации. В той мере, в которой для них это было необходимо, они занимались изучением свойств информации, но не ее природы.

К настоящему времени свойства информации действительно неплохо изучены в самых различных дисциплинах. Физика, например, занимается свойствами сигналов, несущих информацию. В качестве прикладной дисциплины существует теория информации, занимающаяся вопросами информационной содержательности сигналов (сообщений). Теория информации близко связана с физикой и математикой, она использует методический аппарат радиотехники и теории вероятностей. Генетика занимается изучением вопросов передачи наследственной информации в живой природе. Этот перечень можно продолжить, но фундаментальной науки, занимающейся исследованием природы информации, до сих пор не было. Поэтому не было и строгого научного определения информации.

Лишь в последние годы информатика начала формироваться как естественнонаучная дисциплина, но она еще не вышла за рамки прикладной технической науки и потому до сих пор не ввела строгого понятия информации. Более того, мы часто наблюдаем, как информатика сама заимствует понятие информации из других научных дисциплин (в том числе и из правовых) или вводит его на бытовом уровне. В учебной и научной литературе по информатике мы находим немало примеров антропоцентрического подхода к информации (как к сведениям) или техноцентрического подхода (как к данным). В лучшем случае информацию рассматривают как содержательную часть данных, интерпретируемых человеком (синтез антропоцентрического и техноцентрического подхода).

Наиболее яркий пример дает нынешняя правовая ситуация с Интернетом. До сих пор не решен принципиальный вопрос: “Является Интернет средством массовой информации или нет?” В неформальном общении специалисты, использующие Интернет в политических целях, говорят, что: “Конечно же, Интернет является средством массовой информации, да еще каким! Но вы попробуйте это доказать!”.

Действительно, в рамках традиционного подхода к информации, как к “сведениям”, решить основной правовой вопрос Интернета невозможно, как невозможно решить и множество дополнительных вопросов, например с правовым режимом гиперссылок. Отсутствие убедительного обоснования правового режима Интернета ведет к массе правовых коллизий как в России, так и за рубежом. Достаточно вспомнить правовые проблемы, возникшие в период проведения выборов в Государственную Думу РФ (декабрь 1999 г.) и президентских выборов 2000 г. Без надлежащего определения информации множество правовых проблем, возникающих в современном высокоинформатизированном обществе, не может быть разрешено окончательно и убедительно.
Вернуться
1.8. Определение информации

Научное определение информации дается достаточно просто, если предположить, что информация – это динамический объект, не существующий в природе сам по себе, а образующийся в ходе взаимодействия данных и методов. Он существует ровно столько, сколько длится это взаимодействие, а все остальное время пребывает в виде данных.

Информация – это продукт взаимодействия данных и методов, рассмотренный в контексте этого взаимодействия.

В этом определении ничего не говорится о форме, в которой представлены данные, она может быть абсолютно любой. Если данные графические, а метод взаимодействия – наблюдение, то образуется визуальная информация. Если данные текстовые или речевые, а метод их потребления – чтение или прослушивание, образуется текстовая информация. А могут ли текстовые данные быть графической информацией? Разумеется, да, если к ним применен не метод чтения, а метод наблюдения.

В нашем определении важным является пояснение “рассмотренный в контексте этого взаимодействия”. Приведем примеры, почему это действительно важно. Известно, что книги – это хранилища данных. Они предназначены для получения информации методом чтения. Но если попробовать разные книги на ощупь или на вкус, то тоже можно получить информацию. Такие методы позволят различить книги, выполненные в кожаных, картонных и бумажных переплетах. Разумеется, это не те методы, которые предполагались авторами книг, но они тоже дают информацию, хотя и не полную.

Известны примеры того, что не только текст или состав бумаги письма, но и его запах может давать информацию об авторстве. Пользуясь этим методом, можно отправлять в конверте даже чистый лист. Получателю он даст информацию о том, кто помнит и думает о нем. Возможно, в некоторых случаях она будет недостоверной (ложной), но это все-таки будет информация.

Анализируя информационную ценность газет, журналов, телепередач, мы можем прийти к выводу, что она зависит как от данных, так и от методов, которыми выполняется их потребление. Одно дело – внимательно просматривать телефильм, вслушиваясь в каждое слово, и совсем другое – смотреть его, одновременно разговаривая по телефону.

Попробуйте проанализировать свое участие в учебных занятиях. Вы заметите, что фактор внимательности влияет на содержание информации, полученной из данных, которые излагает преподаватель. Проявляя внимательность, мы расширяем возможности естественных методов, основанных на органах чувств, за счет методов логического мышления. Правда, при этом мы быстрее утомляемся и потому стараемся делать это как можно реже. Преподаватели об этом знают и применяют свои методы, позволяющие нам время от времени переключать, рассеивать, а потом вновь концентрировать внимание.
Вернуться
1.9. Понятие контекстного метода

В быту мы часто считаем, что книги, газеты,- журналы, радио и телевидение – это источники информации. Если строго подходить с позиций информатики, то это не совсем так. Все это источники данных. Станут ли данные информацией или нет и если станут, то какой именно, зависит от того, какой метод будет применен к их потреблению и в каких условиях это произойдет. Тем не менее, мы все-таки привыкли говорить не о передаче данных, а о передаче информации, не о преобразовании и шифровании данных, а о преобразовании и шифровании информации, а также об ее автоматической обработке с помощью компьютеров. Нет ли здесь противоречия?

Такое противоречие действительно есть, но оно разрешается, если ввести понятие контекстного метода. Контекстным считается тот метод, который является общепринятым для работы с данными определенного типа. Этот метод должен быть известен как создателю данных, так и потребителю информации.

Для иллюстраций (графических данных) контекстным является метод наблюдения, основанный на зрении. В таких случаях мы говорим о графической или визуальной информации. Для текстовых данных подразумевается контекстный метод чтения, основанный на зрении и на знании языка и азбуки. В таких случаях говорят о текстовой информации.

Для данных, представленных радиоволнами, контекстными являются аппаратные методы преобразования данных и потребления информации с помощью радиоприемника или телевизора. Поэтому мы так часто используем понятия телевизионная информация, информационная программа, информационный выпуск и т. п.

Есть свои особенности и у компьютерной информации. Для данных, представленных в числовой форме и хранящихся в виде сигналов, зарегистрированных на магнитных (и других) носителях или циркулирующих в компьютерных сетях, контекстными являются аппаратные и программные методы вычислительной техники. Их еще называют средствами информационных технологий. Они входят в предметную область информатики, и наш курс будет в значительной степени посвящен их изучению.
Вернуться
1.10. Информационный процесс. Понятие информационного процесса

Из определения информации вытекает важное свойство ее динамичности. Дело в том, что информация существует крайне непродолжительное время – ровно столько, сколько продолжается взаимодействие данных и методов во время ее создания, потребления или преобразования. Как только это взаимодействие завершается, мы опять имеем данные, но уже представленные в другой форме.

Выше мы рассмотрели пример с получением информации от преподавателя. Пока идет наблюдение и прослушивание, мы получаем информацию. Как только наблюдение и прослушивание завершаются, информация сохраняется в форме данных в клетках головного мозга. В тот момент, когда, общаясь с тем же преподавателем, но уже на экзамене, мы рассказываем ему о содержании темы, идет другой этап информационного процесса. Преподаватель получает от нас совершенно иные данные (не те, которые мы получали от его) и применяет к ним совершенно иные методы (не те, которые применяли мы). В результате он получает иную информацию. Но и она немедленно преобразуется в данные, хранящиеся в экзаменационной ведомости и зачетной книжке.

Подобная схема информационного процесса действует не только в живой природе, но и в технике

Информационный процесс – это всегда цикл образования информации из данных и немедленного ее сохранения в виде новых данных. Информация существует крайне непродолжительное время, но сам информационный процесс длится столько, сколько существуют носители данных, представляющие информацию. Исследуя сегодня египетские иероглифы, ученые продолжают информационный процесс, начатый несколько тысяч лет назад.
Вернуться
1.11. Важнейшие свойства информации:
Достоверность. Достоверность означает истинное, объективное отражение действительности. Информация в человеческом обществе передается и получается людьми или с их помощью. Как известно, каждый человек воспринимает окружающую действительность субъективно, имея свой собственный, отличный от других взгляд и мнение. Поэтому передаваемая или получаемая человеком информация не может быть абсолютно объективна. Она лишь может быть максимально приближена к объективной. Смысл рассматриваемого свойства достоверности и заключается в том, чтобы определить насколько данная информация соответствует истинному положению дел. В противном случае недостоверная информация повлечет за собой неправильное понимание и, как следствие, принятие неправильных решений.

Полезность. Получая новую информацию, мы смотрим, нужна ли она для решения данной проблемы. Одна и та же информация может быть очень важной для одного человека и быть абсолютно бесполезной для другого

Содержательность. Отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, т.е. С=Iс/Vд. С увеличением содержательности информации растет семантическая пропускная способность информационной системы, т.к. для получения одних и тех же сведений требуется преобразовать меньший объем данных. Наряду с коэффициентом содержательности – С, можно использовать и коэффициент информативности, характеризующий отношение количества синтаксической информации (по Шеннону) к объему данных: Y=I/Vд.

Объективность и субъективность. Понятие объективности информации является относительным. Это понятно, если учесть, что методы являются субъективными. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент. Так, например, принято считать, что в результате наблюдения фотоснимка природного объекта или явления образуется более объективная информация, чем в результате наблюдения рисунка того же объекта, выполненного человеком. В ходе информационного процесса степень объективности информации всегда понижается. Это свойство учитывают, например, в правовых дисциплинах, где по-разному обрабатываются показания лиц, непосредственно наблюдавших события или получивших информацию косвенным путем (посредством умозаключений или со слов третьих лиц). В не меньшей степени объективность информации учитывают в исторических дисциплинах. Одни и те же события, зафиксированные в исторических документах разных стран и народов, выглядят совершенно по-разному. У историков имеются свои методы для тестирования объективности исторических данных и создания новых, более достоверных данных путем сопоставления, фильтрации и селекции исходных данных. Обратим внимание на то, что здесь речь идет не о повышении объективности данных, а о повышении их достоверности (это совсем другое свойство).

Адекватность. Определенный уровень соответствия создаваемого с помощью полученной информации образа реальному объекту, процессу, явлению и т.п. От степени адекватности информации реальному состоянию объекта или процесса зависит правильность принятия решения человеком. Адекватность информации может быть выражена в трех формах:
Синтаксической. Отражает формально-структурные характеристики информации и не затрагивает ее смысловое содержание. На этом уровне учитывается тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т.п.
Семантической(смысловая). Определяет степень соответствия образа объекта и самого объекта. Предполагает учет смыслового содержания информации, на этом уровне анализируются те сведенья, которые отражает информация, рассматриваются смысловые связи. В информатике устанавливаются смысловые связи между кодами представления информации. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщений.
Прагматической(потребительская). Отражает отношение информации и ее потребителя, соответствие информации цели управления, которая на ее основе реализуется. Проявляются прагматические свойства информации только при наличии единства информации (объекта), пользователя и цели управления. Прагматический аспект рассмотрения связан с ценностью, полезностью использования информации при выработки потребителем решения для достижения своей цели. С этой точки зрения анализируется потребительские свойства информации. Эта форма адекватности непосредственно связана с практическим использованием информации, с соответствием ее целевой функции деятельности системы.
Актуальность. Определяется степенью сохранения ценности информации
для управления в момент ее получения и зависит от интервала времени, прошедшего с момента возникновения данной информации.
Достаточность (полнота). Информация, содержащая минимальный, но достаточный для принятия правильного решения набор показателей. Понятие полноты информации связано с ее смысловым содержанием (семантикой) и прагматикой. Как неполная, т.е. недостаточная для принятия правильного решения, так и избыточная информация снижает ее эффективность принимаемых пользователем решений.

Доступность. Обеспечивается выполнением соответствующих процедур ее получения и преобразования. Например, преобразование информации к доступной и удобной для восприятия пользователя форме.

Своевременность. Означает поступление информации не позже заранее назначенного момента времени, согласованным со временем решения поставленной задачи.

Точность. Определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления и т.п. Для информации, отображаемой цифровым кодом, известны четыре классификационных понятия точности:
формальная точность, измеряемая значением единицы младшего разряда числа,
реальная точность, определяемая значением единицы последнего разряда числа, вероятность, которого гарантируется,
максимальная точность, которую можно получить в конкретных условиях функционирования системы.
необходимая точность, определяемая функциональным назначением показателя.
Устойчивость. Отражает способность информации реагировать на изменение исходных данных без нарушения необходимой точности. Устойчивость, как и репрезентативность, обусловлена выбранной методикой ее отбора и формирования.
Репрезентативность – связана с правильностью отбора информации и ее формирования в целях адекватного отражения свойств объекта. Важнейшее значение здесь имеют: правильность концепции, на базе которой сформулировано исходное понятие, обоснованность отбора существенных признаков и связей отображаемого явления. Нарушение репрезентативности информации приводит к существенным ее погрешностям.
Вернуться
1.12. Информация в технических устройствах и системах

Обмен информацией происходит не только среди людей. Современная жизнь не представляется без различных устройств и машин, которые не только облегчают, но, нередко, и заменяют человека при выполнении многих задач. Между тем, работа машин невозможна без процессов обработки информации.

В существующих на сегодняшний день разнообразных технических устройствах и системах прием, обработка и передача информации осуществляется с помощью сигналов. Сигналы отражают физические характеристики изучаемых объектов и процессов. Посредством сигналов информация может передаваться как на очень короткие расстояния, например, от одного узла устройства к другому, так и на очень большие, расположенные в разных точках Земного шара. Кроме этого, информация в виде сигнала может различным образом перерабатываться, сохраняться, уничтожаться и т. п.

На сегодняшний день различают несколько видов сигналов. Это, например, звуковые сигналы, которые можно услышать при работе милицейской сирены. Или световые сигналы, передающие информацию от пульта дистанционного управления к телевизору. Но наибольшее распространение в современных технических устройствах получили электрические сигналы. Это связано с тем, что для них в настоящее время созданы наилучшие технические средства обработки, хранения и передачи.

Остановимся подробнее на электрическом сигнале. При передаче информации посредством электрического сигнала значение информации, заключенной в этом сигнале, выражается в параметрах электрического тока – в силе тока и напряжении. При этом информации, переносимая таким сигналом, может быть самой разнообразной.

Существующие в технических устройствах сигналы делятся на непрерывные (или аналоговые) и дискретные.
Непрерывность сигнала означает возможность его изменения на любую малую величину в любой заданный малый промежуток времени (см. рис.1).
Рис 1. Непрерывный сигнал
Образование аналогового сигнала происходит, например, при получении первичной информации с датчиков, связанных с изучаемым объектом или внешней средой. Полученный аналоговый сигнал, как правило, требует дальнейшей его обработки. Это может быть передача, преобразование или сохранение. Посмотрим это на примерах. Продемонстрировать аналоговую обработку сигнала можно, рассматривая процесс преобразования сигнала, идущего от микрофона к динамику. Для того, чтобы динамик мог воспроизвести звуковой сигнал, поступивший на вход микрофона, необходимо, чтобы произошел процесс обработки поступившего сигнала. Микрофон преобразует звуковой сигнал в слабый электрический, выходной характеристикой которого является напряжение. Понятно, что микрофон и динамик применяется в случае, когда стоит проблема усиления звукового сигнала. Для этого производится обработка, а именно целенаправленное усиление аналогового электрического сигнала до требуемой величины. Получив таким образом необходимый сигнал, динамик его преобразовывает в звуковой, но уже более сильный, чем поступивший на вход микрофона.

Примером аналоговой передачи сигнала является передача речевой информации по телефонным проводам. При телефонных переговорах поступающая речевая информация преобразуется в аналоговые электрические сигналы, которые по проводам передаются абоненту, а затем обратно преобразуются в речевую информацию. В этом случае никакой обработки сигнала не производится, только небольшое усиление, которое просто предотвращает затухание сигнала.

Аналоговое сохранение информации является также довольно распространенным явлением. Это, например запись звукового сигнала на магнитофонную ленту.

Мы рассмотрели примеры аналоговых сигналов. Перейдем к дискретным. До семидесятых годов ХХ века технические устройства работали только с аналоговыми сигналами. Аналоговыми являлись и способы их обработки. Это означало, что обработка сигнала проводилась на непрерывном интервале времени (иными словами – в каждый малый промежуток времени). А в результате такой обработки получался также аналоговый сигнал (см. рис.2).
Рис.2 Аналоговое преобразование сигнала
С появлением в семидесятых годах ХХ века микропроцессора – основного элемента ЭВМ, а также микросхем с высокой степенью интеграции, стали получать распространение дискретные и цифровые сигналы, а вместе с ними и соответствующие способы их обработки.

Говоря о непрерывности сигнала, мы рассматривали непрерывный промежуток времени, на котором может изменяться сигнал.

Дискретность же сигнала означает возможность его измерения только на конечном отрезке, в строго определенные моменты времени. А следовательно, и сам сигнал представляет собой уже не непрерывную функцию, а последовательностью дискретных значений (см. рис.3).
Рис.3 Дискретный сигнал

Как видно из рисунка 3 дискретные значения функции, полученные в дискретные моменты времени, имеют лишь только приближенные числовые значения. В зависимости от решаемой задачи, эти значения могут быть зафиксированы только в данных временных точках, а могут сохранять свое значение в промежутке от данной до следующей точки измерения.

В случае, когда наличие приближенных значений не удовлетворяет поставленной задаче, производят округление имеющихся значений с заданной степенью точности. И тогда уже вместо приближенных значений получаются определенные конечные числовые значения (см. рис.4).
Рис.4 Цифровой сигнал
Дискретный сигнал, значения которого выражены определенными конечными числами, называется цифровым.

Аналогично аналоговым устройствам обработки аналоговых сигналов, для обработки, хранения, передачи цифровых сигналов также существуют специальные технические устройства. Бурное развитие вычислительной техники, средств телекоммуникации непосредственно связано с обработкой именно цифровых сигналов, поскольку цифровая cвязь имеет множество преимуществ по сравнению с аналоговой
.

Широкое применение цифрового способа хранения информации находит запись различного рода информации на аудио, видео и компакт-дисках (CD-ROM).
С цифровой передачей данных мы сталкиваемся при обмене информацией между компьютерами с помощью модема или при работе с факсимильными средствами связи.
Довольно сложными оказываются примеры цифровой обработки сигнала. Такая обработка, например, производится цифровыми фильтрами, основанными на алгоритмах преобразования Фурье.

Несмотря на то, что цифровая обработка информации приобретает в настоящее время все большее распространение, отказаться от аналоговой невозможно. Еще остается достаточно много систем и устройств, в которых информация может передаваться только в виде аналогового сигнала. В связи с этим решаются различные вопросы, ищутся способы преобразования аналогового сигнала в цифровой и наоборот.

Очевидно, при преобразовании исходного аналогового сигнала в цифровой, появляется определенная погрешность. Это, конечно, является недостатком. Но увеличивая число дискретов по оси времени и функции сигнала, можно достичь уменьшение погрешности. Использование современных высокоскоростных технических средств обработки и хранения цифровых сигналов позволяет значительно упростить и удешевить процесс преобразования аналогового сигнала в цифровой. А также устранить недостатки, присущие аналоговой передаче сигнала, например, влияние шумов, и получить ряд важных преимуществ.

В результате даже такие области телекоммуникации, как телефонная связь и радиовещание, где традиционным являлся аналоговый сигнал, переходят на цифровую форму обработки и передачи сигналов. Этот процесс получил наибольшее развитие с появлением глобальных компьютерных сетей. Распространенным средством осуществления связи между компьютерами является телефонная сеть. Исходное сообщение, поступающее в телефонную линию, преобразуется, прежде всего, в аналоговый сигнал. После этого специальные технические средства производят последующее преобразование этого аналогового сигнала в цифровой. И уже в цифровом виде он обрабатывается, хранится, передается. Только достигнув получателя, цифровой сигнал обратно преобразуется в аналоговый и воспринимается абонентом в привычном ему виде.
Глава 2. Данные, носители данных, операции с данными, единицы представления, измерения и хранения данных.

С точки зрения ЭВМ информацию можно рассматривать как данные, сопровождающиеся смысловой нагрузкой. При этом, очевидно, то, что для одних людей является данными, для других вполне может быть информацией. Но всегда можно точно сказать, что нужно предпринять для того, чтобы те или иные данные стали информативными для наибольшей аудитории: их нужно снабдить смысловым содержанием. Чем более полным будет это содержание, тем более информативной будет соответствующее сообщение. Данные, не несущие полезной информации и многократно увеличивающие временные и прочие издержки пользователя на извлечение и обработку полезной информации называются информационным мусором.
2.1. Носители данных

Самым распространенным носителем данных, хотя и не самым экономичным, по-видимому, является бумага. На бумаге данные регистрируются путем изменения оптических характеристик ее поверхности. Изменение оптических свойств (изменение коэффициента отражения поверхности в определенном диапазоне длин волн) используется также в устройствах, осуществляющих запись лазерным лучом на пластмассовых носителях с отражающим покрытием (CD-ROM). В качестве носителей, использующих изменение магнитных свойств, можно назвать магнитные ленты и диски. Регистрация данных путем изменения химического состава поверхностных веществ носителя широко используется в фотографии. На биохимическом уровне происходит накопление и передача данных в живой природе.

Носители данных интересуют нас не сами по себе, а постольку, поскольку свойства информации весьма тесно связаны со свойствами ее носителей. Любой носитель можно характеризовать параметром разрешающей способности (количеством данных, записанных в принятой для носителя единице измерения) и динамическим диапазоном (логарифмическим отношением интенсивности амплитуд максимального и минимального регистрируемого сигналов). От этих свойств носителя нередко зависят такие свойства информации, как полнота, доступность и достоверность. Так, например, мы можем рассчитывать на то, что в базе данных, размещаемой на компакт-диске, проще обеспечить полноту информации, чем в аналогичной по назначению базе данных, размещенной на гибком магнитном диске, поскольку в первом случае плотность записи данных на единице длины дорожки намного выше. Для обычного потребителя доступность информации в книге заметно выше, чем той же информации на компакт-диске, поскольку не все потребители обладают необходимым оборудованием. И, наконец, известно, что визуальный эффект от просмотра слайда в проекторе намного больше, чем от просмотра аналогичной иллюстрации, напечатанной на бумаге, поскольку диапазон яркостных сигналов в проходящем свете на два-три порядка больше, чем в отраженном.

Задача преобразования данных с целью смены носителя относится к одной из важнейших задач информатики. В структуре стоимости вычислительных систем устройства для ввода и вывода данных, работающие с носителями информации, составляют до половины стоимости аппаратных средств.
Вернуться
2.2. Операции с данными

Во время информационного процесса данные преобразовываются из одного вида в другого с помощью методов. Обработка данных включает в себя множество разных операций. Основными операциями есть:
сбор данных – накопление информации с целью обеспечения достаточной полноты для принятия решения;
формализация данных – приведение данных, которые поступают из разных источников к единой форме;
фильтрация данных – устранение лишних данных, которые не нужны для принятия решений;
сортировка данных – приведение в порядок данных по заданному признаку с целью удобства использования;
архивация данных – сохранение данных в удобной и доступной форме;
защита данных – комплекс мер, направленных на предотвращение потерь, воспроизведения и модификации данных;
транспортирование данных – прием и передача данных между отдаленными пользователями информационного процесса. Источник данных принят называть сервером, а потребителя – клиентом;
преобразование данных – преобразование данных с одной формы в другую, или с одной структуры в другую, или изменение типа носителя.

Приведенный здесь список типовых операций с данными далеко не полон. Миллионы людей во всем мире занимаются созданием, обработкой, преобразованием и транспортировкой данных, и на каждом рабочем месте выполняются свои специфические операции, необходимые для управления социальными, экономическими, промышленными, научными и культурными процессами. Полный список возможных операций составить невозможно, да и не нужно. Сейчас нам важен другой вывод: работа с информацией может иметь огромную трудоемкость, и ее надо автоматизировать.
Вернуться
2.3. Системы исчисления

Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления — для этого обычно используется прием кодирования, то есть выражение данных одного типа через данные другого типа. Естественные человеческие языки — это не что иное, как системы кодирования понятий для выражения мыслей посредством речи. К языкам близко примыкают азбуки (системы кодирования компонентов языка с помощью графических символов).

Совокупность приемов наименования и обозначение чисел называется системой исчисления. В качестве условных знаков для записи чисел используются цифры.

Система исчисления, в которой значение каждой цифры в произвольном месте последовательности цифр, обозначающей запись числа, не изменяется, называется непозиционной.

Система исчисления, в которой значение каждой цифры зависит от места в последовательности цифр в записи числа, называется позиционной.

Чтобы определить число, недостаточно знать тип и алфавит системы исчисления. Для этого необходимо еще использовать правила, которые позволяют по значениям цифр установить значение числа. Простейшим способом записи натурального числа является изображение его с помощью соответствующего количества палочек или черточек. Таким способом можно обозначить небольшие чисел. Следующим шагом было изобретение специальных символов (цифр). В непозиционной системе каждый знак в записи независимо от места означает одно и то же число. Хорошо известным примером непозиционной системы исчисления является римская система, в которой роль цифр играют буквы алфавита: І – один, V – пять, Х – десять, С – сто, L – пятьдесят, D -пятьсот, М – тысяча. Например, 324 = СССХХІ. В непозиционной системе исчисления арифметические операции выполнять неудобно и сложно.
Позиционные системы исчисления

Общепринятой в современном мире является десятичная позиционная система исчисления, которая из Индии через арабские страны пришла в Европу. Основой системы является число десять. Основой системы исчисления называется число, означающее, во сколько раз единица следующего разряда больше чем единица предыдущего.

Общеупотребительной формой записи числа является сокращенная форма записи разложения по степеням основы системы исчисления, например
130678=1*105+3*104+0*103+6*102+7*101+8

Здесь 10 служит основой системы исчисления, а показатель степени – это номер позиции цифры в записи числа (нумерация ведется слева на право, начиная с нуля). Арифметические операции в этой системе выполняют по правилам, предложенным еще в средневековье. Например, складывая два многозначных числа, применяем правило сложения столбиком. При этом все сводится к сложению однозначных чисел, для которых необходимо знать таблицу сложения.

Проблема выбора системы исчисления для представления чисел в памяти компьютера имеет большое практическое значение. В случае ее выбора обычно учитываются такие требования, как надежность представления чисел при использовании физических элементов, экономичность (использование таких систем исчисления, в которых количество элементов для представления чисел из некоторого диапазона было бы минимальном). Для изображения целых чисел от 1 до 999 в десятичной системе достаточно трех разрядов, то есть трех элементов. Поскольку каждый элемент может находиться в десяти состояниях, то общее количество состояний – 30, в двоичной системе исчисления: 99910=11111002, необходимое количество состояний – 20 (индекс внизу числа – основа системы исчисления).

Более распространенной для представления чисел в памяти компьютера является двоичная система исчисления. Для изображения чисел в этой системе необходимо две цифры: 0 и 1, то есть достаточно двух стойких состояний физических элементов. Эта система близка к оптимальной по экономичности, и кроме того, таблицы сложения и умножения в этой системе элементарные.
Таблица сложения
+ 0 1
0 0 1
1 1 10

Таблица умножения

* 0 1
0 0 0
1 0 1
Поскольку 23=8, а 24=16 , то каждых три двоичных разряда числа образовывают один восьмиричный, а каждых четыре двоичных разряда – один шестнадцатиричный. Поэтому для сокращения записи адресов и содержимого оперативной памяти компьютера используют шестнадцатиричную и восьмиричную системы исчисления. Ниже, в таблице приведены первые 16 натуральных чисел записанных в десятичной, двоичной, восьмиричной и шеснадцатиричной системах исчисления.

Десятичная Двоичная Восьмеричная Шестнадцатиричная
0 0000 0 0
1 0001 1 1
2 0010 2 2
3 0011 3 3
4 0100 4 4
5 0101 5 5
6 0110 6 6
7 0111 7 7
8 1000 10 8
9 1001 11 9
10 1010 12 A
11 1011 13 B
12 1100 14 C
13 1101 15 D
14 1110 16 E
15 1111 17 F
Для отладки программ и в других ситуациях в программировании актуальной является проблема перевода чисел из одной позиционной системы исчисления в другую. Если основа новой системы исчисления равняется некоторой степени старой системы исчисления, то алгоритм перевода очень простой: нужно сгруппировать справа налево разряды в количестве, равном показателю степени и заменить эту группу разрядов соответствующим символом новой системы исчисления. Этим алгоритмом удобно пользоваться при переводе числа из двоичной системы исчисления в восьмиричную или шестнадцатиричную.

Перевод чисел из восьмиричной или шестнадцатиричной систем исчисления в двоичную происходит по обратному правилу: один символ старой системы исчисления заменяется группой разрядов новой системы исчисления, в количестве равном показателю степени новой системы исчисления.

Если основа одной системы исчисления равняется некоторой степени другой, то перевод очень простой. В противном случае пользуются правилами перевода числа из одной позиционной системы исчисления в другую (чаще всего при переводе из двоичной, восьмиричной и шшестнадцатиричной систем исчисления в десятичную, и наоборот).
Вернуться
2.4. Алгоритмы перевода чисел из одной позиционной системы исчисление в другую.

1. Для перевода чисел из системы исчисления с основой p в систему исчисления с основой q, используя арифметику новой системы исчисления с основой q, нужно записать коэффициенты разложения, основы степеней и показатели степеней в системе с основой q и выполнить все действия в этой самой системе. Очевидно, что это правило удобно при переводе в десятичную систему исчисления. Например:

из шестнадцатиричной в десятичную:
92C816 = 9 * 10163+ 2 * 10162 + C * 10161 + 8 * 10160 = 9 * 16103 + 2 * 16102 + 12 * 16101 + 8 * 16100 = 37576

из восьмиричной в десятичную:
7358 = 7 * 1082 + 3 * 1081 + 5 * 1080 = 7 * 8102 + 3 * 8101 + 5 * 8100 = 47710

из двоичной в десятичную:
1101001012 = 1 * 1028 + 1 * 1027 + 0 * 1026 + 1 * 1025+0*1024 + 0 * 1023 + 1 * 1022 + 0 * 1021 + 1 * 1020 = 1 * 2108 + 1 * 2107 + 0 * 2106 + 1 * 2105 + 0 * 2104 + 0 * 2103 + 1 * 2102 + 0 * 2101 + 1 * 2100 = 42110

2. Для перевода чисел из системы исчисления с основой p в систему исчисления с основой q с использованием арифметики старой системы исчисления с основой p нужно:

для перевода целой части:
последовательно число, записанное в системе основой делить на основу новой системы исчисления, выделяя остатки. Последние записанные в обратном порядке, будут образовывать число в новой системе исчисления;

для перевода дробной части:
последовательно дробную часть умножать на основу новой системы исчисления, выделяя целые части, которые и будут образовывать запись дробной части числа в новой системе исчисления.

Этим же правилом удобно пользоваться в случае перевода из десятичной системы исчисления, поскольку ее арифметика для нас привычна.
Пример: 999,3510=1111100111,010112

для целой части:
для дробной части:

Вернуться
2.5. Кодирование текстовых данных

Если каждому символу алфавита сопоставить определенное целое число (например, порядковый номер), то с помощью двоичного кода можно кодировать и текстовую информацию. Восьми двоичных разрядов достаточно для кодирования 256 различных символов. Этого хватит, чтобы выразить различными комбинациями восьми битов все символы английского и русского языков, как строчные, так и прописные, а также знаки препинания, символы основных арифметических действий и некоторые общепринятые специальные символы.
Технически это выглядит очень просто, однако всегда существовали достаточно веские организационные сложности. В первые годы развития вычислительной техники они были связаны с отсутствием необходимых стандартов, а в настоящее время вызваны, наоборот, изобилием одновременно действующих и противоречивых стандартов. Для того чтобы весь мир одинаково кодировал текстовые данные, нужны единые таблицы кодирования, а это пока невозможно из-за противоречий между символами национальных алфавитов, а также противоречий корпоративного характера.

Для английского языка, захватившего де-факто нишу международного средства общения, противоречия уже сняты. Институт стандартизации США (ANSI — American National Standard Institute) ввел в действие систему кодирования ASCII (American Standard Code for Information Interchange) — стандартный код информационного обмена США. В системе ASCII закреплены две таблицы кодирования — базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, а расширенная относится к символам с номерами от 128 до 255
Таблица кодов ASCII (American Standard Code for Information Interchange)

Первые 32 кода базовой таблицы, начиная с нулевого, отданы производителям аппаратных средств (в первую очередь производителям компьютеров и печатающих устройств). В этой области размещаются так называемые управляющие коды, которым не соответствуют никакие символы языков, и, соответственно, эти коды, не выводятся ни на экран, ни на устройства печати, но ими можно управлять тем, как производится вывод прочих данных.

Начиная с кода 32 по код 127 размещены коды символов английского алфавита, знаков препинания, цифр, арифметических действий и некоторых вспомогательных символов.

Аналогичные системы кодирования текстовых данных были разработаны и в других странах. Так, например, в СССР в этой области действовала система кодирования КОИ-7 (код обмена информацией, семизначный). Однако поддержка производителей оборудования и программ вывела американский код ASCII на уровень международного стандарта, и национальным системам кодирования пришлось «отступить» во вторую, расширенную часть системы кодирования, определяющую значения кодов со 128 по 255. Отсутствие единого стандарта в этой области привело к множественности одновременно действующих кодировок. Только в России можно указать три действующих стандарта кодировки и еще два устаревших.

Так, например, кодировка символов русского языка, известная как кодировка Windows-1251, была введена «извне» — компанией Microsoft, но, учитывая широкое распространение операционных систем и других продуктов этой компании в России, она глубоко закрепилась и нашла широкое распространение. Эта кодировка используется на большинстве локальных компьютеров, работающих на платформе Windows.

Другая распространенная кодировка носит название КОИ-8 (код обмена информацией, восьмизначный) — ее происхождение относится ко временам действия Совета Экономической Взаимопомощи государств Восточной Европы. Сегодня кодировка КОИ-8 имеет широкое распространение в компьютерных сетях на территории России и в российском секторе Интернета.

Международный стандарт, в котором предусмотрена кодировка символов русского алфавита, носит название кодировки ISO (International Standard Organization — Международный институт стандартизации). На практике данная кодировка используется редко.

В связи с изобилием систем кодирования текстовых данных, действующих в России, возникает задача межсистемного преобразования данных — это одна из распространенных задач информатики.
Универсальная система кодирования текстовых данных

Если проанализировать организационные трудности, связанные с созданием единой системы кодирования текстовых данных, то можно прийти к выводу, что они вызваны ограниченным набором кодов (256). В то же время очевидно, что если, например, кодировать символы не восьмиразрядными двоичными числами, а числами с большим количеством разрядов, то и диапазон возможных значений кодов станет намного больше. Такая система, основанная на 16-разрядном кодировании символов, получила название универсальной — UNICODE. Шестнадцать разрядов позволяют обеспечить уникальные коды для 65 536 различных символов — этого поля достаточно для размещения в одной таблице символов большинства языков планеты.

Несмотря на тривиальную очевидность такого подхода, простой механический переход на данную систему долгое время сдерживался из-за недостаточных ресурсов средств вычислительной техники (в системе кодирования UNICODE все текстовые документы автоматически становятся вдвое длиннее). Во второй половине 90-х годов технические средства достигли необходимого уровня обеспеченности ресурсами, и сегодня мы наблюдаем постепенный перевод документов и программных средств на универсальную систему кодирования. Для индивидуальных пользователей это еще больше добавило забот по согласованию документов, выполненных в разных системах кодирования, с программными средствами, но это надо понимать как трудности переходного периода.
Вернуться
2.6. Кодирование графических данных

Если рассмотреть с помощью увеличительного стекла черно-белое графическое изображение, напечатанное в газете или книге, то можно увидеть, что оно состоит из мельчайших точек, образующих характерный узор, называемый растром.

Растр — это метод кодирования графической информации, издавна принятый в полиграфии

Поскольку линейные координаты и индивидуальные свойства каждой точки (яркость) можно выразить с помощью целых чисел, то можно сказать, что растровое кодирование позволяет использовать двоичный код для представления графических данных. Общепринятым на сегодняшний день считается представление черно-белых иллюстраций в виде комбинации точек с 256 градациями серого цвета, и, таким образом, для кодирования яркости любой точки обычно достаточно восьмиразрядного двоичного числа.

Для кодирования цветных графических изображений применяется принцип декомпозиции произвольного цвета на основные составляющие. В качестве таких составляющих используют три основные цвета: красный (Red, R), зеленый (Green, G) и синий (Blue, В). На практике считается (хотя теоретически это не совсем так), что любой цвет, видимый человеческим глазом, можно получить путем механического смешения этих трех основных цветов. Такая система кодирования называется системой RGB по первым буквам названий основных цветов.

Если для кодирования яркости каждой из основных составляющих использовать по 256 значений (восемь двоичных разрядов), как это принято для полутоновых черно-белых изображений, то на кодирование цвета одной точки надо затратить 24 разряда. При этом система, кодирования обеспечивает однозначное определение 16,5 млн различных цветов, что на самом деле близко к чувствительности человеческого глаза. Режим представления цветной графики с использованием 24 двоичных разрядов называется полноцветным (True Color).

Каждому из основных цветов можно поставить в соответствие дополнительный цвет, то есть цвет, дополняющий основной цвет до белого. Нетрудно заметить, что для любого из основных цветов дополнительным будет цвет, образованный суммой пары остальных основных цветов. Соответственно, дополнительными цветами являются: голубой (Cyan, С), пурпурный (Magenta, М) и желтый (Yellow, Y). Принцип декомпозиции произвольного цвета на составляющие компоненты можно применять не только для основных цветов, но и для дополнительных, то есть любой цвет можно представить в виде суммы голубой, пурпурной и желтой составляющей. Такой метод кодирования цвета принят в полиграфии, но в полиграфии используется еще и четвертая краска — черная (Black, К). Поэтому данная система кодирования обозначается четырьмя буквами CMYK (черный цвет обозначается буквой К, потому, что буква В уже занята синим цветом), и для представления цветной графики в этой системе надо иметь 32 двоичных разряда. Такой режим тоже называется полноцветным. (True Color).

Если уменьшить количество двоичных разрядов, используемых для кодирования цвета каждой точки, то можно сократить объем данных, но при этом диапазон кодируемых цветов заметно сокращается. Кодирование цветной графики 16-разрядными двоичными числами называется режимом High Color.

При кодировании информации о цвете с помощью восьми бит данных можно передать только 256 цветовых оттенков. Такой метод кодирования цвета называется индексным. Смысл названия в том, что, поскольку 256 значений совершенно недостаточно, чтобы передать весь диапазон цветов, доступный человеческому глазу, код каждой точки растра выражает не цвет сам по себе, а только его номер (индекс) в некоей справочной таблице, называемой палитрой. Разумеется, эта палитра должна прикладываться к графическим данным — без нее нельзя воспользоваться методами воспроизведения информации на экране или бумаге (то есть, воспользоваться, конечно, можно, но из-за неполноты данных полученная информация не будет адекватной: листва на деревьях может оказаться красной, а небо — зеленым).
Вернуться
2.7. Кодирование звуковой информации

Приемы и методы работы со звуковой информацией пришли в вычислительную технику наиболее поздно. К тому же, в отличие от числовых, текстовых и графических данных, у звукозаписей не было столь же длительной и проверенной истории кодирования. В итоге методы кодирования звуковой информации двоичным кодом далеки от стандартизации. Множество отдельных компаний разработали свои корпоративные стандарты, но если говорить обобщенно, то можно выделить два основных направления.

Метод FM (Frequency Modulation) основан на том, что теоретически любой сложный звук можно разложить на последовательность простейших гармонических сигналов разных частот, каждый из которых представляет собой правильную синусоиду, а следовательно, может быть описан числовыми параметрами, то есть кодом. В природе звуковые сигналы имеют непрерывный спектр, то есть являются аналоговыми. Их разложение в гармонические ряды и представление в виде дискретных цифровых сигналов выполняют специальные устройства — аналогово-цифровые преобразователи (АЦП). Обратное преобразование для воспроизведения звука, закодированного числовым кодом, выполняют цифро-аналоговые преобразователи (ЦАП). При таких преобразованиях неизбежны потери информации, связанные с методом кодирования, поэтому качество звукозаписи обычно получается не вполне удовлетворительным и соответствует качеству звучания простейших электромузыкальных инструментов с окрасом, характерным для электронной музыки. В то же время данный метод кодирования обеспечивает весьма компактный код, и потому он нашел применение еще в те годы, когда ресурсы средств вычислительной техники были явно недостаточны.

Метод таблично волнового (Wave-Table) синтеза лучше соответствует современному уровню развития техники. Если говорить упрощенно, то можно сказать, что где-то в заранее подготовленных таблицах хранятся образцы звуков для множества различных музыкальных инструментов (хотя не только для них). В технике такие образцы называют сэмплами. Числовые коды выражают тип инструмента, номер его модели, высоту тона, продолжительность и интенсивность звука, динамику его изменения, некоторые параметры среды, в которой происходит звучание, а также прочие параметры, характеризующие особенности звука. Поскольку в качестве образцов используются «реальные» звуки, то качество звука, полученного в результате синтеза, получается очень высоким и приближается к качеству звучания реальных музыкальных инструментов.
Вернуться
2.8. Единицы представления данных

Существует множество систем представления данных. С одной из них, принятой в информатике и вычислительной технике, двоичным кодом, мы познакомились выше. Наименьшей единицей такого представления является бит (двоичный разряд).

Совокупность двоичных разрядов, выражающих числовые или иные данные, образует некий битовый рисунок. Практика показывает, что с битовым представлением удобнее работать, если этот рисунок имеет регулярную форму. В настоящее время в качестве таких форм используются группы из восьми битов, которые называются байтами.
Десятичное число Двоичное число Байт
1 1 00000001
2 10 00000010
… … …
255 11111111 11111111

Понятие о байте, как группе взаимосвязанных битов, появилось вместе с первыми образцами электронной вычислительной техники. Долгое время оно было машинно-зависимым, то есть для разных вычислительных машин длина байта была разной. Только в конце 60-х годов понятие байта стало универсальным машинно-независимым.

Выше мы видели, что во многих случаях целесообразно использовать не восьмиразрядное кодирование, а 16-разрядное, 24-разрядное, 32-разрядное и более. Группа из 16 взаимосвязанных бит (двух взаимосвязанных байтов) в информатике называется словом. Соответственно, группы из четырех взаимосвязанных байтов (32 разряда) называются удвоенным словом, а группы из восьми байтов (64 разряда) — учетверенным словом. Пока, на сегодняшний день, такой системы обозначения достаточно.
Вернуться
2.9. Единицы измерения данных

Существует много различных систем и единиц измерения данных. Каждая научная дисциплина и каждая область человеческой деятельности может использовать свои, наиболее удобные или традиционно устоявшиеся единицы. В информатике для измерения данных используют тот факт, что разные типы данных имеют универсальное двоичное представление, и потому вводят свои единицы данных, основанные на нем.

Наименьшей единицей измерения является байт. Поскольку одним байтом, как правило, кодируется один символ текстовой информации, то для текстовых документов размер в байтах соответствует лексическому объему в символах (пока исключение представляет рассмотренная выше универсальная кодировка UNICODE).

Более крупная единица измерения – килобайт (Кбайт). Условно можно считать, что 1 Кбайт примерно равен 1000 байт. Условность связана с тем, что для вычислительной техники, работающей с двоичными числами, более удобно представление чисел в виде степени двойки, и потому на самом деле 1 Кбайт равен 210 байт (1024 байт). Однако всюду, где это не принципиально, с инженерной погрешностью (до 3 %) «забывают» о «лишних» байтах.

В килобайтах измеряют сравнительно небольшие объемы данных. Условно можно считать, что одна страница неформатированного машинописного текста составляет около 2 Кбайт.

Более крупные единицы измерения данных образуются добавлением префиксов мега; гига; тера-; в более крупных единицах пока нет практической надобности.

1 Мбайт = 1024 Кбайт = 1020 байт

1 Гбайт = 1024 Мбайт = 1030 байт

1 Тбайт = 1024 Гбайт = 1040 байт

Особо обратим внимание на то, что при переходе к более крупным единицам «инженерная» погрешность, связанная с округлением, накапливается и становится недопустимой, поэтому на старших единицах измерения округление производится реже.
Вернуться
2.10. Единицы хранения данных

При хранении данных решаются две проблемы: как сохранить данные в наиболее компактном виде и как обеспечить к ним удобный и быстрый доступ (если доступ не обеспечен, то это не хранение). Для обеспечения доступа необходимо, чтобы данные имели упорядоченную структуру, а при этом, как мы уже знаем, образуется «паразитная нагрузка» в виде адресных данных. Без них нельзя получить доступ к нужным элементам данных, входящих в структуру.

Поскольку адресные данные тоже имеют размер и тоже подлежат хранению, хранить данные в виде мелких единиц, таких, как байты, неудобно. Их неудобно хранить и в более крупных единицах (килобайтах, мегабайтах и т. п.), поскольку неполное заполнение одной единицы хранения приводит к неэффективности хранения.

В качестве единицы хранения данных принят объект переменной длины, называемый файлом. Файл — это последовательность произвольного числа байтов, обладающая уникальным собственным именем. Обычно в отдельном файле хранят данные, относящиеся к одному типу. В этом случае тип данных определяет тип файла.

Проще всего представить себе файл в виде безразмерного канцелярского досье, в которое можно по желанию добавлять содержимое или извлекать его оттуда. Поскольку в определении файла нет ограничений на размер, можно представить себе файл, имеющий 0 байтов (пустой файл), и файл, имеющий любое число байтов.

В определении файла особое внимание уделяется имени. Оно фактически несет в себе адресные данные, без которых данные, хранящиеся в файле, не станут информацией из-за отсутствия метода доступа к ним. Кроме функций, связанных с адресацией, имя файла может хранить и сведения о типе данных, заключенных в нем. Для автоматических средств работы с данными это важно, поскольку по имени файла они могут автоматически определить адекватный метод извлечения информации из файла.
Глава 3. Основы защиты информации и сведений, составляющих государственную тайну.
3.1. Виды угрозы.

Прежде чем перейти к рассмотрению способов и методов защиты, давайте определим, какие существуют виды угрозы для информации, хранящейся на жестком диске компьютера.

Угрозы данным можно условно разделить на три типа, это:
Раскрытие информации.
Искажение информации.
Уничтожение информации.

Раскрытие данных предполагает, что кому-то случайно или после целенаправленных действий стал известен смысл информации. Этот вид нарушения встречается наиболее часто. Последствия могут быть самые разные. Очень важную информацию, тщательно оберегаемую от раскрытия, представляют сведения о людях: истории болезни, письма, состояния счетов в банках. Однако, по мнению большого числа специалистов, угрозы личности с введением компьютеров остались на том же уровне и в том же состоянии, что и до обширного использования ЭВМ.

Рассмотрим виды потерь, возникающие от раскрытия информации. Обычно данные о людях наиболее важны для них самих, но, как бы это не описывали в шпионских фильмах, мало что значат для похитителей. Иногда личные данные могут использоваться для компрометации не только отдельных людей, но целых организаций, например, если выяснится скрываемая прежняя судимость за растрату директора коммерческого банка. Но тот, кто компрометирует, не имея твердой моральной основы для это-го, в большинстве случаев теряет больше самого компрометируемого. Лишь малая кучка профессиональных негодяев из адвокатов и журналистов, которым уже нет дела до своего морального облика, наживается, занимаясь компрометацией. Тем не менее информация о людях ценна сама по себе, основной убыток от ее разглашения – личное несчастье человека. Другое дело – раскрытие стратегической управляющей информации. Если вскрыт долгосрочный план развития производства или анализ конъюнктуры на рынке, то потери для держателя этой информации будут невелики, но для конкурентов такие сведения очень важны. Думается, что хотя несанкционированное чтение данных бывает довольно часто, но редко когда приносит существенный вред, так как часто делается без злого умысла – случайно или из любопытства.

Искажения или уничтожение информации представляют существенно большую опасность. Во многих организациях жизненно важные данные хранятся в файлах: инвентарные описи, графики работ, списки заказов. Если такие данные будут искажены или стерты, то работа надолго парализуется. Самое опасное в этом то, что в примитивных криптографических системах необходимые для этого искажения могут быть сделаны и без знания ключа. Поэтому серьезные шифры должны гарантировать не только устойчивость их раскрытия, но и невозможность незаметной модификации одиночного бита. Владение ключом открывает полный доступ к данным – тогда можно скомпрометировать бухгалтерскую или конструкторскую систему, чуть исказив десяток-другой чисел, или удалить сведения о реальном движении товара, чтобы счет за него не был выставлен. Похоже, что наиболее уязвима для искажения информация экономического характера, где потери могут быть чрезвычайно велики. Руководителям научных и программных проектов следует помнить, что большую опасность для их данных представляют не конкуренты, а собственные сотрудники. По различнейшим причинам они могут уничтожить или исказить окончательный проект. Таким образом, критические данные обязательно должны храниться в шифрованном виде или хотя бы подтверждаться имитоприставкой или цифровой подписью, чтобы исключить искажения.

Помимо непосредственного участия человека в хищении, изменении и уничтожении информации эти функции могут взять на себя и вредоносные программы – вирусы.
Вернуться
3.2. Методы защиты информации.

Информация представляющая интерес для хищения или изменения находится под защитой. И чтобы получить доступ к ней необходимо пройти четыре уровня защиты.

Первый уровень защиты, встающей на пути злоумышленника является правовым.

Этот аспект защиты информации связан с соблюдением этических и юридических норм при передаче и обработке информации.

Преступлениям в сфере компьютерной информации посвящены три статьи Уголовного Кодекса России это:

Статья 272. Неправомерный доступ к компьютерной информации
Неправомерный доступ к охраняемой законом компьютерной информации, то есть информации на машинном носителе, в электронно-вычислительной машине (ЭВМ), системе ЭВМ или их сети, если это деяние повлекло уничтожение, блокирование, модификацию либо копирование информации, нарушение работы ЭВМ, системы ЭВМ или их сети, – наказывается штрафом в размере от двухсот до пятисот минимальных размеров оплаты труда или в размере заработной платы или иного дохода осужденного за период от двух до пяти месяцев, либо исправительными работами на срок от шести месяцев до одного года, либо лишением свободы на срок до двух лет.
То же деяние, совершенное группой лиц по предварительному сговору или организованной группой либо лицом с использованием своего служебного положения, а равно имеющим доступ к ЭВМ, системе ЭВМ или их сети, – наказывается штрафом в размере от пятисот до восьмисот минимальных размеров оплаты труда или в размере заработной платы или иного дохода осужденного за период от пяти до восьми месяцев, либо исправительными работами на срок от одного года до двух лет, либо арестом на срок от трех до шести месяцев, либо лишением свободы на срок до пяти лет.

Статья 273. Создание, использование и распространение вредоносных программ для ЭВМ
Создание программ для ЭВМ или внесение изменений в существующие программы, заведомо приводящих к несанкционированному уничтожению, блокированию, модификации либо копированию информации, нарушению работы ЭВМ, системы ЭВМ или их сети, а равно использование либо распространение таких программ или машинных носителей с такими программами – наказываются лишением свободы на срок до трех лет со штрафом в размере от двухсот до пятисот минимальных размеров оплаты труда или в размере заработной платы или иного дохода осужденного за период от двух до пяти месяцев.
Те же деяния, повлекшие по неосторожности тяжкие последствия, – наказываются лишением свободы на срок от трех до семи лет.

Статья 274. Нарушение правил эксплуатации ЭВМ, системы ЭВМ или их сети
Нарушение правил эксплуатации ЭВМ, системы ЭВМ или их сети лицом, имеющим доступ к ЭВМ, системе ЭВМ или их сети, повлекшее уничтожение, блокирование или модификацию охраняемой законом информации ЭВМ, если это деяние причинило существенный вред, – наказывается лишением права занимать определенные должности или заниматься определенной деятельностью на срок до пяти лет, либо обязательными работами на срок от ста восьмидесяти до двухсот сорока часов, либо ограничением свободы на срок до двух лет.
То же деяние, повлекшее по неосторожности тяжкие последствия, – наказывается лишением свободы на срок до четырех лет.

Второй барьер, препятствующий неправомочному использованию информации, административный. Руководители всех рангов с учетом правовых норм и социальных аспектов определяют, кто и какую информацию может собирать и хранить, устанавливают способы доступа к ней и ее распространения, права и обязанности лиц, их ответственность и процедуры выдачи разрешений на использование данных. Хотя многие решения руководства определяются внешними факторами, как политика, законы или постановления местных органов власти, но большинство проблем решается внутри организации именно так, как этого хочет администрация. Можно, например, приказом установить порядок обработки информации и списки допущенных к ней лиц, ввести системы защиты от подсматривания и сигнализацию, назначить сторожей и ответственных за безопасность. И до тех пор, пока не будут осуществлены действенные меры административной защиты ЭВМ, прочие меры будут, безусловно, неэффективны. Практическое осуществление административных мер связано главным образом с ограничением доступа людей к ЭВМ и обрабатываемой ей информации. Пусть организационные меры защиты информации по сравнению с этическими кажутся пресными и скучными, а по сравнению с программными и техническими лишенными конкретности и малоэффективными. Однако они представляют собой мощный барьер на пути незаконного использования информации и основу для других уровней – скопировать данные из компьютера в банке существенно сложнее, чем если бы он находился в учебном институте.

Из-за важности второго барьера защиты остановимся на проблемах его реализации несколько подробнее. Одна из основных причин, по которой трудно проводить в жизнь эффективные административные меры заключается в общественном мнении, что защита информации – новая и необычная задача.

Однако защита данных была всегда и во все времена, только осуществлялась иначе, когда не было ЭВМ. Теперь общество превратилось в индустрию информации – в США на нее приходится больше половины общей суммы заработной платы. Быстрота и исполнительность ЭВМ дали почву для возникновения ситуаций, которых не могло быть раньше. Копирование комплекта геологических карт района с указанием разведанных запасов золота раньше занимало недели работы, а теперь может быть сделано за минуту. Другая проблема при введении организационных мер защиты состоит в том, что их реализация создает неудобства для пользователей и, если хлопот много, то эффективность мер будет нулевой – дверь перестанут запирать, список паролей повесят на стену и так далее. При этом стоит помнить, что любые административные меры защиты вызывают у сотрудников ощущение ограничения их гражданских прав и необходимости выполнять дополнительную работу за ту же плату. Поэтому прежде чем приказывать, пробудите в подчиненных желание следовать этим приказам, иначе в отношениях с ними могут возникнуть проблемы. Нужно четко отдавать себе отчет в том, большинство организационных мер защиты основано на физическом преимуществе – нарушителя нужно найти и наказать. Практически все руководители считают, что виновных без персональной ответственности не найти, и это действительно так. Распределяя ответственность, сразу же подумайте о системе проверок выполнения мер защиты, которые должны быть неожиданными и предельно простыми.

Третий уровень защиты – аппаратно-программный. Он состоит в процедуре идентификации пользователя, открывающей доступ к данным и программным средствам. Аппаратная защита может быть выполнена в виде кодовой карточки, обмена вопросами и ответами с дежурным, ключами, жетонами. Эффективность ее вызывает сильные сомнения. Конечно, есть где-то в России машины со съемными винчестерами, которые по окончании работы запирают в сейф… А та защита, которая встречается, как запирание клавиатуры на ключ или пароли при загрузке не выдерживает подчас самых простых атак. Во-первых, обычно из 10 ключей, блокирующих клавиатуру ЭВМ, минимум 5 совпадают и, имея связку из 3 отмычек, можно открыть клавиатуру почти любой ЭВМ. Во-вторых, можно загрузить в ЭВМ с диска А: свою операционную систему, которая скопирует жесткий диск физически. Иногда даже это действие лишнее – популярный в начале девяностых годов администратор диска, запрашивающий пароль при загрузке, раскалывался, если с дискеты загружали DOS фирмы Digital Research. Некоторые компьютеры, как фирмы Hewlett Packard, имеют вполне надежные замки, блокирующие работу ЭВМ, например, Fort Lock. Дисковод А: при этом может быть либо отключен в BIOS от участия в загрузке, либо тоже блокирован хорошим замком.

В современной литературе по аппаратной защите чего только нет: индивидуальные карточки-пароли, идентификация подписи и голоса – но все это или дорого, или довольно ненадежно. Кроме того, слабое место аппаратной защиты – люди. Они не очень-то уважают хитрые железки, создающие им неудобства в работе. Поэтому индивидуальный ключ в виде заглушки с кодированной микросхемой, который должен охранять данные и программы конструкторской системы AUTOCAD от злоумышленников, обычно вставляется один раз и навсегда.

Программная защита может представлять из себя шифрование важных данных. Хотя большинство программ, таких как компоненты Microsoft Office, различные архиваторы и прочие коммерческие программные продукты ставят на файлы пароль на открытие, но это не является защитой, так как имеются программы, которые позволяют в течении нескольких минут подобрать пароль. Другим видом программной защиты является – антивирусная. Использование антивирусных сканеров, мониторов позволит предупредить вредоносную работу программ вирусов, которые не только могут уничтожить, украсть информацию, но также и изменить ее. Для антивирусной защиты во всем мире используются антивирусные программные пакеты, такие как Norton Antivirus, Antivirus Toolkit Pro. Dr.* Web. Они содержат как антивирусные сканеры, так и мониторы, что позволяет не только обнаружить и уничтожить заражение, но также и предупредить его возникновение.

Последний, четвертый уровень защиты – криптографический. В нашем контексте он представляют собой шифрование данных с целью скрыть их смысл. До тех пор, пока пользователь не идентифицирован по ключу, смысл данных ему недоступен. Данные в этом случае рассматриваются как сообщения, и для защиты их смысла используется классическая техника шифрования. Криптография предполагает наличие трех компонентов: данных, ключа и криптографического преобразования. При шифровании исходными данными будет сообщение, а результирующими – шифровка. При расшифровании они меняются местами. Считается, что криптографическое преобразование известно всем, но, не зная ключа, с помощью которого пользователь закрыл смысл сообщения от любопытных глаз, требуется потратить невообразимо много усилий на восстановление текста сообщения. Такое требование удовлетворяется рядом современных криптографических систем, например, созданных по “Стандарту шифрования данных Национального бюро стандартов США” DES и ГОСТ 28147-89. Так как ряд данных критичен к некоторым их искажениям, которые нельзя обнаружить из контекста, то обычно используются лишь такие способы шифрования, которые чувствительны к искажению любого символа. Они гарантируют не только высокую секретность, но и эффективное обнаружение любых искажений или ошибок.

Однако не бывает совершенно идеального алгоритма шифрования. Любой шифр можно вскрыть, любую защиту обойти, даже антивирус может не обнаружить новый вирус. Поэтому самым надежным способом защиты может считаться только административная.

Глава 4. История развития персонального компьютера
4.1. С древнейших времен и до начала 20 века

История создания средств цифровой вычислительной техники уходит в глубь веков. Она увлекательна и поучительна, с нею связаны имена выдающихся ученых мира.

В дневниках гениального итальянца Леонардо да Винчи (1452-1519) уже в наше время был обнаружен ряд рисунков, которые оказались эскизным наброском суммирующей вычислительной машины на зубчатых колесах, способной складывать 13-разрядные десятичные числа.

Рис. 1 Леонардо да Винчи
(автопортрет)

Специалисты известной американской фирмы IBM воспроизвели машину в металле и убедились в полной состоятельности идеи ученого. Его суммирующую машину можно считать изначальной вехой в истории цифровой вычислительной техники. Это был первый цифровой сумматор, своеобразный зародыш будущего электронного сумматора – важнейшего элемента современных ЭВМ, пока еще механический, очень примитивный (с ручным управлением). В те далекие от нас годы гениальный ученый был, вероятно, единственным на Земле человеком, который понял необходимость создания устройств для облегчения труда при выполнении вычислений.

Однако потребность в этом была настолько малой (точнее, ее не было совсем!), что лишь через сто с лишним лет после смерти Леонардо да Винчи нашелся другой европеец – немецкий ученый Вильгельм Шиккард (1592-1636), не читавший, естественно, дневников великого итальянца, – который предложил свое решение этой задачи. Причиной, побудившей Шиккарда разработать счетную машину для суммирования и умножения шестиразрядных десятичных чисел, было его знакомство с польским астрономом И. Кеплером. Ознакомившись с работой великого астронома, связанной в основном с вычислениями, Шиккард загорелся идеей оказать ему помощь в нелегком труде. В письме на его имя, отправленном в 1623 г., он приводит рисунок машины и рассказывает, как она устроена. К сожалению, данных о дальнейшей судьбе машины история не сохранила. По-видимому, ранняя смерть от чумы, охватившей Европу, помешала ученому выполнить его замысел.

Об изобретениях Леонардо да Винчи и Вильгельма Шиккарда стало известно лишь в наше время. Современникам они были неизвестны.

Рис. 2 Суммирующая машина Паскаля

В XVII веке положение меняется. В 1641-1642 гг. девятнадцатилетний Блез Паскаль (1623-1662), тогда еще мало кому известный французский ученый, создает действующую суммирующую машину (“паскалину”). Вначале он сооружал ее с одной единственной целью – помочь отцу в расчетах, выполняемых при сборе налогов. В последующие четыре года им были созданы более совершенные образцы машины. Они были шести- и восьми разрядными, строились на основе зубчатых колес, могли производить суммирование и вычитание десятичных чисел. Было создано примерно 50 образцов машин, Б. Паскаль получил королевскую привилегию на их производство, но практического применения “паскалины” не получили, хотя о них много говорилось и писалось (в основном, во Франции).

В 1673 г. другой великий европеец, немецкий ученый Вильгельм Готфрид Лейбниц (1646-1716), создает счетную машину (арифметический прибор, по словам Лейбница) для сложения и умножения двенадцатиразрядных десятичных чисел. К зубчатым колесам он добавил ступенчатый валик, позволяющий осуществлять умножение и деление. “…Моя машина дает возможность совершать умножение и деление над огромными числами мгновенно, притом не прибегая к последовательному сложению и вычитанию”, – писал Лейбниц одному из своих друзей. О машине Лейбница было известно в большинстве стран Европы.

В ЭВМ, появившихся более двух веков спустя, устройство, выполняющее арифметические операции (те же самые, что и “арифметический прибор” Лейбница), получило название арифметического. Позднее, по мере добавления ряда логических действий, его стали называть арифметико-логическим (АЛУ). Оно стало основным устройством современных компьютеров.

Рис. 3 Медаль, нарисованная Лейбницем,
поясняет соотношение между двоичной
и десятичной системами счисления

Таким образом, два гения XVII века установили первые вехи в истории развития цифровой вычислительной техники. Заслуги Лейбница, однако, не ограничиваются созданием “арифметического прибора”. Начиная со студенческих лет и до конца жизни он занимался исследованием свойств двоичной системы счисления, ставшей в дальнейшем основной при создании компьютеров. Он придавал ей некий мистический смысл и считал, что на ее базе можно создать универсальный язык для объяснения явлений мира и использования во всех науках, в том числе в философии. Сохранилось изображение медали, нарисованное Лейбницем в 1697 г., поясняющее соотношение между двоичной и десятичной системами исчисления.

В 1799 г. во Франции Жозеф Мари Жакард (1752-1834) изобрел ткацкий станок, в котором для задания узора на ткани использовались перфокарты. Необходимые для этого исходные данные записывались в виде пробивок в соответствующих местах перфокарты. Так появилось первое примитивное устройство для запоминания и ввода программной (управляющей ткацким процессом в данном случае) информации.

Рис. 4 Ткацкий станок Жакарда

В 1795 г. там же математик Гаспар Прони (1755-1839), которому французское правительство поручило выполнение работ, связанных с переходом на метрическую систему мер, впервые в мире разработал технологическую схему вычислений, предполагающую разделение труда математиков на три составляющие. Первая группа из нескольких высококвалифицированных математиков определяла (или разрабатывала) методы численных вычислений, необходимые для решения задачи, позволяющие свести вычисления к арифметическим операциям – сложить, вычесть, умножить, разделить. Задание последовательности арифметических действий и определение исходных данных, необходимых при их выполнении (“программирование”), осуществляла вторая, несколько более расширенная по составу, группа математиков. Для выполнения составленной “программы”, состоящей из последовательности арифметических действий, не было необходимости привлекать специалистов высокой квалификации. Эта, наиболее трудоемкая, часть работы поручалась третьей и самой многочисленной группе вычислителей. Такое разделение труда позволило существенно ускорить получение результатов и повысить их надежность. Но главное состояло в том, что этим был дан импульс дальнейшему процессу автоматизации самой трудоемкой (но и самой простой!) третьей части вычислений – переходу к созданию цифровых вычислительных устройств с программным управлением последовательностью арифметических операций.

Этот завершающий шаг в эволюции цифровых вычислительных устройств (механического типа) сделал английский ученый Чарльз Беббидж (1791-1871). Блестящий математик, великолепно владеющий численными методами вычислений, уже имеющий опыт в создании технических средств для облегчения вычислительного процесса (разностная машина Беббиджа для табулирования полиномов, 1812-1822 гг.), он сразу увидел в технологии вычислений, предложенной Г. Прони, возможность дальнейшего развития своих работ.

Рис. 5 Чарльз Беббидж

Аналитическая машина (так назвал ее Беббидж), проект которой он разработал в 1836-1848 годах, явилась механическим прототипом появившихся спустя столетие ЭВМ. В ней предполагалось иметь те же, что и в ЭВМ, пять основных устройств: арифметическое, памяти, управления, ввода, вывода. Для арифметического устройства Ч. Беббидж использовал зубчатые колеса, подобные тем, что использовались ранее. На них же Ч. Беббидж намеревался построить устройство памяти из 1000 50-разрядных регистров (по 50 колес в каждом!). Программа выполнения вычислений записывалась на перфокартах (пробивками), на них же записывались исходные данные и результаты вычислений. В число операций, помимо четырех арифметических, была включена операция условного перехода и операции с кодами команд. Автоматическое выполнение программы вычислений обеспечивалось устройством управления. Время сложения двух 50-разрядных десятичных чисел составляло, по расчетам ученого, 1 с., умножения – 1 мин.

Рис. 6. Машина Бэббиджа

Механический принцип построения устройств и использование десятичной системы счисления, затрудняющей создание простой элементной базы, не позволили Ч. Беббиджу полностью реализовать свой далеко идущий замысел, пришлось ограничиться скромными макетами. Иначе по размерам машина сравнялась бы с локомотивом, и чтобы привести в движение ее устройства, понадобился бы паровой двигатель.

Программы вычислений на машине Беббиджа, составленные дочерью Байрона Адой Августой Лавлейс (1815-1852), поразительно схожи с программами, составленными впоследствии для первых ЭВМ. Не случайно замечательную женщину назвали первым программистом мира.

Еще более изумляют ее высказывания по поводу возможностей машины: “…Нет конца демаркационной линии, ограничивающей возможности аналитической машины. Фактически аналитическую машину можно рассматривать как материальное и механическое выражение анализа”.

Несмотря на все старания Ч. Беббиджа и А. Лавлейс, машину построить не удалось… Современники, не видя конкретного результата, разочаровались в работе ученого. Он опередил свое время. И сам понимал это: “Вероятно, пройдет половина столетия, прежде чем кто-нибудь возьмется за такую малообещающую задачу без тех указаний, которые я оставил после себя. И если некто, не предостереженный моим примером, возьмет на себя эту задачу и достигнет цели в реальном конструировании машины, воплощающей в себя всю исполнительную часть математического анализа с помощью простых механических или других средств, я не побоюсь поплатиться своей репутацией в его пользу, т. к. только он один полностью сможет понять характер моих усилий и ценность их результатов”. После смерти Ч. Беббиджа Комитет Британской научной ассоциации, куда входили крупные ученые, рассмотрел вопрос, что делать с неоконченной аналитической машиной и для чего она может быть рекомендована.

Рис. 7 Ада Августа Лавлейс

К чести Комитета было сказано: “…Возможности аналитической машины простираются так далеко, что их можно сравнить только с пределами человеческих возможностей… Успешная реализация машины может означать эпоху в истории вычислений, равную введению логарифмов”.

Непонятым оказался еще один выдающийся англичанин, живший в те же годы, – Джордж Буль (1815-1864). Разработанная им алгебра логики (алгебра Буля) нашла применение лишь в следующем веке, когда понадобился математический аппарат для проектирования схем ЭВМ, использующих двоичную систему счисления. “Соединил” математическую логику с двоичной системой счисления и электрическими цепями американский ученый Клод Шеннон в своей знаменитой диссертации (1936 г.).

Через 63 года после смерти Ч. Беббиджа (он почти угадал срок!) нашелся “некто”, взявший на себя задачу создать машину, подобную по принципу действия той, которой отдал жизнь Ч. Беббидж. Им оказался… немецкий студент Конрад Цузе (1910-1985). Работу по созданию машины он начал в 1934 г., за год до получения инженерного диплома. Конрад (друзья его звали Куно) ничего не знал ни о машине Беббиджа, ни о работах Лейбница, ни о алгебре Буля, которая словно создана для того, чтобы проектировать схемы с использованием элементов, имеющих лишь два устойчивых состояния.

Рис. 8 Конрад Цузе

Тем не менее, он оказался достойным наследником В. Лейбница и Дж. Буля, поскольку вернул к жизни уже забытую двоичную систему исчисления, а при расчете схем использовал нечто подобное булевой алгебре. В 1937 г. машина Z1 (что означало “Цузе 1”) была готова и заработала!

Она была, подобно машине Беббиджа, чисто механической. Использование двоичной системы сотворило чудо – машина занимала всего два квадратных метра на столе в квартире изобретателя! Длина слов составляла 22 двоичных разряда. Выполнение операций производилось с использованием плавающей запятой. Для мантиссы и ее знака отводилось 15 разрядов, для порядка – 7. Память (тоже на механических элементах) содержала 64 слова (против 1000 у Беббиджа, что тоже уменьшило размеры машины). Числа и программа вводилась вручную. Еще через год в машине появилось устройство ввода данных и программы, использовавшее киноленту, на которую перфорировалась информация, а механическое арифметическое устройство заменило АУ последовательного действия на телефонных реле. В этом К. Цузе помог австрийский инженер Гельмут Шрайер, специалист в области электроники. Усовершенствованная машина получила название Z2. В 1941 г. Цузе с участием Г. Шрайера создает релейную вычислительную машину с программным управлением (Z3), содержащую 2000 реле и повторяющую основные характеристики Z1 и Z2. Она стала первой в мире полностью релейной цифровой вычислительной машиной с программным управлением и успешно эксплуатировалась. Ее размеры лишь немного превышали размеры Z1 и Z2.

Еще в 1938 г. Г. Шрайер предложил использовать для построения Z2 электронные лампы вместо телефонных реле. Тогда К. Цузе ему сказал: “Вероятно, ты выпил слишком много шнапса!”

Но в годы Второй мировой войны он сам пришел к выводу о возможности лампового варианта машины. Друзья выступили с этим сообщением в кругу ученых мужей и подверглись насмешкам и осуждению. Названная ими цифра – 2000 электронных ламп, необходимых для построения машины – могла остудить самые горячие головы. Лишь один из слушателей поддержал их замысел. Они не остановились на этом и представили свои соображения в военное ведомство, указав, что новая машина могла бы использоваться для расшифровки радиограмм союзников. Их спросили:

– А когда будет готова машина?

– Года через два!

– К этому времени мы победим, и машина не понадобится!

Так, возможно, был упущен шанс создать в Германии не только первую релейную, но и первую в мире электронную вычислительную машину.

К этому времени К. Цузе организовал небольшую фирму, и ее усилиями были созданы две специализированные релейные машины S1 и S2. Первая – для расчета крыльев “летающих торпед” – самолетов-снарядов, которыми обстреливался Лондон, вторая – для управления ими. Она оказалась первой в мире управляющей вычислительной машиной.

К концу войны К. Цузе создает еще одну релейную вычислительную машину – Z4. Она окажется единственной сохранившейся из всех машин, разработанных им. Остальные будут уничтожены при бомбежке Берлина и заводов, где они выпускались.

Итак, К. Цузе установил несколько вех в истории развития компьютеров: первым в мире использовал при построении вычислительной машины двоичную систему исчисления (1937 г.), создал первую в мире релейную вычислительную машину с программным управлением (1941 г.) и цифровую специализированную управляющую вычислительную машину (1943 г.).

Эти воистину блестящие достижения, однако, существенного влияния на развитие вычислительной техники в мире (за исключением Германии) не оказали…

Дело в том, что публикаций о них и какой-либо рекламы из-за секретности работ не было, и поэтому о них стало известно лишь спустя несколько лет после завершения Второй мировой войны.

По-другому развивались события в США. В 1944 г. ученый Гарвардского университета Говард Айкен (1900-1973) создает первую в США (тогда считалось первую в мире!) релейно-механическую цифровую вычислительную машину МАРК-1. По своим характеристикам (производительность, объем памяти) она была близка к Z3, но существенно отличалась размерами (длина 17 м, высота 2,5 м, вес 5 тонн, 500 тысяч механических деталей).

В машине использовалась десятичная система счисления. Как и в машине Беббиджа, в счетчиках и регистрах памяти использовались зубчатые колеса. Управление и связь между ними осуществлялась с помощью реле, число которых превышало 3000. Г. Айкен не скрывал, что многое в конструкции машины он заимствовал у Ч. Беббиджа. “Если бы был жив Беббидж, мне нечего было бы делать”, – говорил он. Замечательным качеством машины была ее надежность. Установленная в Гарвардском университете, она проработала там 16 лет!

Вслед за МАРК-1 ученый создает еще три машины (МАРК-2, МАРК-3 и МАРК-4) – тоже с использованием реле, а не электронных ламп, объясняя это ненадежностью последних.

В отличие от работ Цузе, которые велись с соблюдением секретности, разработка МАРК-1 проводилась открыто, и о создании необычной по тем временам машины быстро узнали во многих странах. Шутка ли, за день машина выполняла вычисления, на которые ранее тратилось полгода! Дочь К. Цузе, работавшая в военной разведке и находившаяся в то время в Норвергии, прислала отцу вырезку из газеты, сообщающую о грандиозном достижении американского ученого.

К. Цузе мог торжествовать. Он во многом опередил появившегося соперника. Позднее он направит ему письмо и скажет об этом. А правительство Германии в 1980 г. выделит ему 800 тыс. марок для воссоздания Z1, что он и осуществил вместе с помогавшими ему студентами. Своего “воскресшего” первенца К. Цузе передал на вечное хранение в музей вычислительной техники в Падеборне.

Продолжить рассказ о Г. Айкене хочется любопытным эпизодом. Дело в том, что работы по созданию МАРК-1 выполнялись на производственных помещениях фирмы IBM. Ее руководитель в то время Том Уотсон, любивший порядок во всем, настоял, чтобы огромная машина была “одета” в стекло и сталь, что делало ее очень респектабельной. Когда машину перевезли в университет и представили публике, то имя Т. Уотсона в числе создателей машины не было упомянуто, что страшно разозлило руководителя IBM, вложившего в создание машины полмиллиона долларов. Он решил “утереть нос” Г. Айкену. В результате появился релейно-электронный монстр, в огромных шкафах которого размещались 23 тыс. реле и 13 тыс. электронных ламп! Машина оказалась неработоспособной. В конце-концов она была выставлена в Нью Йорке для показа неискушенной публике. На этом гиганте завершился период электромеханических цифровых вычислительных машин.

Что касается Г. Айкена, то, вернувшись в университет, он первым в мире начал чтение лекций по новому тогда предмету, получившему сейчас название Computer Science – наука о компьютерах; он же одним из первых предложил использовать машины в деловых расчетах и бизнесе. Побудительным мотивом для создания МАРК-1 было стремление Г Айкена помочь себе в многочисленных расчетах, которые ему приходилось делать при подготовке диссертационной работы (посвященной, кстати, изучению свойств электронных ламп).

Однако уже надвигалось время, когда объем расчетных работ в развитых странах стал нарастать как снежный ком, в первую очередь в области военной техники, чему способствовала Вторая мировая война.

В 1941 г. сотрудники лаборатории баллистических исследований Абердинского артиллерийского полигона в США обратились в расположенную неподалеку техническую школу при Пенсильванском университете за помощью в составлении таблиц стрельбы для артиллерийских орудий, уповая на имевшийся в школе дифференциальный анализатор Буша – громоздкое механическое аналоговое вычислительное устройство. Однако сотрудник школы физик Джон Мочли (1907-1986), увлекавшийся метеорологией и смастеривший для решения задач в этой области несколько простейших цифровых устройств на электронных лампах, предложил нечто иное. Им было составлено (в августе 1942 г.) и отправлено в военное ведомство США предложение о создании мощного компьютера (по тем временам) на электронных лампах. Эти, воистину исторические пять страничек были положены военными чиновниками под сукно, и предложение Мочли, вероятно, осталось бы без последствий, если бы им не заинтересовались сотрудники полигона. Они добились финансирования проекта, и в апреле 1943 г. был заключен контракт между полигоном и Пенсильванским университетом на создание вычислительной машины, названной электронным цифровым интегратором и компьютером (ЭНИАК). На это отпускалось 400 тыс. долларов. К работе было привлечено около 200 человек, в том числе несколько десятков математиков и инженеров. Руководителями работы стали Дж. Мочли и талантливый инженер-электронщик Преспер Эккерт (1919-1995). Именно он предложил использовать для машины забракованные военными представителями электронные лампы (их можно было получить бесплатно!). Учитывая, что требуемое количество ламп приближалось к 20 тысячам, а средства, выделенные на создание машины весьма ограничены, – это было мудрым решением. Он же предложил снизить напряжение накала ламп, что существенно увеличило надежность их работы. Напряженная работа завершилась в конце 1945 года. ЭНИАК был предъявлен на испытания и успешно их выдержал. В начале 1946 г. машина начала считать реальные задачи. По размерам она была более впечатляющей, чем МАРК-1: 26 м в длину, 6 м в высоту, вес 35 тонн. Но поражали не размеры, а производительность – она в 1000 раз превышала производительность МАРК?1! Таков был результат использования электронных ламп!

В остальном ЭНИАК мало чем отличался от МАРК-1. В нем использовалась десятичная система исчисления. Разрядность слов – 10 десятичных разрядов. Емкость электронной памяти – 20 слов. Ввод программ – с коммутационного поля, что вызывало массу неудобств: смена программы занимала многие часы и даже дни.

В 1945 г., когда завершались работы по созданию ЭНИАК, и его создатели уже разрабатывали новый электронный цифровой компьютер ЭДВАК в котором намеривались размещать программы в оперативной памяти, чтобы устранить основной недостаток ЭНИАКа – сложность ввода программ вычислений, к ним в качестве консультанта был направлен выдающийся математик, участник Матхеттенского проекта по созданию атомной бомбы Джон фон Нейман (1903-1957). Следует сказать, что разработчики машины, судя по всему, не просили этой помощи. Дж. Нейман, вероятно, сам проявил инициативу, услышав от своего приятеля Г. Голдстайна, математика, работавшего в военном ведомстве, об ЭНИАКе. Он сразу оценил перспективы развития новой техники и принял самое активное участие в завершении работ по созданию ЭДВАКа. Написанная им часть отчета по машине содержала общее описание ЭДВАКа и основные принципы построения машины (1945г.).

Она была размножена Г. Голдстайном (без согласования с Дж. Мочли и П. Эккертом) и разослана в ряд организаций. В 1946г. Нейманом, Голдстайном и Берксом (все трое работали в Принстонском институте перспективных исследований) был составлен еще один отчет (“Предварительное обсуждение логического конструирования устройства”, июнь 1946 г.), который содержал развернутое и детальное описание принципов построения цифровых электронных вычислительных машин. В том же году отчет был распространен на летней сессии Пенсильванского университета.

Изложенные в отчете принципы сводились к следующему.
Машины на электронных элементах должны работать не в десятичной, а двоичной системе исчисления.
Программа должна размещаться в одном из блоков машины – в запоминающем устройстве, обладающем достаточной емкостью и соответствующими скоростями выборки и записи команд программы.
Программа, так же как и числа, с которыми оперирует машина, записывается в двоичном коде. Таким образом, по форме представления команды и числа однотипны. Это обстоятельство приводит к следующим важным последствиям: промежуточные результаты вычислений, константы и другие числа могут размещаться в том же запоминающем устройстве, что и программа; числовая форма записи программы позволяет машине производить операции над величинами, которыми закодированы команды программы.
Трудности физической реализации запоминающего устройства, быстродействие которого соответствует скорости работы логических схем, требует иерархической организации памяти.
Арифметическое устройство машины конструируется на основе схем, выполняющих операцию сложения, создание специальных устройств для выполнения других операций нецелесообразно.
В машине используется параллельный принцип организации вычислительного процесса (операции над словами производятся одновременно по всем разрядам).

Нельзя сказать, что перечисленные принципы построения ЭВМ были впервые высказаны Дж. Нейманом и остальными авторами. Их заслуга в том, что они, обобщив накопленный опыт построения цифровых вычислительных машин, сумели перейти от схемных (технических) описаний машин к их обобщенной логически ясной структуре, сделали важный шаг от теоретически важных основ (машина Тьюринга) к практике построения реальных ЭВМ. Имя Дж. Неймана привлекло внимание к отчетам, а высказанные в них принципы и структура ЭВМ получили название неймановских.

Рис. 9 Джон фон Нейман (1903 – 1957)

Под руководством Дж. Неймана в Принстонском институте перспективных исследований в 1952 г. была создана еще одна машина на электронных лампах МАНИАК (для расчетов по созданию водородной бомбы), а в 1954 г. еще одна, уже без участия Дж. Неймана. Последняя была названа в честь ученого “Джониак”. К сожалению, всего три года спустя Дж. Нейман тяжело заболел и умер.

Дж. Мочли и П. Эккерт, обиженные тем, что в отчёте Принстонского университета они не фигурировали и выстраданное ими решение располагать программы в оперативной памяти (и не только это!) стали приписывать Дж. Нейману, а, с другой стороны, увидев, что многие, возникшие как грибы после дождя, фирмы стремятся захватить рынок ЭВМ, решили взять патенты на ЭНИАК.

Однако в этом им было… отказано! Дотошные соперники разыскали информацию о том, что еще в 1938-1941 годах работавший в сельскохозяйственном училище штата Айова профессор математики Джон Атанасов (1903-1996), болгарин по происхождению, вместе со своим помощником Клиффордом Бери разработал макет специализированной цифровой вычислительной машины (с использованием двоичной системы исчисления ) для решения систем алгебраических уравнений. Макет содержал 300 электронных ламп, имел память на конденсаторах. Таким образом, пионером ламповой техники в области компьютеров оказался Атанасов!

К тому же Дж. Мочли, как выяснил суд, разбиравший (почти 20 лет!) дело по выдаче патента, оказывается, был знаком с работами Атанасова не понаслышке, а провел пять дней в его лаборатории в дни создания макета.

Что касается хранения программ в оперативной памяти и теоретического обоснования основных свойств современных компьютеров, то и здесь Дж. Мочли и П. Эккерт не были первыми. Еще в 1936 г. об этом сказал Алан Тьюринг (1912-1953) – гениальный, математик, опубликовавший тогда свою замечательную работу “О вычислимых числах” (в 24 года!).

Полагая, что наиболее важная черта алгоритма (задания на обработку информации) – это возможность механического характера его выполнения, А. Тьюринг предложил для исследования алгоритмов абстрактную машину, получившую название “машина Тьюринга”. В ней он предвосхитил основные свойства современного компьютера. Данные должны были вводиться в машину с бумажной ленты, поделенной на клетки-ячейки. Каждая из них содержала символ или была пустой. Машина могла не только обрабатывать записанные на ленте символы, но и изменять их, стирая старые и записывая новые в соответствии с инструкциями, хранимыми в ее внутренней памяти. Для этого она дополнялась логическим блоком, содержащим функциональную таблицу, определяющую последовательность действий машины. Иначе говоря, А. Тьюринг предусмотрел наличие некоторого запоминающего устройства для хранения программы действий машины. Но не только этим определяются его выдающиеся заслуги.

В 1942-1943 годах, в разгар Второй мировой войны в Англии в обстановке строжайшей секретности была построена и успешно эксплуатировалась первая в мире специализированная цифровая вычислительная машина “Колоссус” на электронных лампах (2000 ламп). В Блечли-Парке (Government Code and Cypher School, Bletchley Park) А. Тьюринг создал совместно с Г. Уэлчманом (G. W. Welchman) иинженером Г. Кином (H. Keen) дешифровочную машину “Бомба” для расшифровки секретных радиограмм немецких радиостанций. Она успешно справилась с поставленной задачей. Один из участников создания машины так оценил заслуги А. Тьюринга:”Я не хочу сказать, что мы выиграли войну благодаря Тьюрингу, но беру на себя смелость сказать, что без него мы могли ее и проиграть”. После войны ученый принял участие в создании универсальной ламповой ЭВМ. Внезапная смерть на 41-м году жизни помешала реализовать в полной мере его выдающийся творческий потенциал. В память об А. Тьюринге в установлена премия его имени за выдающиеся работы в области математики и информатики. ЭВМ “Колоссус” восстановлена и хранится в музее местечка Блечли-Парк, где она была создана.

Однако в практическом плане Дж. Мочли и П. Эккерт действительно оказались первыми, кто, поняв целесообразность хранения программы в оперативной памяти машины (независимо от А. Тьюринга), заложили это в реальную машину – свою вторую машину ЭДВАК. К сожалению, ее разработка задержалась, и она была введена в эксплуатацию только в 1951г. В это время в Англии уже два года работала ЭВМ с хранимой в оперативной памяти программой! Дело в том, что в 1946 г. в разгар работ по ЭДВАК Дж. Мочли прочитал курс лекций по принципам построения ЭВМ в Пенсильванском университете. Среди слушателей оказался молодой ученый Морис Уилкс (родился в 1905 г.) из Кембриджского университета, того самого, где сто лет назад Ч. Беббидж предложил проект цифровой машины с программным управлением. Вернувшись в Англию, талантливый молодой ученый сумел за очень короткий срок создать ЭВМ ЭДСАК (электронный компьютер на линиях задержки) последовательного действия с памятью на ртутных трубках с использованием двоичной системы исчисления и хранимой в оперативной памяти программой. В 1949 г. машина заработала! Так М. Уилкс оказался первым в мире, кто сумел создать ЭВМ с хранимой в оперативной памяти программой. В 1951 г. он же предложил микропрограммное управление операциями. ЭДСАК стал прототипом первой в мире серийной коммерческой ЭВМ ЛЕО (1953 г.). Дж. Мочли и П. Эккерт пытались организовать собственную компанию, но ее пришлось продать из-за возникших финансовых затруднений. Их новая разработка – машина УНИВАК, предназначенная для коммерческих расчетов, перешла в собственность фирмы Ремингтон Рэнд и во многом способствовала ее успешной деятельности.

Хотя Дж. Мочли и П. Эккерт не получили патента на ЭНИАК, его создание стало, безусловно, золотой вехой в развитии цифровой вычислительной техники, отмечающей переход от механических и электромеханических к электронным цифровым вычислительным машинам.

Во второй половине XX века развитие технических средств пошло значительно быстрее. Еще стремительней развивалась сфера программного обеспечения, новых методов численных вычислений, теория искусственного интеллекта.
Вернуться
4.2. Двадцатый век – поколения ЭВМ

Идея делить машины на поколения вызвана к жизни тем, что за время короткой ис-тории своего развития компьютерная техника проделала большую эволюцию как в смысле элементной базы (лампы, транзисторы, микросхемы и др.), так и в смысле изменения её структуры, появления новых возможностей, расширения областей применения и характе-ра использования.
Компьютеры первого поколения

К первому поколению обычно относят машины, созданные на рубеже 50-х годов. В их схемах использовались электронные лампы. Эти компьютеры были огромными, не-удобными и слишком дорогими машинами, которые могли приобрести только крупные корпорации и правительства. Лампы потребляли огромное количество электроэнергии и выделяли много тепла.

Рис. 10 Электронная лампа

Набор команд был небольшой, схема арифметико-логического устройства и устройства управления достаточно проста, программное обеспечение практически отсутствовало. Показатели объема оперативной памяти и быстродействия были низкими. Для ввода-вывода использовались перфоленты, перфокарты, магнитные ленты и печатающие устройства.

Быстродействие порядка 10-20 тысяч операций в секунду.

Но это только техническая сторона. Очень важна и другая – способы использова-ния компьютеров, стиль программирования, особенности математического обеспечения.

Рис. 11 Перфокарта

Программы для этих машин писались на языке конкретной машины. Математик, составивший программу, садился за пульт управления машины, вводил и отлаживал про-граммы и производил по ним счет. Процесс отладки был наиболее длительным по време-ни.

Несмотря на ограниченность возможностей, эти машины позволили выполнить сложнейшие расчёты, необходимые для прогнозирования погоды, решения задач атомной энергетики и др.

Опыт использования машин первого поколения показал, что существует огромный разрыв между временем, затрачиваемым на разработку программ, и временем счета.

Эти проблемы начали преодолевать путем интенсивной разработки средств автоматизации программирования, создания систем обслуживающих программ, упрощающих работу на машине и увеличивающих эффективность её использования. Это, в свою очередь, потребовало значительных изменений в структуре компьютеров, направленных на то, чтобы приблизить её к требованиям, возникшим из опыта эксплуатации компьютеров.

Рис. 12 ЭВМ “Урал”

Отечественные машины первого поколения: МЭСМ (малая электронная счётная машина), БЭСМ, Стрела, Урал, М-20.
Компьютеры второго поколения

Второе поколение компьютерной техники – машины, сконструированные при-мерно в 1955-65 гг. Характеризуются использованием в них как электронных ламп, так и дискретных транзисторных логических элементов. Их оперативная память была построена на магнитных сердечниках. В это время стал расширяться диапазон применяемого обору-дования ввода-вывода, появились высокопроизводительные устройства для работы с маг-нитными лентами, магнитные барабаны и первые магнитные диски.

Быстродействие – до сотен тысяч операций в секунду, ёмкость памяти – до не-скольких десятков тысяч слов.

Появились так называемые языки высокого уровня, средства которых допускают описание всей необходимой последовательности вычислительных действий в наглядном, легко воспринимаемом виде.

Рис. 13 БЭСМ-6. Второе поколение

Появился широкий набор библиотечных программ для решения разнообразных ма-тематических задач. Появились мониторные системы, управляющие режимом трансляции и исполнения программ. Из мониторных систем в дальнейшем выросли современные опе-рационные системы.

Для некоторых машин второго поколения уже были созданы операционные систе-мы с ограниченными возможностями.

Рис. 14 Память на магнитных сердечниках

Машинам второго поколения была свойственна программная несовместимость, ко-торая затрудняла организацию крупных информационных систем. Поэтому в середине 60-х годов наметился переход к созданию компьютеров, программно совместимых и постро-енных на микроэлектронной технологической базе.
Компьютеры третьего поколения

Машины третьего поколения созданы примерно после 60-x годов. Поскольку процесс создания компьютерной техники шел непрерывно, и в нём участвовало множество людей из разных стран, имеющих дело с решением различных проблем, трудно и бесполезно пытаться установить, когда “поколение” начиналось и заканчивалось. Возможно, наиболее важным критерием различия машин второго и третьего поколений является критерий, основанный на понятии архитектуры.

Машины третьего поколения – это семейства машин с единой архитектурой, т.е. программно совместимых. В качестве элементной базы в них используются интегральные схемы, которые также называются микросхемами.

Машины третьего поколения имеют развитые операционные системы. Они обладают возможностями мультипрограммирования, т.е. одновременного выполнения нескольких программ. Многие задачи управления памятью, устройствами и ресурсами стала брать на себя операционная система или же непосредственно сама машина.

Рис. 15 Компьютер IBM-360. Третье поколение

Примеры машин третьего поколения – семейства IBM-360, IBM-370, ЕС ЭВМ (Единая система ЭВМ), СМ ЭВМ (Семейство малых ЭВМ) и др.

Быстродействие машин внутри семейства изменяется от нескольких десятков тысяч до миллионов операций в секунду. Ёмкость оперативной памяти достигает нескольких сотен тысяч слов.

Рис. 16 Интегральная схема
Краткое описание процесса изготовления микросхем

Разработчики с помощью компьютера создают электрическую схему новой микро-схемы. Для этого они вводят в компьютер перечень свойств, которыми должна обладать микросхема, а компьютер с помощью специальной программы разрабатывает детальную структуру соединений и конструкций всех взаимодействующих элементов микросхемы.

Компьютер создаёт схемы расположения элементов на поверхности полупроводни-кового кристалла кремния. По этим схемам изготавливаются фотошаблоны – стеклянные пластинки со штриховым рисунком. Через фотошаблоны специальными лампами или источниками рентгеновского излучения, а иногда, и электронными пучками, освещают (засвечивают) нанесённый на поверхность кристалла кремния слой фото- или, соответственно, рентгеночувствительного лака.

Засвеченные (или, наоборот, незасвеченные) участки лака меняют свои свойства и удаляются специальными растворителями. Этот процесс называется травлением. Вместе с лаком с поверхности кристалла кремния удаляется и слой окисла, и эти места становятся доступными для легирования – внедрения в кристаллическую решётку кремния атомов бора или фосфора. Легирование обычно требует нагрева пластинки в парах нужного эле-мента до 1100 – 1200 °С.

Последовательно меняя шаблоны и повторяя процедуры травления и легирования, создают один за другим слои будущей микросхемы. При этом на одной пластинке кри-сталла кремния создаётся множество одинаковых микросхем.

Каждая микросхема проверяется на работоспособность. Негодные выбраковывают-ся.

После завершения всех операций пластинки разрезаются на отдельные кристалли-ки с микросхемами, к ним присоединяют выводы и устанавливают в корпуса.
Компьютеры четвертого поколения

Четвёртое поколение – это теперешнее поколение компьютерной техники, разра-ботанное после 1970 года.

Наиболее важный в концептуальном отношении критерий, по которому эти компьютеры можно отделить от машин третьего поколения, состоит в том, что машины четвёртого поколения проектировались в расчете на эффективное использование современных высокоуровневых языков и упрощение процесса программирования для конечного пользователя.

В аппаратурном отношении для них характерно широкое использование интегральных схем в качестве элементной базы, а также наличие быстродействующих запоминающих устройств.

C точки зрения структуры машины этого поколения представляют собой много-процессорные и многомашинные комплексы, работающие на общую память и общее поле внешних устройств. Быстродействие составляет до нескольких десятков миллионов опе-раций в секунду, ёмкость оперативной памяти порядка до нескольких гигобайт.

Для них характерны:
применение персональных компьютеров;
телекоммуникационная обработка данных;
компьютерные сети;
широкое применение систем управления базами данных;
элементы интеллектуального поведения систем обработки данных и устройств.
Компьютеры пятого поколения

Разработка последующих поколений компьютеров производится на основе больших интегральных схем повышенной степени интеграции, использования оптоэлектронных принципов (лазеры, голография).

Развитие идет также по пути “интеллектуализации” компьютеров, устранения барьера между человеком и компьютером. Компьютеры будут способны воспринимать информацию с рукописного или печатного текста, с бланков, с человеческого голоса, узнавать пользователя по голосу, осуществлять перевод с одного языка на другой.

В компьютерах пятого поколения произойдёт качественный переход от обработки данных к обработке знаний.

Архитектура компьютеров будущего поколения будет содержать два основных блока. Один из них – это традиционный компьютер. Но теперь он лишён связи с пользователем. Эту связь осуществляет блок, называемый термином “интеллектуальный интерфейс”. Его задача – понять текст, написанный на естественном языке и содержащий условие задачи, и перевести его в работающую программу для компьютера.

Будет также решаться проблема децентрализации вычислений с помощью компьютерных сетей, как больших, находящихся на значительном расстоянии друг от друга, так и миниатюрных компьютеров, размещённых на одном кристалле полупроводника.
Биокомпьютеры

В настоящее время несколько исследовательских центров в США ведут работы над разного рода биосистемами обработки информации. Компьютеры из бактерий принципи-ально смогут исполнять все функции современных процессоров. Мало того, новые системы обещают и неведомые ныне возможности.

Главным свойством биокомпьютеров является то, что каждая их клетка – миниатюрная химическая лаборатория. Запрограммированный биоорганизм просто производит нужные вещества. Достаточно вырастить одну клетку, обладающую заданными качествами, и в руках – целый мир волшебных превращений. К тому же биокомпьютеры могут оказаться более надежными – по сравнению с кремниевыми.

Недавно появились серьезные основания полагать, что биокомпьютеры – уже предмет не только академического любопытства. Они стали новым прикладным направлением, находящимся на пересечении традиционных дисциплин – биологии и науки о компьютерах. Результаты таких междисциплинарных изысканий вообще трудно привязывать к наукам-прародителям.

В случае с технологиями биокомпьютеров можно сказать так: то, что делает традиционная биология, является, выражаясь термином, взятым из технологий, “реверсивным инжинирингом”, то есть попыткой разобраться в устройстве систем, возникших эволюционным путем. В исследованиях, связанных с биокомпьютерами, не предполагается делать ничего подобного: ученые пытаются найти способ сразу создавать системы с заданными свойствами. Вместо того чтобы склеивать отдельные белковые молекулы или расшифровывать генные коды, клетки будут программироваться на уровне генов для выполнения требуемых функций.

В то же время, несмотря на такое принципиальное отличие задач биокомпьютерных исследований от, скажем, задач клеточной и молекулярной биологии, инструменты и там и тут по большей части одни и те же. И работа в условиях “мокрой” биолаборатории поначалу создает немало проблем для специалистов из “твердых” наук.

Тридцать лет профессор Том Найт (Tom Knight) проработал в Лаборатории искус-ственного интеллекта при Массачусетском технологическом институте, а три года назад взял и основал Лабораторию биокомпьютеров – при том же учебном заведении.

На первых порах дела в лаборатории шли наперекосяк: описанные в учебниках и научных трудах биопроцессы протекать ни в какую не хотели. После пяти месяцев безус-пешных попыток начать исследования Найт пригласил биолога из Калифорнийского университета Беркли, чтобы тот выяснил, что делается не так. Новый сотрудник пересек континент, захватив с собой набор собственных реагентов, биологические образцы и даже собственную воду! Что же оказалось? Именно вода, использованная в лаборатории Найта, оказалась одной из главных причин того, что процессы переплетения молекулярных цепо-чек в протеинах протекали аномально!

И все-таки трудности преодолеваются. Профессор Джеймс Коллинз (James Collins), учредитель Центра прикладной биодинамики при Бостонском университете, и его бывший аспирант Тим Гарднер (Tim Gardner), прежде чем обратиться к колбам и пробиркам, построили математическую модель генного вентиля – “включено-выключено”. Вентиль, поясняет Коллинз, построен из двух генов-“антагонистов”: если один в “активном” состоянии, другой – в “пассивном”, и наоборот. Такие генные системы существуют в клетках естественным образомм. Идея заключается в том, чтобы управлять переброской состояний с помощью внешних воздействий, – например, изменяя химию среды или тем-пературу.

В совместных трудах Коллинз и Гарднер описывают пять типов подобных генных вентилей, которые им удалось встроить в бактерии E.Coli (кишечная палочка). Гарднер назвал этот результат первым шагом на пути к созданию “генных апплетов” (genetic applets – по аналогии с Java applets).

А исследователь из Университетов Рокфеллера Майкл Еловиц (Michael Elowitz) сконструировал собственный тип генных апплетов – частотный генератор. Фундамен-тальная роль частотных генераторов в компьютерных технологиях не требует разъяснений. Но если в современных кремниевых процессорах часы работают на частотах, близких к гигагерцам, то биогенератор Еловица совершает одно колебание примерно в 150 минут.

Хотя творение Еловица – на грани мыслимого, генные часы не слишком точны: период их колебаний варьируется от 100 до 200 минут. Теперь предстоит выяснить, откуда берутся столь сильные шумы, влияющие на систему генов, и как они компенсируются в естественных биологических системах…

В апреле этого года Коллинз и Гарднер учредили первую компанию, которая будет заниматься биокомпьютерами. Называется она Cellicon Biotechnologies, находится в Сан-Диего, штат Калифорния. В списке первоочередных устройств, которые намерена выпустить Cellicon, – детектор содержания в пищевых продуктах токсинов, использующихся в химическом и биологическом оружии. Коллинз предсказывает, что уже лет через пять в “ранце” каждого солдата США будет такой прибор.

Другой, более отдаленной задачей Коллинз называет разработку генной терапии, технологии, которая позволит размещать в организме человека сети генных апплетов, излечивающих такие болезни, как, скажем, гемофилия или анемия.

Оценки биокомпьютерных исследований даются самые разные. К примеру, Роджер Брент (Roger Brent), директор некоммерческой корпорации – Института молекулярных исследований (Molecular Science Institute) из Беркли (штат Калифорния), консультант по биотехнологиям знаменитого правительственного агентства DARPA, считает, что вентили на основе двух геннов – далеко не новинка: генетики обнаружили и начали широко ис-пользовать подобные двоичные системы еще в 70-х годах.

По мнению Брента, куда более важным является исследование клеточных систем с множеством состояний. Более того, переходы между этими состояниями обеспечиваются управляющими воздействиями разной природы. Вот пример: пусть клетка обладает шестнадцатью различными состояниями и, кроме того, она взаимодействует с множеством таких же соседних клеток. Конечно, клетка с шестнадцатью состояниями сама по себе мало на что пригодна, но связанная с миллиардами сородичей, она способна образовать память немыслимой емкости. Фигурально говоря, чайная ложка раствора с такими бактериями могла бы обладать памятью всех нынешних компьютеров. Брент задает вопрос: как программировать подобные биосистемы?

Ответить на него пытаются участники проекта Аморфный компьютинг (Amorphous Computing), который ведется в лаборатории профессора Найта. Главная цель проекта – разработка технологии самоорганизующихся биологических систем. Прежде всего придется понять условия, благодаря которым клетки узнают своих соседей, какого рода связи между ними устанавливаются и как этими связями управлять. А дальше все просто?..
Глава 5. Общие понятия об архитектуре и структуре ПК
5.1. Основные элементы ЭВМ

Основу компьютеров образует аппаратура (HardWare), построенная, в основном, с использованием электронных и электромеханических элементов и устройств. Принцип действия компьютеров состоит в выполнении программ (SoftWare) – заранее заданных, четко определённых последовательностей арифметических, логических и других.

Разнообразие современных компьютеров очень велико. Но их структуры основаны на общих логических принципах, позволяющих выделить в любом компьютере следующие главные устройства:
память (запоминающее устройство, ЗУ), состоящую из перенумерованных ячеек;
процессор, включающий в себя устройство управления (УУ) и арифметико-логическое устройство (АЛУ);
устройство ввода;
устройство вывода.

Эти устройства соединены каналами связи, по которым передается информация.

Основные устройства компьютера и связи между ними представлены на схеме (рис. 1). Жирными стрелками показаны пути и направления движения информации, а простыми стрелками – пути и направления передачи управляющих сигналов.

Рис. 1. Общая схема компьютера

Функции памяти:
приём информации из других устройств;
запоминание информации;
выдача информации по запросу в другие устройства машины.

Функции процессора:
обработка данных по заданной программе путем выполнения арифметических и логических операций;
программное управление работой устройств компьютера.

Та часть процессора, которая выполняет команды, называется арифметико-логическим устройством (АЛУ), а другая его часть, выполняющая функции управления устройствами, называется устройством управления (УУ). Обычно эти два устройства выделяются чисто условно, конструктивно они не разделены.

В составе процессора имеется ряд специализированных дополнительных ячеек памяти, называемых регистрами.

Регистр выполняет функцию кратковременного хранения числа или команды. Над содержимым некоторых регистров специальные электронные схемы могут выполнять некоторые манипуляции. Например, “вырезать” отдельные части команды для последующего их использования или выполнять определенные арифметические операции над числами.

Основным элементом регистра является электронная схема, называемая триггером, которая способна хранить одну двоичную цифру (разряд).

Регистр представляет собой совокупность триггеров, связанных друг с другом определённым образом общей системой управления.

Существует несколько типов регистров, отличающихся видом выполняемых операций.

Некоторые важные регистры имеют свои названия, например:
сумматор – регистр АЛУ, участвующий в выполнении каждой операции;
счетчик команд – регистр УУ, содержимое которого соответствует адресу очередной выполняемой команды; служит для автоматической выборки программы из последовательных ячеек памяти;
регистр команд – регистр УУ для хранения кода команды на период времени, необходимый для ее выполнения. Часть его разрядов используется для хранения кода операции, остальные – для хранения кодов адресов операндов.
Вернуться
5.2. Основные принципы архитектуры ЭВМ по фон Нейману.

В основу построения подавляющего большинства компьютеров положены следующие общие принципы, сформулированные в 1948 г. американским ученым Джоном фон Нейманом.

1. Принцип программного управления. Из него следует, что программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности.

Выборка программы из памяти осуществляется с помощью счетчика команд. Этот регистр процессора последовательно увеличивает хранимый в нем адрес очередной команды на длину команды, а так как команды программы расположены в памяти друг за другом, то тем самым организуется выборка цепочки команд из последовательно расположенных ячеек памяти.

Если же нужно после выполнения команды перейти не к следующей, а к какой-то другой, используются команды условного или безусловного переходов, которые заносят в счетчик команд номер ячейки памяти, содержащей следующую команду. Выборка команд из памяти прекращается после достижения и выполнения команды “СТОП”.

Таким образом, процессор исполняет программу автоматически, без вмешательства человека.

2. Принцип однородности памяти. Программы и данные хранятся в одной и той же памяти. Поэтому компьютер не различает, что хранится в данной ячейке памяти – число, текст или команда. Над командами можно выполнять такие же действия, как и над данными.

Это открывает целый ряд возможностей. Например, программа в процессе своего выполнения также может подвергаться переработке, что позволяет задавать в самой программе правила получения некоторых ее частей (так в программе организуется выполнение циклов и подпрограмм).

Более того, команды одной программы могут быть получены как результаты исполнения другой программы. На этом принципе основаны методы трансляции – перевода текста программы с языка программирования высокого уровня на язык конкретной машины.

3. Принцип адресности. Структурно основная память состоит из перенумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка.

Отсюда следует возможность давать имена областям памяти, так, чтобы к запомненным в них значениям можно было впоследствии обращаться или менять их в процессе выполнения программ с использованием присвоенных имен.

Компьютеры, построенные на этих принципах, относятся к типу фон-неймановских.

Но существуют компьютеры, принципиально отличающиеся от фон-неймановских. Для них, например, может не выполняться принцип программного управления, т.е. они могут работать без “счетчика команд”, указывающего текущую выполняемую команду программы. Для обращения к какой-либо переменной, хранящейся в памяти, этим компьютерам не обязательно давать ей имя. Такие компьютеры называются не-фон-неймановскими.
Вернуться
5.3. Архитектура и структура ЭВМ

Архитектурой компьютера называется его описание на некотором общем уровне, включающее описание пользовательских возможностей программирования, системы команд, системы адресации, организации памяти и т.д. Архитектура определяет принципы действия, информационные связи и взаимное соединение основных логических узлов компьютера: процессора, оперативного ЗУ, внешних ЗУ и периферийных устройств. Общность архитектуры разных компьютеров обеспечивает их совместимость с точки зрения пользователя.

Структура компьютера – это совокупность его функциональных элементов и связей между ними. Элементами могут быть самые различные устройства – от основных логических узлов компьютера до простейших схем. Структура компьютера графически представляется в виде структурных схем, с помощью которых можно дать описание компьютера на любом уровне детализации.

Наиболее распространены следующие архитектурные решения:

1. Классическая архитектура (архитектура фон Неймана) – одно арифметико-логическое устройство (АЛУ), через которое проходит поток данных, и одно устройство управления (УУ), через которое проходит поток команд – программа. Это однопроцессорный компьютер.

К этому типу архитектуры относится и архитектура персонального компьютера с общей шиной. Все функциональные блоки здесь связаны между собой общей шиной, называемой также системной магистралью.

Физически магистраль представляет собой многопроводную линию с гнездами для подключения электронных схем. Совокупность проводов магистрали разделяется на отдельные группы: шину адреса, шину данных и шину управления.

Периферийные устройства (принтер и др.) подключаются к аппаратуре компьютера через специальные контроллеры – устройства управления периферийными устройствами.

Контроллер – устройство, которое связывает периферийное оборудование или каналы связи с центральным процессором, освобождая процессор от непосредственного управления функционированием данного оборудования.

2. Многопроцессорная архитектура. Наличие в компьютере нескольких процессоров означает, что параллельно может быть организовано много потоков данных и много потоков команд. Таким образом, параллельно могут выполняться несколько фрагментов одной задачи. Структура такой машины, имеющей общую оперативную память и несколько процессоров, представлена на рис. 2

Рис. 2 Архитектура многопроцессорного компьютера

3. Многомашинная вычислительная система. Здесь несколько процессоров, входящих в вычислительную систему, не имеют общей оперативной памяти, а имеют каждый свою (локальную). Каждый компьютер в многомашинной системе имеет классическую архитектуру, и такая система применяется достаточно широко.

Однако эффект от применения такой вычислительной системы может быть получен только при решении задач, имеющих очень специальную структуру: она должна разбиваться на столько слабо связанных подзадач, сколько компьютеров в системе.

Преимущество в быстродействии многопроцессорных и многомашинных вычислительных систем перед однопроцессорными очевидно.

4. Архитектура с параллельными процессорами. Здесь несколько АЛУ работают под управлением одного УУ. Это означает, что множество данных может обрабатываться по одной программе – то есть по одному потоку команд.

Высокое быстродействие такой архитектуры можно получить только на задачах, в которых одинаковые вычислительные операции выполняются одновременно на различных однотипных наборах данных. Структура таких компьютеров представлена на рис. 3.

Рис. 3 Архитектура с параллельным процессором

В современных машинах часто присутствуют элементы различных типов архитектурных решений. Существуют и такие архитектурные решения, которые радикально отличаются от рассмотренных выше.

Глава 6. Состав ПК Характеристика устройств входящих в состав ПК

Прогресс компьютерных технологий идет семимильными шагами. Каждый год появляются новые процессоры, платы, накопители и прочие периферийные устройства. Рост потенциальных возможностей ПК и появление новых более производительных компонентов неизбежно вызывает желание модернизировать свой компьютер. Однако нельзя в полной мере оценить новые достижения компьютерной технологии без сравнения их с существующими стандартами.

Разработка нового в области ПК всегда базируется на старых стандартах и принципах. Поэтому знание их является основополагающим фактором для (или против) выбора новой системы.

В состав ЭВМ входят следующие компоненты:
центральный процессор (CPU);
оперативная память (memory);
устройства хранения информации (storage devices);
устройства ввода (input devices);
устройства вывода (output devices);
устройства связи (communication devices).

Во всех вычислительных машинах до середины 50-х годов устройства обработки и управления представляли собой отдельные блоки, и только с появлением компьютеров, построенных на транзисторах, удалось объединить их в один блок, названный процессором.
Вернуться
6.1. Центральный процессор

Центральный процессор (CPU, от англ. Central Processing Unit) – это основной рабочий компонент компьютера, который выполняет арифметические и логические операции, заданные программой, управляет вычислительным процессом и координирует работу всех устройств компьютера.

Центральный процессор в общем случае содержит в себе:
арифметико-логическое устройство;
шины данных и шины адресов;
регистры;
счетчики команд;
кэш – очень быструю память малого объема (от 8 Кбайт до 2 Мбайт);
математический сопроцессор чисел с плавающей точкой.

Современные процессоры выполняются в виде микропроцессоров. Физически микропроцессор представляет собой интегральную схему – тонкую пластинку кристаллического кремния прямоугольной формы площадью всего несколько квадратных миллиметров, на которой размещены схемы, реализующие все функции процессора. Кристалл-пластинка обычно помещается в пластмассовый или керамический плоский корпус и соединяется золотыми проводками с металлическими штырьками, чтобы его можно было присоединить к системной плате компьютера.

В вычислительной системе может быть несколько параллельно работающих процессоров; такие системы называются многопроцессорными.
Рис. 1 Athlon XP 3200+
Вернуться
6.2. Память компьютера

Память компьютера построена из двоичных запоминающих элементов – битов, объединенных в группы по 8 битов, которые называются байтами. (Единицы измерения памяти совпадают с единицами измерения информации). Все байты пронумерованы. Номер байта называется его адресом.

Байты могут объединяться в ячейки, которые называются также словами. Для каждого компьютера характерна определенная длина слова – два, четыре или восемь байтов. Это не исключает использования ячеек памяти другой длины (например, полуслово, двойное слово).

Как правило, в одном машинном слове может быть представлено либо одно целое число, либо одна команда. Однако, допускаются переменные форматы представления информации.

Широко используются и более крупные производные единицы объема памяти: Килобайт, Мегабайт, Гигабайт, а также, в последнее время, Терабайт и Петабайт.

Современные компьютеры имеют много разнообразных запоминающих устройств, которые сильно отличаются между собой по назначению, временным характеристикам, объёму хранимой информации и стоимости хранения одинакового объёма информации.

Различают два основных вида памяти – внутреннюю и внешнюю.

В состав внутренней памяти входят оперативная память, кэш-память и специальная память.

Оперативная память (ОЗУ, англ. RAM, Random Access Memory – память с произвольным доступом) – это быстрое запоминающее устройство не очень большого объёма, непосредственно связанное с процессором и предназначенное для записи, считывания и хранения выполняемых программ и данных, обрабатываемых этими программами.

Оперативная память используется только для временного хранения данных и программ, так как, когда машина выключается, все, что находилось в ОЗУ, пропадает. Доступ к элементам оперативной памяти прямой – это означает, что каждый байт памяти имеет свой индивидуальный адрес.

Объем модуля ОЗУ обычно составляет от 4 – Мбайт до 1 Гигабайта, а для эффективной работы современного программного обеспечения желательно иметь не менее 256 Мбайт ОЗУ. Обычно ОЗУ исполняется из интегральных микросхем памяти DRAM (Dynamic RAM – динамическое ОЗУ). Микросхемы DRAM работают медленнее, чем другие разновидности памяти, но стоят дешевле.

Каждый информационный бит в DRAM запоминается в виде электрического заряда крохотного конденсатора, образованного в структуре полупроводникового кристалла. Из-за токов утечки такие конденсаторы быстро разряжаются, и их периодически (примерно каждые 2 миллисекунды) подзаряжают специальные устройства. Этот процесс называется регенерацией памяти (Refresh Memory).

Современные микросхемы имеют ёмкость 1-32 Мбит и более. Они устанавливаются в корпуса и собираются в модули памяти.

Кэш (англ. cache), или сверхоперативная память – очень быстрое ЗУ небольшого объёма, которое используется при обмене данными между микропроцессором и оперативной памятью для компенсации разницы в скорости обработки информации процессором и несколько менее быстродействующей оперативной памятью.

Кэш-памятью управляет специальное устройство – контроллер, который, анализируя выполняемую программу, пытается предвидеть, какие данные и команды вероятнее всего понадобятся в ближайшее время процессору, и подкачивает их в кэш-память. При этом возможны как “попадания”, так и “промахи”. В случае попадания, то есть, если в кэш подкачаны нужные данные, извлечение их из памяти происходит без задержки. Если же требуемая информация в кэше отсутствует, то процессор считывает её непосредственно из оперативной памяти. Соотношение числа попаданий и промахов определяет эффективность кэширования.

Кэш-память реализуется на микросхемах статической памяти SRAM (Static RAM), более быстродействующих, дорогих и малоёмких, чем DRAM.

Современные микропроцессоры имеют встроенную кэш-память, так называемый кэш первого уровня размером 8-16 Кбайт. Кроме того, на системной плате компьютера может быть установлен кэш второго уровня ёмкостью от 64 Кбайт до 512 Кбайт и выше.

Специальная память К устройствам специальной памяти относятся постоянная память (ROM), перепрограммируемая постоянная память (Flash Memory), память CMOS RAM, питаемая от батарейки, видеопамять и некоторые другие виды памяти.

Постоянная память (ПЗУ, англ. ROM, Read Only Memory – память только для чтения) – энергонезависимая память, используется для хранения данных, которые никогда не потребуют изменения. Содержание памяти специальным образом “зашивается” в устройстве при его изготовлении для постоянного хранения. Из ПЗУ можно только читать.

Перепрограммируемая постоянная память (Flash Memory) – энергонезависимая память, допускающая многократную перезапись своего содержимого с дискеты.

Прежде всего в постоянную память записывают программу управления работой самого процессора. В ПЗУ находятся программы управления дисплеем, клавиатурой, принтером, внешней памятью, программы запуска и остановки компьютера, тестирования устройств.

Важнейшая микросхема постоянной или Flash-памяти – модуль BIOS.

BIOS (Basic Input/Output System – базовая система ввода-вывода) – совокупность программ, предназначенных для:
автоматического тестирования устройств после включения питания компьютера;
загрузки операционной системы в оперативную память.

Роль BIOS двоякая: с одной стороны это неотъемлемый элемент аппаратуры (Hardware), а с другой строны – важный модуль любой операционной системы (Software).

Разновидность постоянного ЗУ – CMOS RAM.

CMOS RAM – это память с невысоким быстродействием и минимальным энергопотреблением от батарейки. Используется для хранения информации о конфигурации и составе оборудования компьютера, а также о режимах его работы.

Содержимое CMOS изменяется специальной программой Setup, находящейся в BIOS (англ. Setup – устанавливать, читается “сетап”).

Для хранения графической информации используется видеопамять.

Видеопамять (VRAM) – разновидность оперативного ЗУ, в котором хранятся закодированные изображения. Это ЗУ организовано так, что его содержимое доступно сразу двум устройствам – процессору и дисплею. Поэтому изображение на экране меняется одновременно с обновлением видеоданных в памяти.

Внешняя память (ВЗУ) предназначена для длительного хранения программ и данных, и целостность её содержимого не зависит от того, включен или выключен компьютер. В отличие от оперативной памяти, внешняя память не имеет прямой связи с процессором. Информация от ВЗУ к процессору и наоборот циркулирует примерно по следующей цепочке:

В состав внешней памяти компьютера входят:
накопители на жёстких магнитных дисках;
накопители на гибких магнитных дисках;
накопители на компакт-дисках;
накопители на магнито-оптических компакт-дисках;
накопители на магнитной ленте (стримеры) и др.
Вернуться
6.3. Накопители на гибких магнитных дисках

Гибкий диск, дискета (англ. floppy disk) – устройство для хранения небольших объёмов информации, представляющее собой гибкий пластиковый диск в защитной оболочке. Используется для переноса данных с одного компьютера на другой и для распространения программного обеспечения.

Дискета состоит из круглой полимерной подложки, покрытой с обеих сторон магнитным окислом и помещенной в пластиковую упаковку, на внутреннюю поверхность которой нанесено очищающее покрытие. В упаковке сделаны с двух сторон радиальные прорези, через которые головки считывания/ записи накопителя получают доступ к диску.

Способ записи двоичной информации на магнитной среде называется магнитным кодированием. Он заключается в том, что магнитные домены в среде выстраиваются вдоль дорожек в направлении приложенного магнитного поля своими северными и южными полюсами. Обычно устанавливается однозначное соответствие между двоичной информацией и ориентацией магнитных доменов
.

Информация записывается по концентрическим дорожкам (трекам), которые делятся на секторы. Количество дорожек и секторов зависит от типа и формата дискеты. Сектор хранит минимальную порцию информации, которая может быть записана на диск или считана. Ёмкость сектора постоянна и составляет 512 байтов.
Рис. 2. Поверхность магнитного диска

На дискете можно хранить от 360 Килобайт до 2,88 Мегабайт информации.

В 80 – 90-х г.г. наибольшее распространение получили дискеты со следующими характеристиками: диаметр 3,5 дюйма (89 мм), ёмкость 1,44 Мбайт, число дорожек 80, количество секторов на дорожках 18.

Дискета устанавливается в накопитель на гибких магнитных дисках (англ. floppy-disk drive), автоматически в нем фиксируется, после чего механизм накопителя раскручивается до частоты вращения 360 мин-1. В накопителе вращается сама дискета, магнитные головки остаются неподвижными. Дискета вращается только при обращении к ней.

Накопитель связан с процессором через контроллер гибких дисков.
Вернуться
6.4. Накопители на жестких магнитных дисках

Если гибкие диски – это средство переноса данных между компьютерами, то жесткий диск – информационный склад компьютера.

Накопитель на жёстких магнитных дисках (англ. HDD – Hard Disk Drive) или винчестерский накопитель – это наиболее массовое запоминающее устройство большой ёмкости, в котором носителями информации являются круглые алюминиевые пластины – платтеры, обе поверхности которых покрыты слоем магнитного материала. Используется для постоянного хранения информации – программ и данных.

Как и у дискеты, рабочие поверхности платтеров разделены на кольцевые концентрические дорожки, а дорожки – на секторы. Головки считывания-записи вместе с их несущей конструкцией и дисками заключены в герметически закрытый корпус, называемый модулем данных. При установке модуля данных на дисковод он автоматически соединяется с системой, подкачивающей очищенный охлажденный воздух.

Поверхность платтера имеет магнитное покрытие толщиной всего лишь в 1,1 мкм, а также слой смазки для предохранения головки от повреждения при опускании и подъёме на ходу. При вращении платтера над ним образуется воздушный слой, который обеспечивает воздушную подушку для зависания головки на высоте 0,5 мкм над поверхностью диска.

Винчестерские накопители имеют очень большую ёмкость: от сотен Мегабайт до сотен Гбайт. У современных моделей скорость вращения шпинделя достигает 7200 и 15000 оборотов в минуту, среднее время поиска данных – 2 мс, максимальная скорость передачи данных до 70 Мбайт/с.

В отличие от дискеты, винчестерский диск вращается непрерывно.

Винчестерский накопитель связан с процессором через контроллер жесткого диска.

Все современные накопители снабжаются встроенным кэшем (4 Мбайт и более), который существенно повышает их производительность.
Рис. 3. Один из первых 3,5-дюймовых жестких дисков

CD-ROM состоит из прозрачной полимерной основы диаметром 12 см и толщиной 1,2 мм. Одна сторона покрыта тонким алюминиевым слоем, защищенным от повреждений слоем лака. Двоичная информация представляется последовательным чередованием углублений (pits – ямки) и основного слоя (land – земля).

На одном дюйме (2,54 см) по радиусу диска размещается 16 тысяч дорожек с информацией. Для сравнения – на дюйме по радиусу дискеты всего лишь 96 дорожек. Ёмкость CD до 780 Мбайт. Информация заносится на диск на заводе и не может быть изменена.

Достоинства CD-ROM:
При малых физических размерах CD-ROM обладают высокой информационной ёмкостью, что позволяет использовать их в справочных системах и в учебных комплексах с богатым иллюстративным материалом; один CD, имея размеры примерно дискеты, по информационному объёму равен почти 500 таким дискетам;
Считывание информации с CD происходит с высокой скоростью, сравнимой со скоростью работы винчестера;
CD просты и удобны в работе, практически не изнашиваются;
CD не могут быть поражены вирусами;
На CD-ROM невозможно случайно стереть информацию;
Стоимость хранения данных (в расчете на 1 Мбайт) низкая.

В отличие от магнитных дисков, компакт-диски имеют не множество кольцевых дорожек, а одну – спиральную, как у грампластинок. В связи с этим, угловая скорость вращения диска не постоянна. Она линейно уменьшается в процессе продвижения читающей магнитной головки к центру диска.

Для работы с CD ROM нужно подключить к компьютеру накопитель CD-ROM (CD-ROM Drive), в котором компакт-диски сменяются как в обычном проигрывателе. Накопители CD-ROM часто называют проигрывателями CD-ROM или приводами CD-ROM.

Участки CD, на которых записаны символы “0” и “1”, отличаются коэффициентом отражения лазерного луча, посылаемого накопителем CD-ROM. Эти отличия улавливаются фотоэлементом, и общий сигнал преобразуется в соответствующую последовательность нулей и единиц.

Многие накопители CD-ROM способны воспроизводить обычные аудио-CD. Это позволяет пользователю, работающему за компьютером, слушать музыку в фоновом режиме.

На смену CD-ROM уже пришли цифровые диски DVD(читается “ди-ви-ди”). Эти диски имеют тот же размер, что и обычные CD, но вмещают от 4,7 до 17 Гбайт данных, т.е. по объёму заменяют семь стандартных дисков CD-ROM. На таких дисках выпускаются полноэкранные видеофильмы отличного качества, программы-тренажёры, мультимедийные игры и многое другое.

Записывающие оптические и магнитооптические накопители:
Накопитель на магнито-оптических компакт-дисках СD-MO (Compact Disk-Magneto Optical). Диски СD-MO можно многократно использовать для записи, но они не читаются на традиционных дисководах CD-ROM. Ёмкость от 128 Мбайт до 2,6 Гбайт.
Записывающий накопитель CD-R и CD-RW (Compact Disk Recordable) способен, наряду с прочтением обычных компакт-дисков, записывать информацию на специальные оптические диски. Ёмкость 650 – 700 Мбайт.
Накопитель WARM (Write And Read Many times), позволяет производить многократную запись и считывание.
Накопитель WORM (Write Once, Read Many times), позволяет производить однократную запись и многократное считывание.
Вернуться
6.5. Накопители на магнитной ленте (стримеры) и накопители на сменных дисках

Стример (англ. tape streamer) – устройство для резервного копирования больших объёмов информации. В качестве носителя здесь применяются кассеты с магнитной лентой ёмкостью 1 – 10 Гбайта и больше.

Стримеры позволяют записать на небольшую кассету с магнитной лентой огромное количество информации. Встроенные в стример средства аппаратного сжатия позволяют автоматически уплотнять информацию перед её записью и восстанавливать после считывания, что увеличивает объём сохраняемой информации.

Недостатком стримеров является их сравнительно низкая скорость записи, поиска и считывания информации.

В последнее время всё шире используются накопители на сменных дисках, которые позволяют не только увеличивать объём хранимой информации, но и переносить информацию между компьютерами. Объём сменных дисков – от сотен Мбайт до нескольких Гигабайт.
Рис. 4. Стример
Вернуться
6.6. Аудиоадаптер

Аудиоадаптер (звуковая плата) это специальная электронная плата, которая позволяет записывать звук, воспроизводить его и создавать программными средствами с помощью микрофона, наушников, динамиков, встроенного синтезатора и другого оборудования.

Аудиоадаптер содержит в себе два преобразователя информации:

аналого-цифровой, который преобразует непрерывные (то есть, аналоговые) звуковые сигналы (речь, музыку, шум) в цифровой двоичный код и записывает его на магнитный носитель;

цифро-аналоговый, выполняющий обратное преобразование сохранённого в цифровом виде звука в аналоговый сигнал, который затем воспроизводится с помощью акустической системы, синтезатора звука или наушников.

Профессиональные звуковые платы позволяют выполнять сложную обработку звука, обеспечивают стереозвучание, имеют собственное ПЗУ с хранящимися в нём сотнями тембров звучаний различных музыкальных инструментов.

Звуковые файлы обычно имеют очень большие размеры. Так, трёхминутный звуковой файл со стереозвучанием занимает примерно 30 Мбайт памяти. Поэтому звуковые платы, помимо своих основных функций, обеспечивают автоматическое сжатие файлов.

Область применения звуковых плат – компьютерные игры, обучающие программные системы, рекламные презентации, “голосовая почта” (voice mail), просмотр фильмов между компьютерами, озвучивание различных процессов, происходящих в компьютерном оборудовании, таких, например, как отсутствие бумаги в принтере и т.п.
Вернуться
6.7. Видеоадаптер, графические карты

Видеоадаптер – это электронная плата, которая обрабатывает видеоданные (текст и графику) и управляет работой дисплея. Содержит видеопамять, регистры ввода вывода и модуль BIOS. Посылает в дисплей сигналы управления яркостью лучей и сигналы развертки изображения.

Наиболее распространенные графические карты на сегодняшний день – ATI RADEON и GeForse

С увеличением числа приложений, использующих сложную графику и видео, наряду с традиционными видеоадаптерами широко используются разнообразные устройства компьютерной обработки видеосигналов:

Фрейм-грабберы, которые позволяют отображать на экране компьютера видеосигнал от видеомагнитофона, камеры, лазерного проигрывателя и т. п., с тем, чтобы захватить нужный кадр в память и впоследствии сохранить его в виде файла.

TV-тюнеры – видеоплаты, превращающие компьютер в телевизор. TV-тюнер позволяет выбрать любую нужную телевизионную программу и отображать ее на экране в масштабируемом окне. Таким образом можно следить за ходом передачи, не прекращая работу.
Вернуться
6.8. Манипуляторы и клавиатуры

Клавиатура служит для ввода информации в компьютер и подачи управляющих сигналов. Она содержит стандартный набор алфавитно-цифровых клавиш и некоторые дополнительные клавиши – управляющие и функциональные, клавиши управления курсором, а также малую цифровую клавиатуру.

Курсор – светящийся символ на экране монитора, указывающий позицию, на которой будет отображаться следующий вводимый с клавиатуры знак
.

Все символы, набираемые на клавиатуре, немедленно отображаются на мониторе в позиции курсора.

Наиболее распространена сегодня 104-клавишная клавиатура c раскладкой клавиш QWERTY (читается “кверти”), названная так по клавишам, расположенным в верхнем левом ряду алфавитно-цифровой части клавиатуры:

Клавиатура содержит встроенный микроконтроллер (местное устройство управления), который выполняет следующие функции:
последовательно опрашивает клавиши, считывая введенный сигнал и вырабатывая двоичный скан-код клавиши;
управляет световыми индикаторами клавиатуры;
проводит внутреннюю диагностику неисправностей;
осуществляет взаимодействие с центральным процессором через порт ввода-вывода клавиатуры.

Клавиатура имеет встроенный буфер – промежуточную память малого размера, куда помещаются введённые символы. В случае переполнения буфера нажатие клавиши будет сопровождаться звуковым сигналом – это означает, что символ не введён (отвергнут).

Работу клавиатуры поддерживают специальные программы, “зашитые” в BIOS, а также драйвер клавиатуры, который обеспечивает возможность ввода русских букв, управление скоростью работы клавиатуры и др.

Манипуляторы (мышь, джойстик и др.) – это специальные устройства, которые используются для управления курсором.
Рис. 5. Мышь

Мышь имеет вид небольшой коробки, полностью умещающейся на ладони. Мышь связана с компьютером кабелем или радио каналом через специальный блок – адаптер, и её движения преобразуются в соответствующие перемещения курсора по экрану дисплея. В верхней части устройства расположены управляющие кнопки (обычно их три), позволяющие задавать начало и конец движения, осуществлять выбор меню и т.п.
Рис. 6. Джойстик

Джойстик – обычно это стержень-ручка, отклонение которой от вертикального положения приводит к передвижению курсора в соответствующем направлении по экрану монитора. Часто применяется в компьютерных играх. В некоторых моделях в джойстик монтируется датчик давления. В этом случае, чем сильнее пользователь нажимает на ручку, тем быстрее движется курсор по экрану дисплея.
Рис. 7. Трекбол

Трекбол – небольшая коробка с шариком, встроенным в верхнюю часть корпуса. Пользователь рукой вращает шарик и перемещает, соответственно, курсор. В отличие от мыши, трекбол не требует свободного пространства около компьютера, его можно встроить в корпус машины.

Дигитайзер – устройство для преобразования готовых изображений (чертежей, карт) в цифровую форму. Представляет собой плоскую панель – планшет, располагаемую на столе, и специальный инструмент – перо, с помощью которого указывается позиция на планшете. При перемещении пера по планшету фиксируются его координаты в близко расположенных точках, которые затем преобразуются в компьютере в требуемые единицы измерения.
Рис. 8. Планшет
Вернуться
6.9. Мониторы

Видеосистема компьютера состоит из трех компонент:
монитор (называемый также дисплеем);
видеоадаптер;
программное обеспечение (драйверы видеосистемы).

Видеоадаптер посылает в монитор сигналы управления яркостью лучей и синхросигналы строчной и кадровой развёрток. Монитор преобразует эти сигналы в зрительные образы. А программные средства обрабатывают видеоизображения – выполняют кодирование и декодирование сигналов, координатные преобразования, сжатие изображений и др.

Монитор – устройство визуального отображения информации (в виде текста, таблиц, рисунков, чертежей и др.).

До недавнего времени самый распространенный типом мониторов являлись CRT (Cathode Ray Tube)-мониторы. Как видно из названия, в основе всех подобных мониторов лежит катодно-лучевая трубка, но это дословный перевод, технически правильно говорить “электронно-лучевая трубка” (ЭЛТ). Используемая в этом типе мониторов технология была создана много лет назад и первоначально создавалась в качестве специального инструментария для измерения переменного тока, проще говоря, для осциллографа. Развитие этой технологии, применительно к созданию мониторов, привело к производству все больших по размеру экранов с высоким качеством и при низкой стоимости. Сегодня найти в магазине 15″ монитор очень сложно, а ведь года три-четыре назад это был стандарт. Сегодня стандартными являются 17″ мониторы, и наблюдается явная тенденция в сторону 19″ экранов.
CRT-мониторы

Рассмотрим принципы работы CRT-мониторов. CRT- или ЭЛТ-монитор имеет стеклянную трубку, внутри которой вакуум, т.е. весь воздух удален. С фронтальной стороны внутренняя часть стекла трубки покрыта люминофором (Luminofor). В качестве люминофоров для цветных ЭЛТ используются довольно сложные составы на основе редкоземельных металлов – иттрия, эрбия и т.п.

Люминофор – это вещество, которое испускает свет при бомбардировке его заряженными частицами. Заметим, что иногда люминофор называют фосфором, но это не верно, т.к. люминофор, используемый в покрытии CRT, ничего не имеет общего с фосфором. Более того, фосфор “светится” в результате взаимодействия с кислородом воздуха при окислении до P2O5 и мало по времени (кстати, белый фосфор – сильный яд). Для создания изображения в CRT-мониторе используется электронная пушка, которая испускает поток электронов сквозь металлическую маску или решетку на внутреннюю поверхность стеклянного экрана монитора, которая покрыта разноцветными люминофорными точками. Поток электронов на пути к фронтальной части трубки проходит через модулятор интенсивности и ускоряющую систему, работающие по принципу разности потенциалов. В результате, электроны приобретают большую энергию, часть из которой расходуется на свечение люминофора. Электроны попадают на люминофорный слой, после чего энергия электронов преобразуется в свет, т.е. поток электронов заставляет точки люминофора светиться.

Эти светящиеся точки люминофора формируют изображение, которое вы видите на вашем мониторе. Как правило, в цветном CRT-мониторе используются три электронные пушки, в отличие от одной пушки, применяемой в монохромных мониторах, которые сейчас практически не производятся и мало кому интересны.

Все мы знаем или слышали о том, что наши глаза реагируют на основные цвета: красный (Red), зеленый (Green) и синий (Blue) и на их комбинации, которые создают бесконечное число цветов.

Люминофорный слой, покрывающий фронтальную часть электронно-лучевой трубки, состоит из очень маленьких элементов (настолько маленьких, что человеческий глаз их не всегда может различить). Эти люминофорные элементы воспроизводят основные цвета, фактически имеются три типа разноцветных частиц, чьи цвета соответствуют основным цветам RGB (отсюда и название группы из люминофорных элементов – триады).

Люминофор начинает светиться, как было сказано выше, под воздействием ускоренных электронов, которые создаются тремя электронными пушками. Каждая из трех пушек соответствует одному из основных цветов и посылает пучок электронов на различные частицы люминофор, чье свечение основными цветами с различной интенсивностью комбинируется, и, в результате, формируется изображение с требуемым цветом. Например, если активировать красную, зеленую и синюю люминофорные частицы, то их комбинация сформирует белый цвет.

Для управления электронно-лучевой трубкой необходима и управляющая электроника, качество которой во многом определяет и качество монитора. Кстати, именно разница в качестве управляющей электроники, создаваемой разными производителями, является одним из критериев, определяющих разницу между мониторами с одинаковой электронно-лучевой трубкой. Итак, повторимся: каждая пушка излучает электронный луч (или поток, или пучок), который влияет на люминофорные элементы разного цвета (зеленого, красного или синего). Понятно, что электронный луч, предназначенный для красных люминофорных элементов, не должен влиять на люминофор зеленого или синего цвета. Чтобы добиться такого действия используется специальная маска, чья структура зависит от типа кинескопов от разных производителей, обеспечивающая дискретность (растровость) изображения. ЭЛТ можно разбить на два класса – трехлучевые с дельтаобразным расположением электронных пушек и с планарным расположением электронных пушек. В этих трубках применяются щелевые и теневые маски, хотя правильнее сказать, что они все теневые. При этом трубки с планарным расположением электронных пушек еще называют кинескопами с самосведением лучей, так как воздействие магнитного поля Земли на три планарно расположенных луча практически одинаково, и при изменении положения трубки относительно поля Земли не требуется производить дополнительные регулировки.

Итак, самые распространенные типы масок – это теневые, а они бывают двух типов: “Shadow Mask” (теневая маска) и “Slot Mask” (щелевая маска).
SHADOW MASK

Теневая маска (shadow mask) – это самый распространенный тип масок для CRT-мониторов. Теневая маска состоит из металлической сетки перед частью стеклянной трубки с люминофорным слоем. Как правило, большинство современных теневых масок изготавливают из инвара (invar, сплав железа и никеля). Отверстия в металлической сетке работают, как прицел (хотя и не точный), именно этим обеспечивается то, что электронный луч попадает только на требуемые люминофорные элементы, и только в определенных областях. Теневая маска создает решетку с однородными точками (еще называемыми триады), где каждая такая точка состоит из трех люминофрных элементов основных цветов – зеленого, красного и синего – которые светятся с различной интенсивностью под воздействием лучей из электронных пушек. Изменением тока каждого из трех электронных лучей можно добиться произвольного цвета элемента изображения, образуемого триадой точек.

Минимальное расстояние между люминофорными элементами одинакового цвета называется dot pitch (или шаг точки) и является индексом качества изображения. Шаг точки обычно измеряется в миллиметрах (мм).

Чем меньше значение шага точки, тем выше качество воспроизводимого на мониторе изображения.

Теневая маска применяется в большинстве современных мониторов – Hitachi, Panasonic, Samsung, Daewoo, LG, Nokia, Viewsonic.
SLOT MASK

Щелевая маска (slot mask) – это технология, широко применяемая компанией NEC, под именем “CromaClear”. Это решение на практике представляет собой комбинацию двух технологий, описанных выше. В данном случае люминофорные элементы расположены в вертикальных эллиптических ячейках, а маска сделана из вертикальных линий. Фактически, вертикальные полосы разделены на эллиптические ячейки, которые содержат группы из трех люминофорных элементов трех основных цветов. Минимальное расстояние между двумя ячейками называется slot pitch (щелевой шаг). Чем меньше значение slot pitch, тем выше качество изображения на мониторе.

Щелевая маска используется, помимо мониторов от NEC (где ячейки эллиптические), в мониторах Panasonic с трубкой PureFlat (ранее называвшейся PanaFlat). Кстати, самым первым монитором с плоской трубкой был именно Panasonic с трубкой PanaFlat.

LG использует плоскую щелевую трубку Flatron с шагом 0.24 в своих мониторах. Никакого отношения к Trinitron эта технология не имеет.

Заметим, что в плоских трубках Infinite Flat Tube (серия DynaFlat) от Samsung используется не щелевая маска, а обычная теневая.

Компания Sony разработала свою собственную технологию создания плоских трубок – FD Trinitron. Разумеется, с использованием апертурной решётки, но не обычной, а с постоянным шагом.

Компания Mitsubishi разработала технологию DiamondTron NF. Судя по всему, никакой связи с FD Trinitron от Sony нет. При этом в трубках DiamondTron NF применяется апертурная решетка с переменным шагом.

Есть и еще один вид трубок, в которых используется “Aperture Grill” (апертурная, или теневая решетка). Эти трубки стали известны под именем Trinitron и впервые были представлены на рынке компанией Sony еще в 1982 году. В трубках с апертурной решеткой применяется оригинальная технология, где имеется три лучевые пушки, три катода и три модулятора, но при этом имеется одна общая фокусировка. Иногда в технической литературе говорится, что пушка всего одна. Однако вопрос о числе электронных пушек не столь принципиален. Мы будем придерживаться мнения, что электронных пушек три, поскольку есть возможность управлять током всех трех лучей независимо. С другой стороны, можно сказать, что электронная пушка одна, но трехпучковая. Сама Sony использует термин “unitized gun” (объединенная пушка), но связано это лишь с катодной структурой.

Заметим, что есть ошибочное мнение о том, что в трубках с апертурной решеткой применяется одна электронно-лучевая пушка, а цвет создается методом временного мультиплексирования. На самом деле это не так, а объяснение мы привели выше.

Другое ошибочное мнение, иногда встречающееся, состоит в том, что в трубках с апертурной решеткой используется однолучевой хроматрон. То есть имеется одна пушка с переменной энергией пучка и двухслойный люминофор. Пока энергия пучка мала, светится один люминофор (например, красный). По мере повышения энергии начинает светиться другой слой (например, зеленый), что дает желтый цвет. Если энергия станет еще больше, то электроны пролетают первый слой не возбуждая его и получается зеленый цвет. Такие трубки использовались лет 20-30 назад и теперь практически вымерли.
APERTURE GRILLE

Апертурная решетка (aperture grill) – это тип маски, используемый разными производителями в своих технологиях для производства кинескопов, носящих разные названия, но имеющих одинаковую суть, например, технология Trinitron от Sony или Diamondtron от Mitsubishi. Это решение не включает в себя металлическую решетку с отверстиями, как в случае с теневой маской, а имеет решетку из вертикальных линий. Вместо точек с люминофорными элементами трех основных цветов апертурная решетка содержит серию нитей, состоящих из люминофорных элементов, выстроенных в виде вертикальных полос трех основных цветов. Такая система обеспечивает высокую контрастность изображения и хорошую насыщенность цветов, что вместе обеспечивает высокое качество мониторов с трубками на основе этой технологии. Маска, применяемая в трубках фирмы Sony (Mitsubishi, ViewSonic), представляет собой тонкую фольгу, на которой процарапаны тонкие вертикальные линии. Она держится на горизонтальной(ых) (одной в 15″, двух в 17″, трех и более в 21″) проволочке, тень от которой Вы и видите на экране. Эта проволочка применяется для гашения колебаний и называется damper wire. Ее хорошо видно, особенно при светлом фоне изображения на мониторе. Некоторым пользователям эти линии принципиально не нравятся, другие же, наоборот, довольны и используют их в качестве горизонтальной линейки.

Минимальное расстояние между полосами люминофора одинакового цвета называется strip pitch (или шагом полосы) и измеряется в миллиметрах (мм). Чем меньше значение strip pitch, тем выше качество изображения на мониторе.
Апертурная решётка используется в мониторах от Viewsonic, Radius, Nokia, LG, CTX, Mitsubishi, во всех мониторах от SONY.

Заметим, что нельзя напрямую сравнивать размер шага для трубок разных типов: шаг точек (или триад) трубки с теневой маской измеряется по диагонали, в то время как шаг апертурной решетки, иначе называемый горизонтальным шагом точек, – по горизонтали. Поэтому при одинаковом шаге точек трубка с теневой маской имеет большую плотность точек, чем трубка с апертурной решеткой. Для примера: 0.25 мм strip pitch приблизительно эквивалентно 0.27 мм dot pitch.

Оба типа трубок имеют свои преимущества и своих сторонников. Трубки с теневой маской дают более точное и детализированное изображение, поскольку свет проходит через отверстия в маске с четкими краями. Поэтому мониторы с такими CRT хорошо использовать при интенсивной и длительной работе с текстами и мелкими элементами графики, например в CAD/CAM-приложениях. Трубки с апертурной решеткой имеют более ажурную маску, она меньше заслоняет экран, и позволяет получить более яркое, контрастное изображение в насыщенных цветах. Мониторы с такими трубками хорошо подходят для настольных издательских систем и других приложений, ориентированных на работу с цветными изображениями. В CAD-системах мониторы с трубкой, в которой используется апертурная решетка, недолюбливают не потому, что они хуже воспроизводят мелкие детали, чем трубки с теневой маской, а потому что экран монитора типа Trinitron – плоский по вертикали и выпуклый по горизонтали, т.е. имеет выделенное направление.

Как мы уже упоминали, кроме электронно-лучевой трубки внутри монитора есть еще и управляющая электроника, которая обрабатывает сигнал, поступающий напрямую от видеокарты вашего PC. Эта электроника должна оптимизировать усиление сигнала и управлять работой электронных пушек, которые инициируют свечение люминофора, создающего изображение на экране. Выводимое на экране монитора изображение выглядит стабильным, хотя, на самом деле, таковым не является. Изображение на экране воспроизводится в результате процесса, в ходе которого свечение люминофорных элементов инициируется электронным лучом, проходящим последовательно по строкам в следующем порядке: слева направо и сверху вниз на экране монитора. Этот процесс происходит очень быстро, поэтому нам кажется, что экран светится постоянно. В сетчатке наших глаз изображение хранится около 1/20 секунды. Это означает, что если электронный луч будет двигаться по экрану медленно, мы можем видеть это движение как отдельную движущуюся яркую точку, но когда луч начинает двигаться, быстро прочерчивая на экране строку хотя бы 20 раз в секунду, наши глаза не увидят движущейся точки, а увидят лишь равномерную линию на экране. Если теперь заставить луч последовательно пробегать по многим горизонтальным линиям сверху вниз за время меньшее 1/25 секунды, мы увидим равномерно освещенный экран с небольшим мерцанием. Движение самого луча будет происходить настолько быстро, что наш глаз не будет в состоянии его заметить. Чем быстрее электронный луч проходит по всему экрану, тем меньше будет заметно и мерцание картинки. Считается, что такое мерцание становится практически незаметным при частоте повторения кадров (проходов луча по всем элемента изображения) примерно 75 в секунду. Однако, эта величина в некоторой степени зависит от размера монитора. Дело в том, что периферийные области сетчатки глаза содержат светочувствительные элементы с меньшей инерционностью. Поэтому мерцание мониторов с большими углами обзора становится заметным при больших частотах кадров. Способность управляющей электронки формировать на экране мелкие элементы изображения зависит от ширины полосы пропускания (bandwidth). Ширина полосы пропускания монитора пропорциональна числу пикселей, из которых формирует изображение видеокарта вашего компьютера. К ширине полосы пропускания монитора мы еще вернемся.
LCD Monitors

LCD (Liquid Crystal Display, жидкокристаллические мониторы) сделаны из вещества, которое находится в жидком состоянии, но при этом обладает некоторыми свойствами, присущими кристаллическим телам. Фактически, это жидкости, обладающие анизотропией свойств (в частности, оптических), связанных с упорядоченностью в ориентации молекул. Жидкие кристаллы были открыты давным-давно, но изначально они использовались для других целей. Молекулы жидких кристаллов под воздействием электричества могут изменять свою ориентацию и вследствие этого изменять свойства светового луча проходящего сквозь них. Основываясь на этом открытии и в результате дальнейших исследований, стало возможным обнаружить связь между повышением электрического напряжения и изменением ориентации молекул кристаллов для обеспечения создания изображения. Первое свое применение жидкие кристаллы нашли в дисплеях для калькуляторов и в кварцевых часах, а затем их стали использовать в мониторах для портативных компьютеров. Сегодня, в результате прогресса в этой области, начинают получать все большее распространение LCD-мониторы для настольных компьютеров. Далее речь пойдет только о традиционных LCD-мониторах, так называемых Nematic LCD.

Экран LCD-монитора представляет собой массив маленьких сегментов (называемых пикселями), которые могут манипулироваться для отображения информации. LCD-монитор имеет несколько слоев, где ключевую роль играют две панели сделанные из свободного от натрия и очень чистого стеклянного материала, называемого субстрат или подложка, которые собственно и содержат тонкий слой жидких кристаллов между собой. На панелях имеются бороздки, которые направляют кристаллы, сообщая им специальную ориентацию. Бороздки расположены таким образом, что они параллельны на каждой панели, но перпендикулярны между двумя панелями. Продольные бороздки получаются в результате размещения на стеклянной поверхности тонких пленок из прозрачного пластика, который затем специальным образом обрабатывается. Соприкасаясь с бороздками, молекулы в жидких кристаллах ориентируются одинаково во всех ячейках. Молекулы одной из разновидностей жидких кристаллов (нематиков) в отсутствии напряжения поворачивают вектор электрического (и магнитного) поля в такой световой волне на некоторый угол в плоскости, перпендикулярной оси распространения пучка. Нанесение бороздок на поверхность стекла позволяет обеспечить одинаковые повороты плоскости поляризации для всех ячеек. Две панели расположены очень близко друг к другу. Жидкокристаллическая панель освещается источником света (в зависимости от того, где он расположен, жидкокристаллические панели работают на отражение или на прохождение света). Плоскость поляризации светового луча поворачивается на 90° при прохождении одной панели.

При появлении электрического поля молекулы жидких кристаллов частично выстраиваются вдоль поля, и угол поворота плоскости поляризации света становится отличным от 90 градусов.

Поворот плоскости поляризации светового луча незаметен для глаза, поэтому возникла необходимость добавить к стеклянным панелям еще два других слоя, представляющих собой поляризационные фильтры. Эти фильтры пропускают только ту компоненту светового пучка, у которой ось поляризации соответствует заданному. Поэтому при прохождении поляризатора пучок света будет ослаблен в зависимости от угла между его плоскостью поляризации и осью поляризатора. При отсутствии напряжения ячейка прозрачна вот по какой причине: первый поляризатор пропускает только свет с соответствующим вектором поляризации. Благодаря жидким кристаллам вектор поляризации света поворачивается, и к моменту прохождения пучка ко второму поляризатору он уже повернут так, что проходит через второй поляризатор без проблем. В присутствии электрического поля поворота вектора поляризации происходит на меньший угол, тем самым второй поляризатор становится только частично прозрачным для излучения. Если разность потенциалов будет такой, что поворота плоскости поляризации в жидких кристаллах не произойдет совсем, то световой луч будет полностью поглощен вторым поляризатором, и экран при освещении сзади будет спереди казаться черным (лучи подсветки поглощаются в экране полностью). Если расположить большое число электродов, которые создают разные электрические поля в отдельных местах экрана (ячейки), то появится возможность, при правильном управлении потенциалами этих электродов, отображать на экране буквы и другие элементы изображения. Электроды помещаются в прозрачный пластик и могут иметь любую форму. Технологические новшества позволили ограничить их размеры величиной маленькой точки, соответственно, на одной и той же площади экрана можно расположить большее число электродов, что увеличивает разрешение LCD-монитора и позволяет нам отображать даже сложные изображения в цвете. Для вывода цветного изображения необходима подсветки монитора сзади, так, чтобы свет порождался в задней части LCD-дисплея. Это необходимо для того, чтобы можно было наблюдать изображение хоршего качества, даже если окружающая среда не является светлой. Цвет получается в результате использования трех фильтров, которые выделяют из излучения источника белого света три основные компоненты. Комбинация трех основных цветов для каждой точки или пикселя экрана дает возможность воспроизвести любой цвет.

Вообще-то, в случае с цветом есть несколько возможностей: можно сделать несколько фильтров друг за другом (что приводит к малой доле проходящего излучения), можно воспользоваться свойством жидко-кристаллической ячейки – при изменении напряженности электрического поля угол поворота плоскости поляризации излучения изменяется по-разному для компонент света с разной длиной волны. Эту особенность можно использовать для того, чтобы отражать (или поглощать) излучение заданной длины волны (проблема состоит в необходимости точно и быстро изменять напряжение). Какой именно механизм используется, зависит от конкретного производителя. Первый метод проще, второй эффективнее.

Первые LCD-дисплеи были очень маленькими, около 8 дюймов, в то время как сегодня они достигли 15″ размеров для использования в ноутбуках, а для настольных компьютеров производятся 19″ и более LCD-мониторы. Вслед за увеличением размеров следует увеличение разрешения, следствием чего является появление новых проблем, которые были решены с помощью появившихся специальных технологий, все это мы опишем далее. Одной из первых проблем была необходимость стандарта в определении качества отображения при высоких разрешениях. Первым шагом на пути к цели было увеличение угла поворота плоскости поляризации света в кристаллах с 90° до 270° с помощью STN технологии.
Технология STN

STN – это акроним, означающий “Super Twisted Nematic”. Технология STN позволяет увеличить торсионный угол (угол кручения) ориентации кристаллов внутри LCD дисплея с 90° до 270°, что обеспечивает лучшую контрастность изображения при увеличении размеров монитора. Часто STN-ячейки используются в паре. Это называется DSTN (Double Super Twisted Nematic), и этот метод очень популярен среди мониторов для портативных компьютеров, использующих дисплеи с пассивной матрицей, где DSTN обеспечивает улучшение контрастности при отображении изображений в цвете. Две STN-ячейки располагаются вместе так, чтобы при вращении они двигались в разных направлениях. Также STN-ячейки используются в режиме TSTN (Triple Super Twisted Nematic), когда два тонких слоя пластиковой пленки (полимерной пленки) добавляются для улучшения цветопередачи цветных дисплеев или для обеспечения хорошего качества монохромных мониторов. Мы упомянули термин “пассивная матрица”, сделаем пояснение. Термин “пассивная матрица” (passive matrix) появился в результате разделения монитора на точки, каждая из которых, благодаря электродам, может задавать ориентацию плоскости поляризации луча независимо от остальных, так что в результате каждый такой элемент может быть подсвечен индивидуально для создания изображения. Матрица называется пассивной, потому что технология создания LCD-дисплеев, которую мы только что описали, не может обеспечить быструю смену информации на экране. Изображение формируется строка за строкой путем последовательного подвода управляющего напряжения на отдельные ячейки, делающего их прозрачными. Из-за довольно большой электрической емкости ячеек напряжение на них не может изменяться достаточно быстро, поэтому обновление картинки происходит медленно. Только что описанный дисплей имеет много недостатков с точки зрения качества, потому что изображение не отображается плавно и дрожит на экране. Маленькая скорость изменения прозрачности кристаллов не позволяет правильно отображать движущиеся изображения. Мы также должны принимать вовнимание тот факт , что между соседними электродами возникает некоторое взаимное влияние, которое может проявляться в виде колец на экране.
Dual Scan Screens

Для решения части вышеописанных проблем применяют специальные хитрости, например, разделение экрана на две части и применение двойного сканирования в одно и тоже время обоих частей, в результате экран дважды регенерируется, и изображение не дрожит и плавно отображается.

Также лучших результатов с точки зрения стабильности, качества, разрешения, гладкости и яркости изображения можно добиться, используя экраны с активной матрицей, которые, впрочем, стоят дороже. В активной матрице используются отдельные усилительные элементы для каждой ячейки экрана, компенсирующие влияние емкости ячеек и позволяющие значительно уменьшить время изменения их прозрачности. Активная матрица (active matrix) имеет массу преимуществ по сравнению с пассивной матрицей. Например, лучшая яркость и возможность смотреть на экран даже с отклонением до 45° и более (т.е. при угле обзора 120°-140°) без ущерба качеству изображения, что невозможно в случае с пассивной матрицей, которая позволяет видеть качественное изображение только с фронтальной позиции по отношению к экрану. Заметим, что дорогие модели LCD-мониторов с активной матрицей обеспечивают угол обзора в 160°, и есть все основания предполагать, что технология будет и дальше совершенствоваться. В случае с активной матрицей вы можете отображать движущиеся изображения без видимого дрожания, так как время реакции дисплея с активной матрицей около 50 ms против 300 ms для пассивной матрицы, и качество контрастности лучше, чем у CRT-мониторов. Следует отметить, что яркость отдельного элемента экрана остается неизменной на всем интервале времени между обновлениями картинки, а не представляет собой короткий импульс света, излучаемый элементом люминофора CRT-монитора сразу после прохождения по этому элементу электронного луча. Именно поэтому для LCD-мониторов достаточной является частота регенерации 60 Гц. Благодаря лучшему качеству изображений эта технология также используется и в мониторах для настольных компьютеров, что позволяет создавать компактные мониторы, менее опасные для нашего здоровья.

Функциональные возможности LCD-мониторов с активной матрицей почти такие же, как у дисплеев с пассивной матрицей. Разница заключается в матрице электродов, которая управляет ячейками жидких кристаллов дисплея. В случае с пассивной матрицей разные электроды получают электрический заряд циклическим методом при построчной регенерации дисплея, а в результате разряда емкостей элементов изображение исчезает, так как кристаллы возвращаются к своей изначальной конфигурации. В случае с активной матрицей к каждому электроду добавлен запоминающий транзистор, который может хранить цифровую информацию (двоичные значения 0 или 1), и в результате изображение сохраняется до тех пор, пока не поступит другой сигнал. Частично проблема отсрочки затухания изображения в пассивных матрицах решается за счет использования большего числа жидкокристаллических слоев для увеличения пассивности и уменьшения перемещений, теперь же, при использовании активных матриц, появилась возможность сократить число жидкокристаллических слоев. Запоминающие транзисторы должны производиться из прозрачных материалов, что позволит световому лучу проходить сквозь них, а значит, транзисторы можно располагать на тыльной части дисплея, на стеклянной панели, которая содержит жидкие кристаллы. Для этих целей используются пластиковые пленки, называемые “Thin Film Transistor” (или просто TFT).

Thin Film Transistor (TFT), т.е. тонкопленочный транзистор, действительно очень тонкий, его толщина – в пределах от 1/10 до 1/100 микрона. Технология создания TFT очень сложна, при этом имеются трудности с достижением приемлемого процента годных изделий из-за того, что число используемых транзисторов очень велико. Заметим, что монитор, который может отображать изображение с разрешением 800х600 пикселей в SVGA режиме и только с тремя цветами, имеет 1440000 отдельных транзисторов. Производители устанавливают нормы на предельное количество транзисторов, которые могут быть нерабочими в LCD-дисплее. Правда, у каждого производителя свое мнение о том, какое количество транзисторов может не работать.

Вкратце расскажем о разрешении LCD-мониторов. Это разрешение одно, и его еще называют native, оно соответствует максимальному физическому разрешению CRT-мониторов. Именно в native разрешении LCD-монитор воспроизводит изображение лучше всего. Это разрешение определяется размером пикселей, который у LCD-монитора фиксирован. Например, если LCD-монитор имеет native разрешение 1024×768, то это значит, что на каждой из 768 линий расположено 1024 электродов, читай: пикселей. При этом есть возможность использовать и более низкое, чем native, разрешение. Для этого есть два способа. Первый называется “Centering” (центрирование); суть метода в том, что для отображения изображения используется только то количество пикселей, которое необходимо для формирования изображения с более низким разрешением. В результате изображение получается не во весь экран, а только в середине. Все неиспользуемые пиксели остаются черными, т.е. вокруг изображения образуется широкая черная рамка. Второй метод называется “Expansion” (растяжение). Суть его в том, что при воспроизведении изображения с более низким, чем native, разрешением используются все пиксели, т.е. изображение занимает весь экран. Однако, из-за того, что изображение растягивается на весь экран, возникают небольшие искажения, и ухудшается резкость. Поэтому при выборе LCD-монитора важно четко знать, какое именно разрешение вам нужно.

Отдельно стоит упомянуть о яркости LCD-мониторов, так как пока нет никаких стандартов для определения того, достаточной ли яркостью обладает LCD-монитор. При этом в центре яркость LCD-монитора может быть на 25% выше, чем у краев экрана. Единственный способ определить, подходит ли вам яркость конкретного LCD-монитора, это сравнить его яркость с другими LCD-мониторами.

И последний параметр, о котором нужно упомянуть, это контрастность. Контрастность LCD-монитора определяется отношением яркостей между самым ярким белым и самым темным черным цветом. Хорошим контрастным соотношением считается 120:1, что обеспечивает воспроизведение живых насыщенных цветов. Контрастное соотношение 300:1 и выше используется тогда, когда требуется точное отображение черно-белых полутонов. Но, как и в случае с яркостью, пока нет никаких стандартов, поэтому главным определяющим фактором являются ваши глаза.

Стоит отметить и такую особенность части LCD-мониторов, как возможность поворота самого экрана на 90°, с одновременным автоматическим разворотом изображения. В результате, например, если вы занимаетесь версткой, то теперь лист формата A4 можно полностью уместить на экране без необходимости использовать вертикальную прокрутку, чтобы увидеть весь текст на странице. Правда, среди CRT-мониторов тоже есть модели с такой возможностью, но они крайне редки. В случае с LCD-мониторами эта функция становиться почти стандартной.

К преимуществам LCD-мониторов можно отнести то, что они действительно плоские в буквальном смысле этого слова, а создаваемое на их экранах изображение отличается четкостью и насыщенностью цветов. Отсутствие искажений на экране и массы других проблем, свойственных традиционным CRT-мониторам. Добавим, что потребляемая и рассеиваемая мощность у LCD-мониторов существенно ниже, чем у CRT-мониторов.

Главной проблемой развития технологий LCD для сектора настольных компьютеров, похоже, является размер монитора, который влияет на его стоимость. С ростом размеров дисплеев снижаются производственные возможности. В настоящее время максимальная диагональ LCD-монитора, пригодного к массовому производству, достигает 20″, а недавно некоторые разработчики представили 43″ модели и даже 64″ модели TFT-LCD-мониторов, готовых к началу коммерческого производства.

Но похоже, что исход битвы между CRT и LCD-мониторами за место на рынке уже предрешен. Причем не в пользу CRT-мониторов. Будущее, судя по всему, все же за LCD-мониторами с активной матрицей. Исход битвы стал ясен после того, как IBM объявила о выпуска монитора с матрицей, имеющей 200 пикселей на дюйм, то есть, с плотностью в два раза больше, чем у CRT-мониторов. Как утверждают эксперты, качество картинки отличается так же, как при печати на матричном и лазерном принтерах. Поэтому вопрос перехода к повсеместному использованию LCD-мониторов лишь в их цене.

Тем не менее, существуют и другие технологии, которые создают и развивают разные производители, и некоторые из этих технологий носят название PDP (Plasma Display Panels), или просто “plasma”, и FED (Field Emission Display). Расскажем немного об этих технологиях.
Plasma

Такие крупнейшие производители, как Fujitsu, Matsushita, Mitsubishi, NEC, Pioneer и другие, уже начали производство плазменных мониторов с диагональю 40″ и более, причем некоторые модели уже готовы для массового производства. Работа плазменных мониторов очень похожа на работу неоновых ламп, которые сделаны в виде трубки, заполненной инертным газом низкого давления. Внутрь трубки помещена пара электродов между которыми зажигается электрический разряд и возникает свечение. Плазменные экраны создаются путем заполнения пространства между двумя стеклянными поверхностями инертным газом, например, аргоном или неоном. Затем на стеклянную поверхность помещают маленькие прозрачные электроды, на которые подается высокочастотное напряжение. Под действием этого напряжения в прилегающей к электроду газовой области возникает электрический разряд. Плазма газового разряда излучает свет в ультрафиолетовом диапазоне, который вызывает свечение частиц люминофора в диапазоне, видимом человеком. Фактически, каждый пиксель на экране работает, как обычная флуоресцентная лампа (иначе говоря, лампа дневного света). Высокая яркость и контрастность наряду с отсутствием дрожания являются большими преимуществами таких мониторов. Кроме того, угол по отношению к нормали, под которым можно увидеть нормальное изображение на плазменных мониторах, существенно больше, чем 45° в случае с LCD-мониторами. Главными недостатками такого типа мониторов является довольно высокая потребляемая мощность, возрастающая при увеличении диагонали монитора, и низкая разрешающая способность, обусловленная большим размером элемента изображения. Кроме этого, свойства люминофорных элементов быстро ухудшаются, и экран становится менее ярким, поэтому срок службы плазменных мониторов ограничен 10000 часами (это около 5 лет при офисном использовании). Из-за этих ограничений такие мониторы используются пока только для конференций, презентаций, информационных щитов, т.е. там, где требуются большие размеры экранов для отображения информации. Однако есть все основания предполагать, что в скором времени существующие технологические ограничения будут преодолены, а при снижении стоимости такой тип устройств может с успехом применяться в качестве телевизионных экранов или мониторов для компьютеров. Подобные телевизоры уже есть, они имеют большую диагональ, очень тонкие (по сравнению со стандартными телевизорами) и стоят – $10000 и выше.

Ряд ведущих разработчиков в области LCD и Plasma-экранов совместно разрабатывают технологию PALC (Plasma Addressed Liquid Crystal), которая должна соединить в себе преимущества плазменных и LCD-экранов с активной матрицей.
FED – мониторы

Технологии, которые применяются при создании мониторов, могут быть разделены на две группы: 1) мониторы, основанные на излучении света, например, традиционные CRT-мониторы и плазменные, т.е. это устройства, элементы экрана которых излучают свет во внешний мир и 2) мониторы трансляционного типа, такие, как LCD-мониторы. Одним из лучших технологических направлений в области создания мониторов, которое совмещает в себе особенности обеих технологий, описанных нами выше, является технология FED (Field Emission Display). Мониторы FED основаны на процессе, который немного похож на тот, что применяется в CRT-мониторах, так как в обоих методах применяется люминофор, светящийся под воздействием электронного луча. Главное отличие между CRT и FED мониторами состоит в том, что CRT-мониторы имеют три пушки, которые испускают три электронных луча, последовательно сканирующих панель, покрытую люминофорным слоем, а в FED-мониторе используется множество маленьких источников электронов, расположенных за каждым элементом экрана, и все они размещаются в пространстве, по глубине меньшем, чем требуется для CRT. Каждый источник электронов управляется отдельным электронным элементом, так же, как это происходит в LCD-мониторах, и каждый пиксель затем излучает свет, благодаря воздействию электронов на люминофорные элементы, как и в традиционных CRT-мониторах. При этом FED-мониторы очень тонкие.

Есть и еще одна новая, перспективная технология, это LEP (Light Emission Plastics), или светящий пластик.
Вернуться
6.10. Сертификаты TCO и MPRII

Все мы хоть раз слышали о том, что мониторы опасны для здоровья. С целью снижения риска для здоровья различными организациями были разработаны рекомендации по параметрам мониторов, следуя которым производители мониторов борются за наше здоровье. Все стандарты безопасности для мониторов регламентируют максимально допустимые значения электрических и магнитных полей, создаваемых монитором при работе. Практически в каждой развитой стране есть собственные стандарты, но особую популярность во всем мире (так сложилось исторически) завоевали стандарты, разработанные в Швеции и известные под именами TCO и MPRII. Расскажем о них подробнее.
TCO

TCO (The Swedish Confederation of Professional Employees, Шведская Конфедерация Профессиональных Коллективов Рабочих), членами которой являются 1.3 миллиона шведских профессионалов, организационно состоит из 19 объединений, которые работают вместе с целью улучшения условий работы своих членов. Эти 1.3 млн. членов представляю широкий спектр рабочих и служащих из государственного и частного сектора экономики.

TCO никак не связана с политикой или религией, что является одной из определяющих причин, позволяющей объединяться различным коллективным членам под крышей одной организации.

Учителя, инженеры, экономисты, секретари и няньки – лишь немногие из групп, которые все вместе формируют TCO. Это означает, что TCO отражает большой срез общества, что обеспечивает ей широкую поддержку.

Это была цитата из официального документа TCO. Дело в том, что более 80% служащих и рабочих в Швеции имеют дело с компьютерами, поэтому главная задача TCO – это разработать стандарты безопасности при работе с компьютерами, т.е. обеспечить своим членам и всем остальным безопасное и комфортное рабочее место. Кроме разработки стандартов безопасности, TCO участвует в создании специальных инструментов для тестирования мониторов и компьютеров.

Стандарты TCO разработаны с целью гарантировать пользователям компьютеров безопасную работу. Этим стандартам должен соответствовать каждый монитор, продаваемый в Швеции и в Европе. Рекомендации TCO используются производителями мониторов для создания более качественных продуктов, которые менее опасны для здоровья пользователей. Суть рекомендаций TCO состоит не только в определении допустимых значений различного типа излучений, но и в определении минимально приемлемых параметров мониторов, например, поддерживаемых разрешений, интенсивности свечения люминофора, запас яркости, энергопотребление, шумность и т.д. Более того, кроме требований, в документах TCO приводятся подробные методики тестирования мониторов.

Рекомендации TCO применяются как в Швеции, так и во всех Европейских странах для определения стандартных параметров, которым должны соответствовать все мониторы. В состав разработанных TCO рекомендаций сегодня входят три стандарта: TCO’92, TCO’95 и TCO’99, нетрудно догадаться, что цифры означают год их принятия.

Большинство измерений во время тестирований на соответствие стандартам TCO проводятся на расстоянии 30 см спереди от экрана и на расстоянии 50 см вокруг монитора. Для сравнения: во время тестирования мониторов на соответствие другому стандарту MPRII все измерения производятся на расстоянии 50 см спереди экрана и вокруг монитора. Это объясняет то, что стандарты TCO более жесткие, чем MPRII.
TCO ’92

Стандарт TCO’92 был разработан исключительно для мониторов и определяет величину максимально допустимых электромагнитных излучений при работе монитора, а также устанавливает стандарт на функции энергосбережения мониторов. Кроме того, монитор, сертифицированный по TCO’92, должен соответствовать стандарту на энергопотребление NUTEK и соответствовать Европейским стандартам на пожарную и электрическую безопасность.
TCO ’95

Стандарт TCO’95 распространяется на весь персональный компьютер, т.е. на монитор, системный блок и клавиатуру, и касается эргономических свойств, излучений (электрических и магнитных полей, шума и тепла), режимов энергосбережения и экологии (с требованием к обязательной адаптации продукта и технологического процесса производства на фабрике). Заметим, что в данном случае термин “персональный компьютер” включает в себя рабочие станции, серверы, настольные и напольные компьютеры, а также компьютеры Macintosh.

Стандарт TCO’95 существует наряду с TCO’92 и не отменяет последний.

Требования TCO’95 по отношению к электромагнитным излучениям мониторов не являются более жесткими, чем по TCO’92.

Кстати, что касается эргономики, то TCO’95 в этом отношении предъявляет более строгие требования, чем международный стандарт ISO 9241

Отметим, что LCD и плазменные мониторы также могут быть сертифицированы по стандартам TCO’92 и TCO’95, как, впрочем, и портативные компьютеры.

К слову, мыши не подлежат сертификации TCO’95. В разработке стандарта TCO’95 принимали совместное участие четыре организации: TCO, Naturskyddforeinegen, NUTEK и SEMKO AB.

Naturskyddforeinegen (The Swedish Society for Nature Conservation) – Шведское общество защиты природы. Это их знак в виде летящего сокола размещен на эмблеме TCO’95. Интересно было бы узнать транскрипцию названия этой уважаемой организации.

NUTEK (The National Board for Industrial and Technical Development in Sweden) – Шведская правительственная организация, занимающаяся исследованиями в области энергосбережения и эффективного использования энергии.

Компания SEMKO AB занимается тестированием и сертификацией электрических продуктов. Это независимое подразделение группы British Inchcape. SEMKO AB разработала тесты для TCO’95 сертификации и проверки сертифицированных устройств.
TCO ’99

TCO’99 предъявляет более жесткие требования, чем TCO’95, в следующих областях: эргономика (физическая, визуальная и удобство использования), энергия, излучение (электрических и магнитных полей), окружающая среда и экология, а также пожарная и электрическая безопасность. Стандарт TCO’99 распространяется на традиционные CRT-мониторы, плоскопанельные мониторы (Flat Panel Displays), портативные компьютеры (Laptop и Notebook), системные блоки и клавиатуры. Спецификации TCO’99 содержат в себе требования, взятые из стандартов TCO’95, ISO, IEC и EN, а также из EC Directive 90/270/EEC и Шведского национального стандарта MPR 1990:8 (MPRII) и из более ранних рекомендаций TCO. В разработке стандарта TCO’99 приняли участие TCO, Naturskyddsforeningen и and Statens Energimyndighet (The Swedish National Energy Administration, Шведское Национальное Агентство по Энергетике).

Экологические требования включают в себя ограничения на присутствие тяжелых металлов, броминатов и хлоринатов, фреонов (CFC) и хлорированных веществ внутри материалов.

Любой продукт должен быть подготовлен к переработке, а производитель обязан иметь разработанную политику по утилизации, которая должна исполняться в каждой стране, в которой действует компания.

Требования по энергосбережению включают в себя необходимость того, чтобы компьютер и/или монитор после определенного времени бездействия снижали уровень потребления энергии на одну или более ступеней. При этом период времени восстановления до рабочего режима потребления энергии, должен устраивать пользователя.
MPR II

Это еще один стандарт, разработанный в Швеции, где правительство и неправительственные организации очень сильно заботятся о здоровье населения страны. MPRII был разработан SWEDAC (The Swedish Board for Technical Accreditation) и определяет максимально допустимые величины излучения магнитного и электрического полей, а также методы их измерения. MPRII базируется на концепции о том, что люди живут и работают в местах, где уже есть магнитные и электрические поля, поэтому устройства, которые мы используем, такие, как монитор для компьютера, не должны создавать электрические и магнитные поля, большие чем те, которые уже существуют. Заметим, что стандарты TCO требуют снижения излучений электрических и магнитных полей от устройств настолько, насколько это технически возможно, вне зависимости от электрических и магнитных полей, уже существующих вокруг нас. Впрочем, мы уже отмечали, что стандарты TCO жестче, чем MPRII.
Вернуться
6.11. Принтер, плоттер.

Принтер – печатающее устройство. Осуществляет вывод из компьютера закодированной информации в виде печатных копий текста или графики.

Существуют тысячи наименований принтеров. Но основных видов принтеров четыре: матричные, лазерные, сублимационные и струйные.
Матричные принтеры

Матричные принтеры используют комбинации маленьких штырьков, которые бьют по красящей ленте, благодаря чему на бумаге остаётся отпечаток символа. Каждый символ, печатаемый на принтере, формируется из набора 9, 18 или 24 игл, сформированных в виде вертикальной колонки. Недостатками этих недорогих принтеров являются их шумная работа и невысокое качество печати, приемлемое, в основном, для домашних целей.
Струйные принтеры

Струйные принтеры. Современный струйный принтер работает следующим образом: шаговый мотор протягивает через принтер бумагу; одновременно с этим поперек листа в горизонтальном направлении движется печатающая головка, приводимая в движение тем же шаговым мотором. Через крошечные отверстия, которые называются соплами, на бумагу выпрыскиваются чернила. Сопла, управляемые электроникой, “выстреливают” с огромной “скорострельностью” на бумагу микроскопические капли чернил. В результате согласованного движения бумаги и печатающей головки, в нужное время и в нужное место “выстреливающей” строго определенное количество капель, на бумаге возникает изображение.

В настоящее время существует несколько технологий струйной печати, это термоструйная и механическая печать.
Термоструйная печть.

В печатающей головке термического струйного принтера находится большое количество микроскопических сопел, которые с огромной “скорострельностью” и снайперской точностью “обстреливают” бумагу чернильными каплями. Чем меньше объем одной капли, тем меньше размер образуемой ею точки. Это, в свою очередь, позволяет принтеру передавать тончайшие контуры и мельчайшие детали печатаемого изображения. От количества сопел в печатающей головке и от скорости образования отдельных капель зависит производительность печатающей головки и скорость работы принтера в целом. Головка самого первого принтера компании HP – ThinkJet (1984 год) – имела 12 сопел, каждое из которых выдавало капли объемом по 180 пиколитров (пиколитр (пл) – одна триллионная часть литра). Нынешний цветной принтер HP DeskJet 5550 печатает с помощью 300 сопел, создающих капли объемом всего по 5 пл. Одна такая капелька оставляет на бумаге точку, практически невидимую невооруженным глазом. Как мы уже говорили, капля чернил из сопла “выстреливается” за счет быстрого нагревания чернил. Для этого в канале каждого сопла имеется термоэлемент (резистор) размером примерно 30х30 мкм (микрометр, или микрон – одна миллионная метра). Когда к нему прикладывается напряжение, он моментально разогревается до температуры примерно 300°С. Это приводит к возникновению парового пузырька в канале сопла и скачкообразному повышению давления в нем, которое можно сравнить с микровзрывом. Он-то и выбрасывает из сопла каплю чернил, как выбрасывает сгорающий пороховой заряд пулю из канала ствола.

После того как паровой пузырек вытолкнул каплю из сопла, она со скоростью 54 км/ч устремляется на бумагу. В этот момент напряжение перестает подаваться на термоэлемент, в канале сопла возникает разреженность, которая засасывает очередную “пулю” – порцию чернил, выстреливаемую в следующий момент. Весь процесс – от прикладывания напряжения к термоэлементу до засасывания очередной порции чернил и готовности к следующему “выстрелу” – длится менее 80 микросекунд. Величина этого промежутка времени и определяет “скорострельность” термической печатающей головки, то есть максимальное количество капель, выдаваемых ею за единицу времени.

В HP DeskJet одно сопло выдает, к примеру, 21 тыс. капель в секунду. Таким образом, печатающая головка из 300 сопел за секунду создаст 6,3 млн отдельных капель. Умножив это количество на объем одной капли – 5 пл, получаем примерный расход чернил: 0,032 мл в секунду (разумеется, при условии, что все сопла работают и не забиты грязью или засохшими чернилами).
Механическая печать с использование пъезоэлементов

Еще в 1977 году фирма Siemens разработала первое печатающее устройство под названием PT80i. Его печатающая головка с двенадцатью соплами работала на пьезоэлементах. Несколько лет спустя, в 1984 году, появились первые принтеры Epson на пьезоэлементах. Одновременно с ними на рынке обозначились и конкуренты – термоструйные принтеры Canon и Hewlett-Packard. В Siemens на них не обратили внимания. Как оказалось, совершенно напрасно. Из-за своей простоты в изготовлении термоструйные печатающие головки были дешевле пьезоэлектрических и продавались лучше.

Электромеханические печатающие головки на пьезоэлементах имеют сложную конструкцию и требуют больших затрат при изготовлении, чем термоструйные, производство которых из кремниевых пластин обходится намного дешевле.

Впрочем, эти затраты оправдываются большим сроком эксплуатации. Сегодня практически только Epson производит принтеры с печатающими головками на пьезокристаллах. В свое время кроме Siemens данной технологией начинали заниматься Kodak и Mannesman, но сегодня эти производители не играют никакой роли на рынке струйных принтеров с пьезоголовками. Бесспорный лидер здесь – фирма Epson. Все ее принтеры серии Stylus оснащены стационарными печатающими головками. Они не нагревают чернила, следовательно, внутри сопел не образуется “нагар”, как это происходит при термической печати. Фактически пьезоголовку можно сравнить с миниатюрным механическим насосом.

Главную роль в печатающей головке данного типа играют пьезокристаллы. Они имеют свойство деформироваться при прикладывании к ним электрического напряжения. Механическая деформация кристалла используется для создания в сопле давления, необходимого для выталкивания чернил. В отличие от устройств фирмы Siemens 70-х годов сегодня конструкторы Epson не используют пьезокристаллы в виде трубочек. Теперь в каждое сопло устанавливается пьезокристалл в форме диска. В зависимости от полярности (плюс или минус) приложенного напряжения этот диск изгибается либо в одном, либо в другом направлении. При этом пьезокристалл давит на мембрану, которая, в свою очередь, выталкивает из сопла чернила. Процесс деформации длится всего пять микросекунд, что позволяет добиться очень высокой “скорострельности” печатающей головки и производительности принтера в целом.
Лазерные принтеры

Лазерные принтеры работают примерно так же, как ксероксы. Раньше лазерные принтеры иначе как генераторами озона не называли. Теперь благодаря отказу многих производителей от использования коронированных проводников с этим покончено. Вот только некоторые цветные лазерные принтеры, как и автомобили, все еще требуют дозаправки маслом. В отличие от струйных принтеров, принимающих и печатающих изображение построчно, лазерный принтер предварительно готовит к печати сразу всю страницу.

Вот почему он должен иметь оперативную память большого объема. Когда вы посылаете на печать рисунок, он сначала “переводится” на нужный язык, используемый принтером (PCL, Postscript и т. д.).

Затем принтер преобразовывает полученные данные в растровое изображение, и печать начинается.

За перенос тонера на бумагу отвечает светочувствительный барабан (фотобарабан). Предварительно при помощи коротрона или вала первичной зарядки он заряжается отрицательным зарядом. Чтобы обеспечить первичный заряд фотобарабана, к коротрону прикладывается высокое напряжение, в результате чего вокруг него возникает мощное поле, сообщающее заряд. Использование вместо коротронов вала первичной зарядки позволяет исключить необходимость создания полей высокого напряжения, что предотвращает возникновение ядовитого озона. К сожалению, такое решение снижает срок службы фотобарабана, поскольку вал зарядки должен входить с ним в контакт, тем самым изнашивая поверхность.

Заряженный фотобарабан обладает следующей особенностью: там, куда попадает луч света, рисующий изображение, заряд нейтрализуется. Источниками этого света являются светодиоды, или лазер, который направляет свой луч на фотобарабан через призму и систему зеркал, таким образом формируя изображение.

Тонер, используемый в лазерных принтерах, содержит частички железа и также имеет отрицательный заряд. Он переносится на фотобарабан магнитным валиком и прилипает только к нейтрализованным участкам, как бы проявляя невидимое изображение.

Для того чтобы изображение перенеслось на бумагу, она должна иметь положительный заряд. Его сообщает листу бумаги заряжающий вал, находящийся под напряжением.

После этого при вращении фотобарабана на положительно заряженный лист бумаги переносится отрицательно заряженный тонер и формируется изображение. Однако процесс печати еще не завершен, так как тонер не закреплен на листе. Процесс фиксации происходит в специальной “печке” – блоке термофиксации, где бумага подвергается кратковременному нагреву до температуры около 200°С. При этом смолы, содержащиеся в тонере, расплавляются и надежно прилипают к листу.

Тончайшие волоски, через которые проходит бумага на выходе из принтера, снимают с нее остаточный заряд и нейтрализуют листы, чтобы они не слипались друг с другом.

Цветные лазерные принтеры имеют конструкцию (несмотря на некоторое сходство) намного сложнее, чем черно-белые. Разница заключается в том, что цветной принтер работает с четырьмя цветами, а это значит, что для каждого из них должен быть как минимум один картридж. Соответственно фотобарабан или лента переноса освещаются четырежды – по одному разу для каждого цвета.

Для цветной лазерной фотопечати требуется пять основных компонентов: лазер, светочувствительный барабан, средство переноса изображения на бумагу (барабан или лента), картриджи с тонером четырех основных цветов и блок термофиксации.

После получения принтером команды напечатать страницу драйвер переводит данные на понятный этому устройству язык. Между тем растровый процессор (Raster Image Processor) преобразует страницу в растровое изображение и раскладывает его на четыре цвета, и луч лазера начинает засветку фотобарабана.

При этом происходит следующее: принтер заряжает фотобарабан отрицательным электростатическим зарядом. В тех местах, куда попадает луч лазера, этот заряд нейтрализуется и таким образом на барабане появляется скрытое электростатическое изображение первого цветового слоя. После этого в дело вступает картридж с тонером первого цвета (чаще всего это Cyan). Тонер также имеет отрицательный заряд, а потому прилипает только к тем участкам, на которые воздействовал луч лазера (они, как уже было сказано, потеряли свой заряд).

Теперь тонер как бы проявил невидимую картинку, которую необходимо где-то сохранить, чтобы на фотобарабан можно было поместить оставшиеся цвета. Для этой цели служит лента (или барабан) переноса, на которой и сохраняется первый отпечаток. После этого принтер начинает работать с другим цветом, и процедура повторяется: при помощи вала первичной зарядки фотобарабан равномерно заряжается отрицательным зарядом, затем лазерный луч перерисовывает на фотобарабан информацию о цвете Мagenta и копирует получившееся изображение к первому отпечатку. Аналогичный процесс происходит с желтым и черным цветами.

По завершении этого процесса на ленте переноса находится законченное изображение, которое принтер теперь должен перенести на бумагу. Как и в черно-белом принтере, тонер необходимо закрепить, для чего служит блок термофиксации. Он состоит из двух покрытых тефлоном валиков, один из которых разогревается до 200°С. Через них проходит лист с нанесенным изображением, в результате чего (благодаря высокой температуре и давлению) тонер надежно фиксируется на бумаге.

В отличие от черно-белого “лазерника” цветной накладывает на бумагу в четыре раза больше тонера. Это приводит к тому, что тонер может остаться на фиксирующих валиках. Вот для чего в некоторых моделях принтеров эти валики смазываются маслом. Из-за этого на бумаге зачастую появляется ненужный глянец. Некоторые современные принтеры (например, HP Color Laserjet 4600) работают без масла. В них используется особый тонер, частицы которого покрыты воском, играющим роль смазки.

Цветные лазерные принтеры имеют различную конструкцию. В системах револьверного типа картриджи с тонером располагаются во вращающемся барабане.

Принтер может проворачивать этот барабан и выбирать нужный картридж. Преимущества данной системы заключается в ее компактности. Однако при вращении барабана возникает сильный шум.

Другие принтеры (например, HP Color LaserJet 4600, Oki C7400) имеют конструкцию конвейерного типа, при которой картриджи располагаются в ряд. В данном случае либо каждый картридж имеет свой фотобарабан, либо тонер наносится на ленту переноса. И хотя недостатком подобной конструкции является ее громоздкость, сам принтер работает почти так же быстро, как и черно-белый.

Технология PrismLaser была разработана компанией Fuji-Xerox и нашла свое применение в цветных лазерных принтерах Minolta QMS Magicolor 3100, Epson C4000, Xerox Phaser 6200. В ней соединились компактность конструкции револьверного типа со скоростью конвейерных принтеров.

Принцип ее работы таков: лазерный луч распределяется таким образом, что он как бы одновременно освещает все четыре (для каждого цвета) фотобарабана. После этого тонер попадает на два валика переноса (по два для каждого цвета).

С них тонер переносится на печатающий валик, а с него уже на бумагу. Данная технология обеспечивает высокую скорость работы и одновременно позволяет изготавливать компактные устройства.

Светодиодные принтеры. Светодиодная технология (Light Emission Diod), в которой источниками света служат светодиоды, используется в принтерах компании Oki. Она имеет по сравнению с лазерной технологией некоторые преимущества. Например, светодиодная панель занимает меньше места, к тому же не требуется сложной системы зеркал для освещения фотобарабана.

Фирма Tekotronix (купленная, кстати говоря, компанией Xerox) разработала и создала твердочернильный принтер, который выглядит примерно так же, как и лазерный, и печатает почти с такой же скоростью. Устройство подобного типа называется Xerox Phaser 8200 и работает с использованием плиток твердой краски.

Она расплавляется в принтере и через сопла с пьезоэлементами наносится на бумагу. В отличие от струйных принтеров, где изображение на лист переносится построчно, в данном устройстве печатается весь лист сразу.

Подобные принтеры являются идеальным решением для офиса, так как работают быстро и бесшумно и при этом выгодно отличаются от лазерных принтеров по цене. Правда, они должны всегда оставаться включенными в сеть, чтобы избежать продолжительного ожидания на разогрев, но для экономии электроэнергии имеется функция под названием Intelligent-Ready.

Сублимационные принтеры (Dye Sublimation Photo Printers) используют эффект сублимации – переход вещества из кристаллического (твердого) состояния в газообразное, минуя стадию жидкости. Носителем красителя выступает лента, состоящая из четырех отрезков, три из которых цветные (Cyan, Magenta, Yellow) и один ламинант. Отрезки чередуются на протяжении всей длины ленты. Таким образом, лента как бы является картриджем и рассчитана на строго определенное количество отпечатков фиксированного формата. Перенос красителя осуществляется протяжкой ленты с красителем между нагревательным элементом, что приводит к его испарению, смешиванию и последующему осаждению на специальной бумаге. Комбинацией цветов красителей можно подобрать практически любую цветовую палитру. Таким образом достигается превосходная передача оттенков. Отметим, что отпечатки, полученные таким способом, практически не отличаются от обычных фотографий. К недостаткам можно отнести высокую стоимость расходных материалов и самих принтеров.

Плоттер (графопостроитель) – устройство, которое чертит графики, рисунки или диаграммы под управлением компьютера.

Плоттеры используются для получения сложных конструкторских чертежей, архитектурных планов, географических и метеорологических карт, деловых схем. Плоттеры рисуют изображения с помощью пера.

Роликовые плоттеры прокручивают бумагу под пером, а планшетные плоттеры перемещают перо через всю поверхность горизонтально лежащей бумаги
.
Вернуться
6.12. Сканеры

Сканер – устройство для ввода в компьютер графических изображений. Создает оцифрованное изображение документа и помещает его в память компьютера.

Если принтеры выводят информацию из компьютера, то сканеры, наоборот, переносят информацию с бумажных документов в память компьютера. Существуют ручные сканеры, которые прокатывают по поверхности документа рукой, и планшетные сканеры, по внешнему виду напоминающие копировальные машины и слайдовые сканеры, служащие для сканирования фотопленки.

Совершенно непохожие друг на друга планшетные, ручные, листопротяжные и слайдовые сканеры являются, тем не менее, очень близкими родственниками по конструкции и принципу действия. В них изображение сканируется построчно: оригинал освещается специальной лампой, обычно газоразрядной, и отраженный непрозрачным или пропущенный прозрачным оригиналом световой поток при помощи системы зеркал и объектива фокусируется на светочувствительной матрице. Аналогичный принцип используется и в факс-аппаратах. Полученный электрический сигнал с помощью аналогово-цифрового преобразователя (АЦП) порождает двоичные данные, последовательность которых и создает итоговое цифровое изображение.

К основными характеристиками сканера относятся оптическое разрешение, глубина цвета и диапазон оптических плотностей.

Оптическое разрешение Измеряется в точках на дюйм (dots per inch, dpi). Чем больше разрешение у сканера, тем больше информации об оригинале может быть введено в компьютер и подвергнуто дальнейшей обработке.

Глубина цвета Эта характеристика обозначает количество цветов, которое способен распознать сканер. Большинство компьютерных приложений, исключая профессиональные графические пакеты, работают с 24 битным представлением (16.77 миллионов оттенков цвета). У сканеров эта характеристика, как правило, выше — 36 бит.

Динамический диапазон (диапазон оптических плотностей). Оптическая плотность – это характеристика оригинала, равная десятичному логарифму отношения света падающего на оригинал, к свету отраженному (или прошедшему — для прозрачных оригиналов). Минимально возможное значение 0.0 D – идеально белый (прозрачный) оригинал. Значение 4.0 D на практике соответствует абсолютно черному (непрозрачному) оригиналу. Динамический диапазон сканера характеризует, какой диапазон оптических плотностей оригинала сканер может распознать, не потеряв оттенки ни в светах, ни в тенях оригинала.
Глава 7. Программное обеспечение
7.1. Классификация программного обеспечения

В основу работы компьютеров положен программный принцип управления, состоящий в том, что компьютер выполняет действия по заранее заданной программе. Этот принцип обеспечивает универсальность использования компьютера: в определенный момент времени решается задача соответственно выбранной программе. После ее завершения в память загружается другая программа и т.д.

Программа – это запись алгоритма решения задачи в виде последовательности команд или операторов языком, который понимает компьютер. Конечной целью любой компьютерной программы является управление аппаратными средствами.

Под программным обеспечением (ПО) понимают совокупность программ предназначенных для обработки данных и решения различных задач на компьютере.

К программному обеспечению (ПО) относится также вся область деятельности по проектированию и разработке (ПО):
технология проектирования программ (нисходящее проектирование, структурное программирование и др.)
методы тестирования программ.
методы доказательства правильности программ.
анализ качества работы программ и др.

Программное обеспечение – неотъемлемая часть ЭВМ. Оно является логическим продолжением технических средств ЭВМ, расширяющие их возможности и сферу использования. Состав программного обеспечения вычислительной системы называется программной конфигурацией. Между программами существует взаимосвязь, то есть работа множества программ базируется на программах низшего уровня.

Существует три категории классификация программного обеспечения по сфере использования:
Системное ПО (СПО).
Служебное ПО.
Прикладное ПО (ППО). ППО или пакет прикладных программ.
Инструментальное ПО.
Вернуться
7.2. Системное программное обеспечение

Системный уровень – является переходным. Программы этого уровня обеспечивают взаимодействие других программ компьютера с программами базового уровня и непосредственно с аппаратным обеспечением. От программ этого уровня зависят эксплуатационные показатели всей вычислительной системы. При подсоединении к компьютеру нового оборудования, на системном уровне должна быть установлена программа, обеспечивающая для остальных программ взаимосвязь с устройством. Конкретные программы, предназначенные для взаимодействия с конкретными устройствами, называют драйверами.

Другой класс программ системного уровня отвечает за взаимодействие с пользователем. Благодаря ему, можно вводить данные в вычислительную систему, руководить ее работой и получать результат в удобной форме. Это средства обеспечения пользовательского интерфейса, от них зависит удобство и производительность работы с компьютером.

Совокупность программного обеспечения системного уровня образует ядро операционной системы компьютера. Наличие ядра операционной системы – это первое условие для возможности практической работы пользователя с вычислительной системой. Ядро операционной системы выполняет такие функции: управление памятью, процессами ввода-вывода, файловой системой, организация взаимодействия и диспетчеризация процессов, учет использования ресурсов, обработка команд и т.д.

Системное программное обеспечение можно разделить на:
базовое программное обеспечения, которое, как правило, поставляется вместе с компьютером
сервисное программного обеспечения, которое может быть приобретено дополнительно.

Базовое программное обеспечение – минимальный набор программных средств, обеспечивающих работу компьютера. В базовое ПО входят:
операционная система (предназначена для управления выполнением пользовательских программ, планирования и управления вычислительными ресурсами ЭВМ);
операционные оболочки (текстовые и графические);
сетевая операционная система (комплекс программ, обеспечивающих обработку, передачу и хранение данных в сети)

Операционной системой называют совокупность программ, которая координирует работу компьютера и управляет размещением программ и данных в оперативной памяти компьютера, интерпретирует команды, управляет периферийными устройствами, распределяет аппаратные ресурсы. Операционная система (ОС) – “режиссер” компьютерного действа.

Оболочки операционных систем обеспечивают удобный интерфейс (способ общения) для пользователя, программиста и компьютера.

Операционных систем и оболочек операционных систем довольно много, они различаются интерфейсом, набором возможностей, способами защиты от вирусов (программ, которые портят другие программы), способами управления ресурсами памяти, периферийными устройствами. Различия ОС обоснованы обычно свойствами и назначением самих ЭВМ, спецификой их использования. Можно назвать наиболее распространенные операционные системы, это: MS DOS, UNIX, Windows 95 и далее, WindowsNT и др.

Оболочки операционных систем дают возможность вводить команды операционных систем в более удобном для человека виде, с помощью выбора команд в предложенном оболочкой меню. Из наиболее распространенных оболочек можно назвать оболочки Norton Commander, DOS Shell, Windows2, 3.0, 3.11 и др.

Сервисное программное обеспечение – программы и программные комплексы, которые расширяют возможности базового программного обеспечения и организуют более удобную среду работы пользователя.
Свойства операционной системы:

1. НАДЕЖНОСТЬ. Операционная система должна быть надежна, как и аппаратура на которой работает. Она должна быть в состоянии определение и диагностирование ошибок, а также восстановления после большинства характерных ошибок, произошедших по вине пользователя. Она должна защищать пользователя от их же собственных ошибок или по крайней мере минимизировать вред, который они могут оказать на все программное окружение, находящиеся в ЭВМ.

2. ЗАЩИТА. Операционная система должна защищать выполняемые задачи от взаимного влияния их друг на друга.

3. ПРЕДСКАЗУЕМОСТЬ. Операционная система должна отвечать на запросы пользователя предсказуемым образом. Результат выполнения команд пользователя должны быть одним и темже вне зависимости от последовательности, в которой эти команды посылаются на исполнение (при соблюдении установленных в системе правил).

4. УДОБСТВА. Операционная система предлагается пользователю потому, что она намного облегчает его работу и освобождает его от бремени задач по определению различных ресурсов и задач по управлению этими ресурсами. Система должна быть спроектирована с учетом основных факторов человеческой психологии.

5. ЭФФЕКТИВНОСТЬ. При распределении ресурсов операционная система должна максимально повысить использование системных ресурсов пользователем. Сама система не должна использовать большое количество ресурсов, так как эти ресурсы становятся недостаточными для удовлетворения запросов пользователя.

6. ГИБКОСТЬ. Системные операции могут настраиваться для согласования поведения пользователя. Ресурсы могут быть увеличены (уменьшены) для того, чтобы улучшить эффективность и доступность.

7. РАСШИРЯЕМОСТЬ. В процессе эволюции к операционной системе могут быть добавлены новые программные средства.

8. ЯСНОСТЬ. Пользователь может оставаться в неведении относительно вещей, существующих ниже уровня интерфейсной системы. В тоже время он должен иметь возможность узнать о системе столько, сколько он хочет. В данном случае интерфейсной системой являются правила и функциональные характеристики средств подключения и взаимодействия устройств вычислительной машины.

Ресурсы ЭВМ, находящиеся под управлением операционной системы. Причиной существования операционных систем являются задачи по распределению ресурсов и задач по управлению этими ресурсами.

Цель управления ресурсами заключается в том, чтобы добиться эффективного использования ресурсов пользователем, а также освободить пользователя от бремени задач по оперированию ресурсами.

Под ресурсами микроЭВМ подразумевается следующее: процессорное время, оперативная память, периферийные устройства и математическое обеспечение.

1.ПРОЦЕССОРНОЕ ВРЕМЯ – время доступа к процессору и, следовательно, время счета. Большинство задач при вычислении их на ЭВМ тратит половину времени на ожидание завершения операций ввода/вывода. Экономическая необходимость вынуждает разделять ЭВМ между многими пользователями, одновременно работающими. Таким образом, для эффективного использования процессорного времени требуется сложный механизм разделения времени – механизм, использующий одновременную работу центрального процессора (ЦП) и устройства ввода/вывода информации.

2.ОПЕРАТИВНАЯ ПАМЯТЬ. Планирование доступа к оперативной памяти неотъемлемо от доступа к центральному процессору. Программа может выполняться, если есть доступ к центральному процессору, она оказывается в оперативной памяти и исполняется, так как память дефицитна, система должна использовать ее с максимальной эффективностью. Есть много предложений использовать оперативную память между несколькими пользователями. Цель этих предложений максимально сократить пустые пространства оперативной памяти, возникающие из – за различных объектов и особенностей программ пользователя.

3.ПЕРИФЕРИЙНЫЕ УСТРОЙСТВА. С большинством периферийных устройств в каждый момент времени может работать только один пользователь. Такая работа периферийных устройств может привести к неэффективному их использованию, если время счета счета программы довольно велико. Устройства с быстрым доступом разделяются между пользователями с помощью системы управления файлами. Задержки, возникающие при работе с периферийными устройствами быстрого доступа, вполне удовлетворительны виду скорости этих устройств и в виду интервалов времени между программными запросами ввода/вывода.

Так как большинства имеют по одному АЦПУ. Медленность работы этого устройства может привести к приостановке выполнения программ. Для того, чтобы этого не было в программе операционная система обслуживания ввода/вывода выключается механизм, который называется СПУЛИНГОМ. Спулинг – процедура автоматической записи на магнитный диск данных, предназначенных для вывода на принтер, и распечатки их по мере готовности последнего.

4. РЕСУРСЫ МАТЕМАТИЧЕСКОГО ОБЕСПЕЧЕНИЯ – представляют собой доступные пользователю функции, предназначенные для работы с данными и для контроля за выполнением программ. Среди этих ресурсов находятся сервисные программы по управлению файлами и по обслуживанию ввода/вывода, программ системного планирования и системные библиотеки.
Классификация операционных систем

Операционные системы могут различаться особенностями реализации внутренних алгоритмов управления основными ресурсами компьютера (процессорами, памятью, устройствами), особенностями использованных методов проектирования, типами аппаратных платформ, областями использования и многими другими свойствами.

Ниже приведена классификация ОС по нескольким наиболее основным признакам.

Особенности алгоритмов управления ресурсами. От эффективности алгоритмов управления локальными ресурсами компьютера во многом зависит эффективность всей сетевой ОС в целом. Поэтому, характеризуя сетевую ОС, часто приводят важнейшие особенности реализации функций ОС по управлению процессорами, памятью, внешними устройствами автономного компьютера. Так, например, в зависимости от особенностей использованного алгоритма управления процессором, операционные системы делят на многозадачные и однозадачные, многопользовательские и однопользовательские, на системы, поддерживающие многонитевую обработку и не поддерживающие ее, на многопроцессорные и однопроцессорные системы.

Поддержка многозадачности. По числу одновременно выполняемых задач операционные системы могут быть разделены на два класса:
однозадачные (например, MS-DOS, MSX);
многозадачные (OC EC, OS/2, UNIX, Windows 95).

Однозадачные ОС в основном выполняют функцию предоставления пользователю виртуальной машины, делая более простым и удобным процесс взаимодействия пользователя с компьютером. Однозадачные ОС включают средства управления периферийными устройствами, средства управления файлами, средства общения с пользователем. Многозадачные ОС, кроме вышеперечисленных функций, управляют разделением совместно используемых ресурсов, таких как процессор, оперативная память, файлы и внешние устройства.

Поддержка многопользовательского режима. По числу одновременно работающих пользователей ОС делятся на:
однопользовательские (MS-DOS, Windows 3.x, ранние версии OS/2);
многопользовательские (UNIX, Windows NT).

Главным отличием многопользовательских систем от однопользовательских является наличие средств защиты информации каждого пользователя от несанкционированного доступа других пользователей. Следует заметить, что не всякая многозадачная система является многопользовательской, и не всякая однопользовательская ОС является однозадачной.

Вытесняющая и невытесняющая многозадачность. Важнейшим разделяемым ресурсом является процессорное время. Способ распределения процессорного времени между несколькими одновременно существующими в системе процессами (или нитями) во многом определяет специфику ОС. Среди множества существующих вариантов реализации многозадачности можно выделить две группы алгоритмов:
невытесняющая многозадачность (NetWare, Windows 3.x);
вытесняющая многозадачность (Windows NT, OS/2, UNIX).

Основным различием между вытесняющим и невытесняющим вариантами многозадачности является степень централизации механизма планирования процессов. В первом случае механизм планирования процессов целиком сосредоточен в операционной системе, а во втором – распределен между системой и прикладными программами. При невытесняющей многозадачности активный процесс выполняется до тех пор, пока он сам, по собственной инициативе, не отдаст управление операционной системе для того, чтобы та выбрала из очереди другой готовый к выполнению процесс. При вытесняющей многозадачности решение о переключении процессора с одного процесса на другой принимается операционной системой, а не самим активным процессом.

Поддержка многонитевости. Важным свойством операционных систем является возможность распараллеливания вычислений в рамках одной задачи. Многонитевая ОС разделяет процессорное время не между задачами, а между их отдельными ветвями (нитями).

Многопроцессорная обработка. Другим важным свойством ОС является отсутствие или наличие в ней средств поддержки многопроцессорной обработки – мультипроцессирование. Мультипроцессирование приводит к усложнению всех алгоритмов управления ресурсами. В наши дни становится общепринятым введение в ОС функций поддержки многопроцессорной обработки данных. Такие функции имеются в операционных системах Solaris 2.x фирмы Sun, Open Server 3.x компании Santa Crus Operations, OS/2 фирмы IBM, Windows NT фирмы Microsoft и NetWare 4.1 фирмы Novell. Многопроцессорные ОС могут классифицироваться по способу организации вычислительного процесса в системе с многопроцессорной архитектурой: асимметричные ОС и симметричные ОС. Асимметричная ОС целиком выполняется только на одном из процессоров системы, распределяя прикладные задачи по остальным процессорам. Симметричная ОС полностью децентрализована и использует весь пул процессоров, разделяя их между системными и прикладными задачами.

Выше были рассмотрены характеристики ОС, связанные с управлением только одним типом ресурсов – процессором. Важное влияние на облик операционной системы в целом, на возможности ее использования в той или иной области оказывают особенности и других подсистем управления локальными ресурсами – подсистем управления памятью, файлами, устройствами ввода-вывода.

Специфика ОС проявляется и в том, каким образом она реализует сетевые функции: распознавание и перенаправление в сеть запросов к удаленным ресурсам, передача сообщений по сети, выполнение удаленных запросов. При реализации сетевых функций возникает комплекс задач, связанных с распределенным характером хранения и обработки данных в сети: ведение справочной информации о всех доступных в сети ресурсах и серверах, адресация взаимодействующих процессов, обеспечение прозрачности доступа, тиражирование данных, согласование копий, поддержка безопасности данных.

Многозадачные ОС подразделяются на три типа в соответствии с использованными при их разработке критериями эффективности:
системы пакетной обработки (например, OC EC);
системы разделения времени (UNIX, VMS);
системы реального времени (QNX, RT/11);
операционная система диалоговая.

Системы пакетной обработки предназначались для решения задач в основном вычислительного характера, не требующих быстрого получения результатов. Главной целью и критерием эффективности систем пакетной обработки является максимальная пропускная способность, то есть решение максимального числа задач в единицу времени. Для достижения этой цели в системах пакетной обработки используются следующая схема функционирования: в начале работы формируется пакет заданий, каждое задание содержит требование к системным ресурсам; из этого пакета заданий формируется мультипрограммная смесь, то есть множество одновременно выполняемых задач. Для одновременного выполнения выбираются задачи, предъявляющие отличающиеся требования к ресурсам, так, чтобы обеспечивалась сбалансированная загрузка всех устройств вычислительной машины; так, например, в мультипрограммной смеси желательно одновременное присутствие вычислительных задач и задач с интенсивным вводом-выводом. Таким образом, выбор нового задания из пакета заданий зависит от внутренней ситуации, складывающейся в системе, то есть выбирается “выгодное” задание. Следовательно, в таких ОС невозможно гарантировать выполнение того или иного задания в течение определенного периода времени. В системах пакетной обработки переключение процессора с выполнения одной задачи на выполнение другой происходит только в случае, если активная задача сама отказывается от процессора, например, из-за необходимости выполнить операцию ввода-вывода. Поэтому одна задача может надолго занять процессор, что делает невозможным выполнение интерактивных задач. Таким образом, взаимодействие пользователя с вычислительной машиной, на которой установлена система пакетной обработки, сводится к тому, что он приносит задание, отдает его диспетчеру-оператору, а в конце дня после выполнения всего пакета заданий получает результат. Очевидно, что такой порядок снижает эффективность работы пользователя.

Системы разделения времени призваны исправить основной недостаток систем пакетной обработки – изоляцию пользователя-программиста от процесса выполнения его задач. Каждому пользователю системы разделения времени предоставляется терминал, с которого он может вести диалог со своей программой. Так как в системах разделения времени каждой задаче выделяется только квант процессорного времени, ни одна задача не занимает процессор надолго, и время ответа оказывается приемлемым. Если квант выбран достаточно небольшим, то у всех пользователей, одновременно работающих на одной и той же машине, складывается впечатление, что каждый из них единолично использует машину. Ясно, что системы разделения времени обладают меньшей пропускной способностью, чем системы пакетной обработки, так как на выполнение принимается каждая запущенная пользователем задача, а не та, которая “выгодна” системе, и, кроме того, имеются накладные расходы вычислительной мощности на более частое переключение процессора с задачи на задачу. Критерием эффективности систем разделения времени является не максимальная пропускная способность, а удобство и эффективность работы пользователя.

Системы реального времени применяются для управления различными техническими объектами, такими, например, как станок, спутник, научная экспериментальная установка или технологическими процессами, такими, как гальваническая линия, доменный процесс и т.п. Во всех этих случаях существует предельно допустимое время, в течение которого должна быть выполнена та или иная программа, управляющая объектом, в противном случае может произойти авария: спутник выйдет из зоны видимости, экспериментальные данные, поступающие с датчиков, будут потеряны, толщина гальванического покрытия не будет соответствовать норме. Таким образом, критерием эффективности для систем реального времени является их способность выдерживать заранее заданные интервалы времени между запуском программы и получением результата (управляющего воздействия). Это время называется временем реакции системы, а соответствующее свойство системы – реактивностью. Для этих систем мультипрограммная смесь представляет собой фиксированный набор заранее разработанных программ, а выбор программы на выполнение осуществляется исходя из текущего состояния объекта или в соответствии с расписанием плановых работ.

Некоторые операционные системы могут совмещать в себе свойства систем разных типов, например, часть задач может выполняться в режиме пакетной обработки, а часть – в режиме реального времени или в режиме разделения времени. В таких случаях режим пакетной обработки часто называют фоновым режимом.

Диалоговые операционные системы – предназначены для индивидуального пользования и обеспечивают удобную форму диалога ЭВМ с пользователем через дисплей при вводе и выполнении команд. Функционирует операционная система обычно в однопрограммном режиме.

Независимо от типа операционная система чаще всего состоит из относительно компактного ядра – монитора (супервизора) и и набора системных программ и данных. Состав операционной системы предоставлен на рис.1.

ДРАЙВЕР – программа, управляющая физической работой внешнего – периферийного устройства.

УТИЛИТА – программа, предназначена для подготовке исходных информации и организации хранение и использование программ – СЕРВИСНАЯ ПРОГРАММА.

БИБЛИОТЕКА ПРОГРАММ – набор файлов, связанных одним каталогом, в который могут входить объектные модули (программы), макроопределения языка программирования и др.
Рис. 1. Состав операционной системы
Средства синхронизации и взаимодействия процессов. Проблема синхронизации

Процессам часто нужно взаимодействовать друг с другом, например, один процесс может передавать данные другому процессу, или несколько процессов могут обрабатывать данные из общего файла. Во всех этих случаях возникает проблема синхронизации процессов, которая может решаться приостановкой и активизацией процессов, организацией очередей, блокированием и освобождением ресурсов.
Рис. 2. Пример необходимости синхронизации

Пренебрежение вопросами синхронизации процессов, выполняющихся в режиме мультипрограммирования, может привести к их неправильной работе или даже к краху системы. Рассмотрим, например (рисунок 2), программу печати файлов (принт-сервер). Эта программа печатает по очереди все файлы, имена которых последовательно в порядке поступления записывают в специальный общедоступный файл “заказов” другие программы. Особая переменная NEXT, также доступная всем процессам-клиентам, содержит номер первой свободной для записи имени файла позиции файла “заказов”. Процессы-клиенты читают эту переменную, записывают в соответствующую позицию файла “заказов” имя своего файла и наращивают значение NEXT на единицу. Предположим, что в некоторый момент процесс R решил распечатать свой файл, для этого он прочитал значение переменной NEXT, значение которой для определенности предположим равным 4. Процесс запомнил это значение, но поместить имя файла не успел, так как его выполнение было прервано (например, в следствие исчерпания кванта). Очередной процесс S, желающий распечатать файл, прочитал то же самое значение переменной NEXT, поместил в четвертую позицию имя своего файла и нарастил значение переменной на единицу. Когда в очередной раз управление будет передано процессу R, то он, продолжая свое выполнение, в полном соответствии со значением текущей свободной позиции, полученным во время предыдущей итерации, запишет имя файла также в позицию 4, поверх имени файла процесса S. Таким образом, процесс S никогда не увидит свой файл распечатанным. Сложность проблемы синхронизации состоит в нерегулярности возникающих ситуаций: в предыдущем примере можно представить и другое развитие событий: были потеряны файлы нескольких процессов или, напротив, не был потерян ни один файл. В данном случае все определяется взаимными скоростями процессов и моментами их прерывания. Поэтому отладка взаимодействующих процессов является сложной задачей. Ситуации подобные той, когда два или более процессов обрабатывают разделяемые данные, и конечный результат зависит от соотношения скоростей процессов, называются гонками.
Управление памятью

Память является важнейшим ресурсом, требующим тщательного управления со стороны мультипрограммной операционной системы. Распределению подлежит вся оперативная память, не занятая операционной системой. Обычно ОС располагается в самых младших адресах, однако может занимать и самые старшие адреса. Функциями ОС по управлению памятью являются: отслеживание свободной и занятой памяти, выделение памяти процессам и освобождение памяти при завершении процессов, вытеснение процессов из оперативной памяти на диск, когда размеры основной памяти не достаточны для размещения в ней всех процессов, и возвращение их в оперативную память, когда в ней освобождается место, а также настройка адресов программы на конкретную область физической памяти. Н рисунке 19 приведена схема управления оперативной памятью вычислительной системы.

Цель управления оперативной памятью:
уменьшить пустые пространства памяти (т.е. фрагментацию), возникающие из-за того, что программы пользователей имеют различные объемы и особенности;
повысить степень мультипрограммирования (в конечном счете – увеличить производительность ЭВМ).

Механизмы управления памятью следующие:
размещение с фиксированного адреса;
размещение с любого адреса (перемещение программы в ОП в процессе исполнения);
размещение программы вразброс (участками);
частичное размещение программы в ОП.
Рис. 3. Схема управления оперативной памятью вычислительной системы

ЛАП – логическое адресное пространство;

ФАП – физическое адресное пространство.
Управление процессами

Важнейшей частью операционной системы, непосредственно влияющей на функционирование вычислительной машины, является подсистема управления процессами. Процесс (или по-другому, задача) – абстракция, описывающая выполняющуюся программу. Для операционной системы процесс представляет собой единицу работы, заявку на потребление системных ресурсов. Подсистема управления процессами планирует выполнение процессов, то есть распределяет процессорное время между несколькими одновременно существующими в системе процессами, а также занимается созданием и уничтожением процессов, обеспечивает процессы необходимыми системными ресурсами, поддерживает взаимодействие между процессами.

В многозадачной (многопроцессной) системе процесс может находиться в одном из трех основных состояний:

ВЫПОЛНЕНИЕ – активное состояние процесса, во время которого процесс обладает всеми необходимыми ресурсами и непосредственно выполняется процессором;

ОЖИДАНИЕ – пассивное состояние процесса, процесс заблокирован, он не может выполняться по своим внутренним причинам, он ждет осуществления некоторого события, например, завершения операции ввода-вывода, получения сообщения от другого процесса, освобождения какого-либо необходимого ему ресурса;

ГОТОВНОСТЬ – также пассивное состояние процесса, но в этом случае процесс заблокирован в связи с внешними по отношению к нему обстоятельствами: процесс имеет все требуемые для него ресурсы, он готов выполняться, однако процессор занят выполнением другого процесса.

В ходе жизненного цикла каждый процесс переходит из одного состояния в другое в соответствии с алгоритмом планирования процессов, реализуемым в данной операционной системе. Типичный граф состояний процесса показан на рисунке 1.

В состоянии ВЫПОЛНЕНИЕ в однопроцессорной системе может находиться только один процесс, а в каждом из состояний ОЖИДАНИЕ и ГОТОВНОСТЬ – несколько процессов, эти процессы образуют очереди соответственно ожидающих и готовых процессов. Жизненный цикл процесса начинается с состояния ГОТОВНОСТЬ, когда процесс готов к выполнению и ждет своей очереди. При активизации процесс переходит в состояние ВЫПОЛНЕНИЕ и находится в нем до тех пор, пока либо он сам освободит процессор, перейдя в состояние ОЖИДАНИЯ какого-нибудь события, либо будет насильно “вытеснен” из процессора, например, вследствие исчерпания отведенного данному процессу кванта процессорного времени. В последнем случае процесс возвращается в состояние ГОТОВНОСТЬ. В это же состояние процесс переходит из состояния ОЖИДАНИЕ, после того, как ожидаемое событие произойдет.
Рис.4. Граф состояний процесса в многозадачной среде
Концепции UNIX System

В основе UNIX лежит концепция процесса – единицы управления и единицы потребления ресурсов. Процесс представляет собой программу в состоянии выполнения, причем в UNIX в рамках одного процесса не могут выполняться никакие параллельные действия.

Каждый процесс работает в своем виртуальном адресном пространстве. Совокупность участков физической памяти, отображаемых на виртуальные адреса процесса, называется образом процесса.

При управлении процессами операционная система использует два основных типа информационных структур: дескриптор процесса (структура proc) и контекст процесса (структура user).

Дескриптор процесса содержит такую информацию о процессе, которая необходима ядру в течение всего жизненного цикла процесса, независимо от того, находится ли он в активном или пассивном состоянии, находится ли образ процесса в оперативной памяти или выгружен на диск. Дескрипторы отдельных процессов объединены в список, образующий таблицу процессов. Память для таблицы процессов отводится динамически в области ядра. На основании информации, содержащейся в таблице процессов, операционная система осуществляет планирование и синхронизацию процессов. В дескрипторе прямо или косвенно (через указатели на связанные с ним структуры) содержится информация о состоянии процесса, расположении образа процесса в оперативной памяти и на диске, о значении отдельных составляющих приоритета, а также его итоговое значение – глобальный приоритет, идентификатор пользователя, создавшего процесс, информация о родственных процессах, о событиях, осуществления которых ожидает данный процесс и некоторая другая информация.

Контекст процесса содержит менее оперативную, но более объемную часть информации о процессе, необходимую для возобновления выполнения процесса с прерванного места: содержимое регистров процессора, коды ошибок выполняемых процессором системных вызовов, информацию о всех открытых данным процессом файлов и незавершенных операциях ввода-вывода (указатели на структуры file) и другие данные, характеризующие состояние вычислительной среды в момент прерывания. Контекст, так же как и дескриптор процесса, доступен только программам ядра, то есть находится в виртуальном адресном пространстве операционной системы, однако он хранится не в области ядра, а непосредственно примыкает к образу процесса и перемещается вместе с ним, если это необходимо, из оперативной памяти на диск. В UNIX для процессов предусмотрены два режима выполнения: привилегированный режим – “система” и обычный режим – “пользователь”. В режиме “пользователь” запрещено выполнение действий, связанных с управлением ресурсами системы, в частности, корректировка системных таблиц, управление внешними устройствами, маскирование прерываний, обработка прерываний. В режиме “система” выполняются программы ядра, а в режиме “пользователь” – оболочка и прикладные программы. При необходимости выполнить привилегированные действия пользовательский процесс обращается с запросом к ядру в форме так называемого системного вызова. В результате системного вызова управление передается соответствующей программе ядра. С момента начала выполнения системного вызова процесс считается системным. Таким образом, один и тот же процесс может находиться в пользовательской и системной фазах. Эти фазы никогда не выполняются одновременно.

В данных версиях UNIX процесс, работающий в режиме системы, не мог быть вытеснен другим процессом. Из-за этого организация ядра, которое составляет привилегированную общую часть всех процессов, упрощалась, т.к. все функции ядра не были реентерабельными. Однако, при этом реактивность системы страдала – любой процесс, даже низкоприоритетный, войдя в системную фазу, мог оставаться в ней сколь угодно долго. Из-за этого свойства UNIX не мог использоваться в качестве ОС реального времени. В более поздних версиях, и в SVR4 в том числе, организация ядра усложнилась и процесс можно вытеснить и в системной фазе, но не в произвольный момент времени, а только в определенные периоды его работы, когда процесс сам разрешает это сделать установкой специального сигнала.

В SVR4 имеется несколько процессов, которые не имеют пользовательской фазы, например, процесс pageout, организующий выталкивание страниц на диск.

Порождение процессов в системе UNIX происходит следующим образом. При создании процесса строится образ порожденного процесса, являющийся точной копией образа породившего процесса. Сегмент данных и сегмент стека отца действительно копируются на новое место, образуя сегменты данных и стека сына. Процедурный сегмент копируется только тогда, когда он не является разделяемым. В противном случае сын становится еще одним процессом, разделяющим данный процедурный сегмент.

После выполнения системного вызова fork оба процесса продолжают выполнение с одной и той же точки. Чтобы процесс мог опознать, является ли он отцом или сыном, системный вызов fork возвращает в качестве своего значения в породивший процесс идентификатор порожденного процесса, а в порожденный процесс NULL. Типичное разветвление на языке C записывается так:

if( fork() ) { действия отца }

else { действия сына }

Идентификатор сына может быть присвоен переменной, входящей в контекст процесса-отца. Так как контекст процесса наследуется его потомками, то дети могут узнать идентификаторы своих старших братьев, так образом сумма знаний наследуется при порождении и может быть распространена между родственными процессами. Наследуются все характеристики процесса, содержащиеся в контексте.

На независимости идентификатора процесса от выполняемой процессом программы построен механизм, позволяющий процессу придти к выполнению другой программы с помощью системного вызова exec.

Таким образом в UNIX порождение нового процесса происходит в два этапа – сначала создается копия процесса-родителя, то есть дублируется дескриптор, контекст и образ процесса. Затем у нового процесса производится замена кодового сегмента на заданный.

Вновь созданному процессу операционная система присваивает целочисленный идентификатор, уникальный за весь период функционирования системы.
Вернуться
7.3. Служебное программное обеспечение

Программы этого уровня взаимодействуют как с программами базового уровня, так и с программами системного уровня. Назначение служебных программ (утилит) состоит в автоматизации работ по проверке и настройки компьютерной системы, а также для улучшения функций системных программ. Некоторые служебные программы (программы обслуживания) сразу входят в состав операционной системы, дополняя ее ядро, но большинство являются внешними программами и расширяют функции операционной системы. То есть, в разработке служебных программ отслеживаются два направления: интеграция с операционной системой и автономное функционирование.

Классификация служебных программных средств
Диспетчеры файлов (файловые менеджеры). С их помощью выполняется большинство операций по обслуживанию файловой структуры: копирование, перемещение, переименование файлов, создание каталогов (папок), уничтожение объектов, поиск файлов и навигация в файловой структуре. Базовые программные средства содержатся в составе программ системного уровня и устанавливаются вместе с операционной системой
Средства сжатия данных (архиваторы). Предназначены для создания архивов. Архивные файлы имеют повышенную плотность записи информации и соответственно, эффективнее используют носители информации.
Средства диагностики. Предназначены для автоматизации процессов диагностики программного и аппаратного обеспечения. Их используют для исправления ошибок и для оптимизации работы компьютерной системы.
Программы инсталляции (установки). Предназначены для контроля за добавлением в текущую программную конфигурацию нового программного обеспечения. Они следят за состоянием и изменением окружающей программной среды, отслеживают и протоколируют образование новых связей, утерянных во время уничтожения определенных программ. Простые средства управления установлением и уничтожением программ содержатся в составе операционной системы, но могут использоваться и дополнительные служебные программы.
Средства коммуникации. Разрешают устанавливать соединение с удаленными компьютерами, передают сообщения электронной почты, пересылают факсимильные сообщения и т.п..
Средства просмотра и воспроизведения. Преимущественно, для работы с файлами, их необходимо загрузить в “родную” прикладную программу и внести необходимые исправления. Но, если редактирование не нужно, существуют универсальные средства для просмотра (в случае текста) или воспроизведения (в случае звука или видео) данных.
Средства компьютерной безопасности. К ним относятся средства пассивной и активной защиты данных от повреждения, несанкционированного доступа, просмотра и изменения данных. Средства пассивной защиты – это служебные программы, предназначенные для резервного копирования. Средства активной защиты применяют антивирусное программное обеспечение. Для защиты данных от несанкционированного доступа, их просмотра и изменения используют специальные системы, базирующиеся на криптографии.
Вернуться
7.4. Прикладное программное обеспечение

Программное обеспечение этого уровня представляет собой комплекс прикладных программ, с помощью которых выполняются конкретные задачи (производственных, творческих, развлекательных и учебных). Между прикладным и системным программным обеспечением существует тесная взаимосвязь. Универсальность вычислительной системы, доступность прикладных программ и широта функциональных возможностей компьютера непосредственно зависят от типа имеющейся операционной системы, системных средств, помещенных в ее ядро и взаимодействии комплекса человек-программа-оборудование.

Вопреки внешним различиям все программы должны выполнять некоторые общие основополагающие функции. Такие как:
хранить информацию в ОЗУ;
помнить, где она находится;
извлекать ее определенным образом;
записывать информацию на внешние носители;
предъявлять ее для непосредственного восприятия и др.

Классификация прикладного программного обеспечения

Прикладное ПО или пакеты прикладных программ подразделяются на: проблемно-ориентированные пакеты, пакеты общего назначения (СУБД, текстовые процессоры, табличные процессоры, средства презентационной графики, интегрированные пакеты), методо-ориентированные (реализация методов математики, статистики, экономики, управления), офисные (органайзеры, переводчики, проверки орфографии и грамматики, распознавания текста, коммуникационные), настольные издательские системы, программные средства мультимедиа, системы искусственного интеллекта.
Текстовые редакторы. Основные функции – это ввод и редактирование текстовых данных. Для операций ввода, вывода и хранения данных текстовые редакторы используют системное программное обеспечение. С этого класса прикладных программ начинают знакомство с программным обеспечением и на нем приобретают первые привычки работы с компьютером.
Текстовые процессоры. Разрешают форматировать, то есть оформлять текст. Основными средствами текстовых процессоров являются средства обеспечения взаимодействия текста, графики, таблиц и других объектов, составляющих готовый документ, а также средства автоматизации процессов редактирования и форматирования. Современный стиль работы с документами имеет два подхода: работа с бумажными документами и работа с электронными документами. Приемы и методы форматирования таких документов различаются между собой, но текстовые процессоры способны эффективно обрабатывать оба вида документов.
Графические редакторы. Позволяют создавать, редактировать и получать графические изображения в виде жестких копий (на бумаге) и в виде текстов программ, которые можно затем встраивать в другие программы или хранить для дальнейшего редактирования. Графические редакторы позволяют создавать не только статичные, но также движущиеся на экране объекты, создавать анимационные картинки. Графические редакторы имеют такие возможности, как использование различных цветовых оттенков в графическом изображения, использование графических примитивов (окружности, ломанные линии, прямоугольники, многоугольники, закрашенные фигуры) для построения рисунков, использование различных инструментов: кистей разнообразной формы, ластика, аэрографа, микроскопа или лупы для прорисовки каких либо тонких деталей изображения, имеется также возможность работать с выделенными частями рисунка: удалять, копировать, переносить, встраивать готовые изображения из библиотеки графических образов и так далее. Существуют графические редакторы как для создания двумерных, так и для создания трехмерных изображений. Примером графических редакторов наиболее распространенных в России можно назвать: Autodesk Animator, Corel Drаw, Paintbrash, PictureMaker, TruеSpacе и др.

Различают три категории:
растровые редакторы;
векторные редакторы;
3-D редакторы (трехмерная графика).

В растровых редакторах графический объект представлен в виде комбинации точек (растров), которые имеют свою яркость и цвет. Такой подход эффективный, когда графическое изображение имеет много цветов и информация про цвет элементов намного важнее, чем информация про их форму. Это характерно для фотографических и полиграфических изображений. Применяют для обработки изображений, создания фотоэффектов и художественных композиций.

Векторные редакторы отличаются способом представления данных изображения. Объектом является не точка, а линия. Каждая линия рассматривается, как математическая кривая ІІІ порядка и представлена формулой. Такое представление компактнее, чем растровое, данные занимают меньше места, но построение объекта сопровождается пересчетом параметров кривой в координаты экранного изображения, и соответственно, требует более мощных вычислительных систем. Широко применяются в рекламе, оформлении обложек полиграфических изданий.

Редакторы трехмерной графики используют для создания объемных композиций. Имеют две особенности: разрешают руководить свойствами поверхности в зависимости от свойств освещения, а также разрешают создавать объемную анимацию.
Системы управления базами данных (СУБД). Базой данных называют большие массивы данных, организованные в табличные структуры. Основные функции СУБД:
создание пустой структуры базы данных;
наличие средств ее заполнения или импорта данных из таблиц другой базы;
возможность доступа к данных, наличие средств поиска и фильтраци.

В связи с распространением сетевых технологий, от современных СУБД требуется возможность работы с отдаленными и распределенными ресурсами, которые находятся на серверах Интернета. Наиболее мощные СУБД имеют встроенный язык программирования, позволяющих создавать исполнимые программы для обработки введенных данных. К СУБД можно отнести, например, такие системы как FoxPro, dBASE, Paradox, Clipper, Clarioп, Assecc и другие.

Электронные таблицы. Предоставляют комплексные средства для хранения разных типов данных и их обработки. Основной акцент смещен на преобразование данных, предоставлен широкий спектр методов для работы с числовыми данными. Основная особенность электронных таблиц состоит в автоматическом изменении содержимого всех ячеек при изменении отношений, заданных математическими или логическими формулами.

Широкое применение находят в бухгалтерском учете, анализе финансовых и торговых рынков, средствах обработки результатов экспериментов, то есть в автоматизации регулярно повторяемых вычислений больших объемов числовых данных. Примером электронных таблиц широко использующихся в настоящий момент в России являются таблицы Lotus 1-2-3, SuperCalk, Excel.

Системы автоматизированного проектирования (CAD-системы). Предназначены для автоматизации проектно-конструкторских работ. Применяются в машиностроении, приборостроении, архитектуре. Кроме графических работ, разрешают проводить простые расчеты и выбор готовых конструктивных элементов из существующей базы данных.

Особенность CAD-систем состоит в автоматическом обеспечении на всех этапах проектирования технических условий, норм и правил. САПР являются необходимым компонентом для гибких производственных систем (ГВС) и автоматизированных систем управления технологическими процессами (АСУ ТП).
Настольные издательские системы. Автоматизируют процесс верстки полиграфических изданий. Издательские системы отличаются расширенными средствами управления взаимодействия текста с параметрами страницы и графическими объектами, но имеют более слабые возможности по автоматизации ввода и редактирования текста. Их целесообразно применять к документам, которые предварительно обработаны в текстовых процессорах и графических редакторах.
Редакторы HTML (Web-редакторы). Особый класс редакторов, объединяющих в себе возможности текстовых и графических редакторов. Предназначены для создания и редактирования Web-страниц Интернета. Программы этого класса можно использовать при подготовке электронных документов и мультимедийних изданий.
Браузеры (средства просмотра Web-документов). Программные средства предназначены для просмотра электронных документов, созданных в формате HTML. Восроизводят, кроме текста и графики, музыку, человеческий язык, радиопередачи, видеоконференции и разрешают работать с электронной почтой.

Системы автоматизированного перевода. Различают электронные словари и программы перевода языка.

Электронные словари – это средства для перевода отдельных слов в документе. Используются профессиональными переводчиками, которые самостоятельно переводят текст.

Программы автоматического перевода используют текст на одном языке и выдают текст на другом, то есть автоматизируют перевод. При автоматизированном переводе невозможно получить качественный исходный текст, поскольку все сводится к переводу отдельных лексических единиц. Но, для технического текста, этот барьер снижен.

Программы автоматического перевода целесообразно использовать:
при абсолютном незнании иностранного языка;
при необходимости быстрого ознакомления с документом;
для перевода на иностранный язык;
для создания черновика, который потом будет подправлен полноценным переводом.
Интегрированные системы делопроизводства. Средства для автоматизации рабочего места руководителя. В частности, это функции создания, редактирования и форматирования документов, централизация функций электронной почты, факсимильной и телефонной связи, диспетчеризация и мониторинг документооборота предприятия, координация работы подразделов, оптимизация административно-хозяйственной деятельности и поставка оперативной и справочной информации.
Бухгалтерские системы. Имеют функции текстовых, табличных редакторов и СУБД. Предназначены для автоматизации подготовки начальных бухгалтерских документов предприятия и их учета, регулярных отчетов по итогам производственной, хозяйственной и финансовой деятельности в форме, приемлемой для налоговых органов, внебюджетных фондов и органов статистического учета.
Финансовые аналитические системы. Используют в банковских и биржевых структурах. Разрешают контролировать и прогнозировать ситуацию на финансовых, торговых рынках и рынках сырья, выполнять анализ текущих событий, готовить отчеты.
Экспертные системы. Предназначены для анализа данных, содержащихся в базах знаний и выдачи результатов, при запросе пользователя. Такие системы используются, когда для принятия решения нужны широкие специальные знания. Используются в медицине, фармакологии, химии, юриспруденции. С использованием экспертных систем связана область науки, которая носит название инженерии знаний.
Инженеры знаний – это специалисты, являющиеся промежуточным звеном между разработчиками экспертных систем (программистами) и ведущими специалистами в конкретных областях науки и техники (экспертами).
Геоинформационные системы (ГИС). Предназначены для автоматизации картографических и геодезических работ на основе информации, полученной топографическим или аэрографическими методами.
Системы видеомонтажа. Предназначены для цифровой обработки видеоматериалов, монтажа, создания видеоэффектов, исправления дефектов, добавления звука, титров и субтитров. Отдельные категории представляют учебные, справочные и развлекательные системы и программы. Характерной особенностью являются повышенные требования к мультимедийной составляющей.
Интегрированные пакеты – программы, сочетающие в себе возможность работать с различными видами информации. Он объединяет в себе возможности текстового редактора, электронной таблицы, базы данных, программы деловой графики. Известностью пользуются такие пакеты, как, например, FrameWork, Works. Основной принции построения всех программных средств основан на выборе из меню. Как правило фирменные программные средства содержат многоуровневое выпадающее меню. То есть в программе имеется основное меню, любой из разделов которого может иметь подменю, в котором находится либо команда, либо функция (установка чего либо). Чтобы выполнить одну из команд на любом уровне меню необходимо просто переместить курсор (светящийся прямоугольник на экране) к этой команде, нажать на клавишу ввода команды в память машины или, при необходимости, дать ответ или подтверждение на запрос.
Вернуться
7.5. Инструментальные языки и системы программирования.

Эти средства служат для разработки новых программ. Компьютер “понимает” и может выполнять программы в машинном коде. Каждая команда при этом имеет вид последовательности нулей и единиц. Писать программы на машинном языке крайне неудобно. Поэтому программы разрабатываются на языке, понятном человеку (инструментальный язык или алгоритмический язык программирования), после чего, специальной программой, которая называется транслятором, текст программы переводится (транслируется) на машинный код.

Трансляторы бывают двух типов:
интерпретаторы,
компиляторы.

Интерпретатор читает один оператор программы, анализирует его и сразу выполняет, после чего переходит к обработке следующего оператора.

Компилятор сначала читает, анализирует и переводит на машинный код всю программу и только после завершения всей трансляции эта программа выполняется.

Инструментальные языки делятся на языки низкого уровня (близкие к машинному языку) и языки высокого уровня (близкие к человеческим языкам). К языкам низкого уровня принадлежат ассемблеры, а высокого – Pascal, Basic, C/C++, языки баз данных и т.д. В систему программирования, кроме транслятора, входит текстовый редактор, компоновщик, библиотека стандартных программ, отладчик, визуальные средства автоматизации программирования. Примерами таких систем являются Delphi, Visual Basic, Visual C++, Visual FoxPro и др.

Современные системы программирования обычно предоставляют пользователям мощные и удобные средства разработки программ. В них входят:
компилятор или интерпретатор;
интегрированная среда разработки;
средства создания и редактирования текстов программ;
обширные библиотеки стандартных программ и функций;
отладочные программы, т.е. программы, помогающие находить и устранять ошибки в программе;
дружественная” к пользователю диалоговая среда;
многооконный режим работы;
мощные графические библиотеки; утилиты для работы с библиотеками
встроенный ассемблер;
встроенная справочная служба;
другие специфические особенности.

Популярные системы программирования – Turbo Basic, Quick Basic, Turbo Pascal, Turbo C.

В последнее время получили распространение системы программирования, ориентированные на создание Windows-приложений: Visual С++, Visual Basic, Delphi.
пакет Borland Delphi (Дельфи) – блестящий наследник семейства компиляторов Borland Pascal, предоставляющий качественные и очень удобные средства визуальной разработки. Его исключительно быстрый компилятор позволяет эффективно и быстро решать практически любые задачи прикладного программирования.
пакет Microsoft Visual Basic – удобный и популярный инструмент для создания Windows-программ с использованием визуальных средств. Содержит инструментарий для создания диаграмм и презентаций.
пакет Borland C++ – одно из самых распространённых средств для разработки DOS и Windows приложений.
Глава 8. Основы работы в среде локальных и глобальных компьютерных сетей
8.1. История, перспективы развития и темпы развития компьютерных сетей

Дальнейшее развитие радио, телеграфа, телефона, изобретение компьютера создали плодотворную почву для проходящей и ныне интеграции различных устройств в глобальное информационное сообщество. На данный момент крупнейшим и самым распространенным во всем мире узлом этого сообщества, безусловно, является Интернет, сейчас насчитывающий более 50 миллионов пользователей и объединяющий около 40 тысяч различных сетей.

Первые компьютеры появились в 50-х годах и представляли собой огромные, порой занимающие целые здания устройства. Основной акцент ставился на увеличение их производительности, а удобство работы отходило на второй план. Однако в 60-х годах были пересмотрены способы организации вычислительного процесса, и появилась возможность учитывать интересы пользователей. Работать с компьютерами становилось все удобнее и удобнее. Появились так называемые интерактивные многотерминальные системы разделения времени.

В таких системах несколько пользователей получали отдельный терминал, подключенный к центральному процессору, и могли в режиме реального времени вести диалог с компьютером, при этом создавалась иллюзия единоличного владения компьютером. Немного позже терминалы из стен вычислительного центра переместились непосредственно на территорию всей организации. Таким образом, создание многотерминальных систем разделения времени стало первым шагом к появлению современных локальных вычислительных сетей, которыми они еще не являлись, так как использовали централизованный способ обработки и хранения данных.
Рис. 1. UNIVAC 1 (Universal Automatic Computer) первый промышленный компьютер

В начале 70-х благодаря многолетним усилиям большого количества разработчиков произошел очередной технологический прорыв, давший возможность создавать мини-компьютеры, которые позволяли обрабатывать информацию быстрее своих гигантских предшественников. Резкое уменьшение их стоимости позволило даже небольшим предприятиям приобретать компьютеры для решения своих проблем, и появилась необходимость распределения вычислительных ресурсов по нескольким подразделениям предприятия.

Однако при этом все компьютеры продолжали работать отдельно друг от друга. Но со временем объем обрабатываемой информации вырос, вычислительных мощностей одного компьютера стало катастрофически не хватать, и появилась острая необходимость в возможности обмена данными между несколькими близко расположенными компьютерами. Предприятиям и организациям пришлось срочно разрабатывать программное обеспечение, позволяющее объединять свои вычислительные мощности.

В результате появились первые локальные вычислительные сети, которые во многом отличались от тех сетей, которые мы используем сегодня. В первую очередь это касается устройств сопряжения между компьютерами – каждая компания использовала свои типы кабелей, различные виды разъемов и способы представления данных на линиях связи. Все эти устройства могли работать только с теми типами компьютеров, для которых они были разработаны. Естественно, это тормозило дальнейшее распространение локальных сетей.

Такая разобщенность и несовместимость между различными платформами все больше начинала беспокоить пользователей и потребителей, и в 80-х годах было сделано несколько попыток стандартизировать технологии объединения компьютеров в сеть. В результате из огромного количества технологий было выделено три основных – Ethernet, Arcnet и Token Ring. В это же время на рынке начали появляться первые персональные компьютеры, которые стали идеальными элементами для построения локальных сетей: их производительности вполне хватало для работы сетевого программного обеспечения, но они нуждались в объединении своих вычислительных мощностей для решения сложных ресурсоемких задач. С течением времени ПК стали преобладать в локальных сетях, причем они уже использовались не только как клиентские терминалы, но и как устройства для централизованного хранения и обработки данных, то есть заняли место сетевых серверов, до этого построенных на мини-компьютерах.

С этого момента для создания локальной сети было достаточно приобрести стандартный сетевой адаптер, кабель и установить на компьютерах одну из популярных сетевых операционных систем. Присоединение каждого нового компьютера к существующей сети также не вызывало проблем – главное, чтобы на нем стоял сетевой адаптер, работающий по той же технологии, что и на остальных.

Сейчас к локальным сетям, также называемым LAN (Local Area Network), относят компьютеры, объединенные в сеть на сравнительно небольшом расстоянии – до 1-2 км.

Также в локальную сеть, помимо компьютеров, входят различные периферийные устройства (принтеры, сканеры, устройства для резервного хранения информации и т. п.) и коммутационные устройства, соединенные чаще всего кабелями. Благодаря небольшим расстояниям при построении локальных сетей возможно использовать относительно дорогие, но высококачественные линии связи, позволяющие передавать информацию со скоростью до 100 Мбит/с.

Сейчас при построении локальных сетей основной их концепцией является совместный доступ. Прежде всего, мы говорим о совместном доступе к данным. Благодаря локальным сетям каждый член коллектива, работающего, например, над одним проектом, имеет постоянный доступ к данным, используемым его коллегами. Также локальные сети предоставляют возможность совместного доступа к аппаратным средствам, то есть принтерами, подключенными к сети, могут пользоваться все ее пользователи, и отпадает необходимость приобретения принтера для каждого компьютера, а, к примеру, файловый сервер обеспечивает совместный доступ к программам. Таким образом, можно сказать, что основной целью создания локальной сети является совместный доступ к ресурсам.

Компьютерные сети делятся на два основных класса – одноранговые сети и сети с выделенным сервером. В одноранговых сетях не используются специальные компьютеры, обеспечивающие работу всей сети. Каждый ее пользователь выделяет в сети ресурсы своего компьютера – дисковое пространство, принтеры и т. д. При этом он может использовать ресурсы других пользователей. В таких сетях все пользователи равны в своих правах и возможностях. Эти сети просты в установке, не нуждаются в специальном программном обеспечении и существенно дешевле сетей с выделенным сервером. Сети с выделенным сервером, несмотря на свою дороговизну и сложность настройки, позволяют централизованно управлять всей сетью. В таких сетях применяется принцип “клиент-сервер”. Сервер – это выделенный в сети мощный персональный компьютер, который управляет всей сетью. Клиенты, или рабочие станции, – менее мощные ПК, которые используют ресурсы сервера. Одноранговые сети чаще всего организуются в небольших офисах или при построении так называемых домашних сетей, а сети с выделенным сервером применяются в больших вычислительных центрах.

Одновременно с успешным развитием локальных вычислительных сетей появилось желание соединять компьютеры, расположенные друг от друга на сотни и тысячи километров. Так, в августе 1962 года Дж. Ликлайдер, сотрудник Массачусетского технологического университета, впервые описал возможности информационного взаимодействия, которые станут возможными благодаря сети. В этом документе обсуждалась концепция “Галактической сети” (Galactic Network). Ликлайдер предугадал создание сети взаимосвязанных компьютеров, с помощью которой каждый желающий сможет быстро получать доступ к различной информации и программам, расположенным на любом другом компьютере. Все положения, описанные в этих заметках, по духу очень близки к состоянию современного Интернета. В октябре 1962 года Ликлайдер становится первым руководителем исследовательского компьютерного проекта в Управлении перспективных исследований и разработок Министерства обороны США (Defence Advanced Research Projects Agency, DARPA). Основной целью агентства было создание надежной системы коммуникаций, сохранявшей работоспособность даже в условиях ядерной атаки или природного катаклизма.

Но все же первоначальнодля соединения нескольких удаленных компьютеров использовались обычные телефонные линии, и в 1965 году компьютер TX-2, расположенный в Массачусетсе, связался с ЭВМ Q-32, находившейся в Калифорнии. Связь осуществлялась по низкоскоростной коммутируемой телефонной линии. Таким образом, была создана первая в истории нелокальная компьютерная сеть. Результатом этого эксперимента стало понимание того, что удаленные друг от друга на большое расстояние компьютеры могут успешно взаимодействовать между собой. Также стало ясно, что способов передачи данных по коммутируемым телефонным линиям недостаточно для достижения высокой скорости.

В 1967 году появился план разработки сети ARPANET, которая должна была использовать так называемую пакетную коммутацию. В августе 1968 года агентством DAPRA был организован открытый конкурс на разработку одного из ключевых компонентов сети ARPANET – коммутатора пакетов, названного интерфейсным процессором сообщений (Interface Message Processor, IMP). В декабре следующего года конкурс выиграла группа, работающая под руководством Фрэнка Харта (Frank Heart) из компании Bolt, Beranek & Newman (BBN).

И в сентябре 1969 года компания BBN установила в Калифорнийском университете первый интерфейсный процессор сообщений и подключила к нему первый компьютер. Вторым узлом сети стал Стэнфордский исследовательский институт.

Спустя месяц после подключения Стэнфордского института к ARPANET из Калифорнийского университета было послано первое межкомпьютерное сообщение. Следующими двумя узлами ARPANET стали Калифорнийский университет в Санта-Барбаре и Университет штата Юта. В итоге к концу 1969 года уже четыре компьютера были объединены в сеть ARPANET. И с этого момента можно начинать отсчет стремительного развития Интернета. Начало было положено. В последующие годы число компьютеров, подключенных к сети ARPANET, стремительно росло. Однако по мере роста ARPANET стали появляться и другие сети, и вскоре возникла необходимость связывать эти сети между собой.
Рис. 2. Команда разработчиков ARPANET

Для организации межсетевых соединений был нужен протокол или, проще говоря, набор соглашений, определяющий способы обмена данными между разными, ранее не совместимыми программами. Для решения этой задачи в 1973 году агентствоDARPA запустило проект под названием Internetting Project (проект объединения сетей). И уже в 1974 году Роберт Кан и Винт Керф разработали базовый протокол Интернета, позднее названный TCP/IP (Transmission Control Protocol/Internet Protocol – протокол управления передачей/межсетевой протокол). TCP обеспечивает доставку данных по нужному адресу, а IP отвечает за адресацию сетевых узлов. Однако с момента разработки TCP/IP до его масштабного распространения прошло практически 10 лет, и только в 1983 году Агентство связи Министерства обороны США принимает решение использовать этот протокол на всех узловых машинах ARPANET. Этот переход был запланирован на 1 января этого же года и требовал одновременных изменений на всех компьютерах сети, но все прошло на удивление гладко. Так был установлен единый стандарт, благодаря которому смогла развиваться вся сеть.

Благодаря появлению единого стандарта очень многие университеты стали подключаться к ARPANET, и со временем объем передаваемых сообщений вырос настолько, что мощности сети стало не хватать, она стала просто-напросто захлебываться.

На выручку пришел Национальный научный фонд США (National Science Foundation – NSF), который организовал пять суперкомпьютерных центров и стал искать способ, позволяющий ученым со всех концов страны получать доступ к своим машинам. Первоначально велись переговоры о предоставлении линий связи и ресурсов ARPANET, но они по каким-то причинам на такое соглашение не пошли, и NSF в 1986 году создал собственную сеть NSFNET. Новая сеть стала разрастаться, и настолько успешно, что ARPANET к 1990 году была свернута. Постепенно к NSFNET начали подключаться большие корпорации и коммерческие поставщики услуг Интернета, которые стали небезуспешно продавать возможность входа в сеть. С этого момента сеть стала доступна не только военным и научно-исследовательским центрам. Интернет становился доступным всем средством коммуникации.

К тому времени количество услуг, предоставляемых в Интернете, было не так велико, как сегодня. Пользователям приходилось довольствоваться электронной почтой, разработанной в марте 1972 года Рэем Томлинсоном (Ray Tomlinson) и ставшей более чем на 10 лет крупнейшими самым востребованным сетевым приложением, и пересылкой файлов и неформатированных текстов.
Рис. 3. Ray Tomlinson – изобретатель электронной почты

Но в 1990 году физик Тим Бернерс-Ли (Tim Berners-Lee), работавший в женевском Центре физики высоких энергий (CERN), решил создать такую систему, которая позволяла бы всем физикам в Европе обмениваться иллюстрированными форматированными результатами своих исследований и включать в них ссылки на другие публикации. Так родилась World Wide Web (WWW) – Всемирная паутина.

С этого момента Глобальная сеть начала приобретать именно тот вид, который мы имеем на данный момент. Сейчас WWW является самой динамически развивающейся службой в Интернете, и количество текстов, доступных для публичного просмотра, исчисляется миллионами.
Рис. 4. Tim Berners-Lee

Интернет давно уже превратился из сложного инструмента, доступного и понятного только узким специалистам, в средство для сотрудничества и общения людей, иногда разделенных тысячами километров, в механизм практически мгновенного обмена информацией и новостями, в огромную, постоянно пополняемую библиотеку. Бурное развитие сотовой и спутниковой телефонии, появление протокола пакетной радиопередачи данных (GPRS – General Packed Radio Services) перестает привязывать пользователя к какой-либо географической точке – доступ к Глобальной сети становится поистине мобильным. Можно проверить электронную почту или просмотреть последние новости, находясь в автомобиле или поезде. Пропускные способности каналов растут с каждым месяцем, и уже сейчас во многих странах передача аудио- и видеопотоков в режиме реального времени стала вполне реальным явлением. Однако для того чтобы вкусить все эти прелести, прежде всего необходимо получить доступ к точке входа в Интернет.

Такими точками чаще всего обладают интернет-провайдеры, которые, в свою очередь, соединены высокоскоростными каналами связи с другими центральными компьютерами сети. Финальный участок сети, который соединяет клиента с провайдером, будь то один домашний компьютер или большая локальная сеть, принято называть “последней милей”. Чаще всего именно ее качество определяет скорость взаимодействия конкретного компьютера со всей Сетью. Сейчас домашние компьютеры в большинстве своем подключаются к Интернету посредством телефонной линии, и самым слабым звеном в последней миле при таком соединении является качество телефонной линии и тип АТС. Однако все большее распространение имеют так называемые выделенные линии, которые используют собственные коммутации для доступа к сервис-провайдеру. Их прокладка и организация требует дополнительных, иногда немаленьких затрат, но и скорость передачи информации возрастает в несколько раз. Также все большую популярность приобретают системы беспроводного абонентского доступа. Основными преимуществами такого доступа к Сети являются достаточно быстрое построение канала связи, так как отсутствует необходимость прокладки кабелей, и относительная дешевизна по сравнению с проводными выделенными линиями. Как уже было сказано выше, сейчас появилась возможность использовать и сотовые телефоны для организации доступа в Интернет, а с появлением сотовых сетей третьего поколения скорость передачи данных у них достигнет просто фантастических высот.
Вернуться
8.2. Классификация компьютерных сетей. Основные приемы организации компьютеров в сеть

Для классификации компьютерных сетей используются различные признаки, но чаще всего сети делят на типы по территориальному признаку, то есть по величине территории, которую покрывает сеть. И для этого есть веские причины, так как отличия технологий локальных и глобальных сетей очень значительны, несмотря на их постоянное сближение
Особенности локальных, глобальных и городских сетей

К локальным сетям – Local Area Networks (LAN) – относят сети компьютеров, сосредоточенные на небольшой территории (обычно в радиусе не более 1-2 км). В общем случае локальная сеть представляет собой коммуникационную систему, принадлежащую одной организации. Из-за коротких расстояний в локальных сетях имеется возможность использования относительно дорогих высококачественных линий связи, которые позволяют, применяя простые методы передачи данных, достигать высоких скоростей обмена данными порядка 100 Мбит/с. В связи с этим услуги, предоставляемые локальными сетями, отличаются широким разнообразием и обычно предусматривают реализацию в режиме on-line.

Глобальные сети – Wide Area Networks (WAN) – объединяют территориально рассредоточенные компьютеры, которые могут находиться в различных городах и странах. Так как прокладка высококачественных линий связи на большие расстояния обходится очень дорого, в глобальных сетях часто используются уже существующие линии связи, изначально предназначенные совсем для других целей. Например, многие глобальные сети строятся на основе телефонных и телеграфных каналов общего назначения. Из-за низких скоростей таких линий связи в глобальных сетях (десятки килобит в секунду) набор предоставляемых услуг обычно ограничивается передачей файлов, преимущественно не в оперативном, а в фоновом режиме, с использованием электронной почты. Для устойчивой передачи дискретных данных по некачественным линиям связи применяются методы и оборудование, существенно отличающиеся от методов и оборудования, характерных для локальных сетей. Как правило, здесь применяются сложные процедуры контроля и восстановления данных, так как наиболее типичный режим передачи данных по территориальному каналу связи связан со значительными искажениями сигналов.

Городские сети (или сети мегаполисов) – Metropolitan Area Networks (MAN) – являются менее распространенным типом сетей. Эти сети появились сравнительно недавно. Они предназначены для обслуживания территории крупного города – мегаполиса. В то время как локальные сети наилучшим образом подходят для разделения ресурсов на коротких расстояниях и широковещательных передач, а глобальные сети обеспечивают работу на больших расстояниях, но с ограниченной скоростью и небогатым набором услуг, сети мегаполисов занимают некоторое промежуточное положение. Они используют цифровые магистральные линии связи, часто оптоволоконные, со скоростями от 45 Мбит/с, и предназначены для связи локальных сетей в масштабах города и соединения локальных сетей с глобальными. Эти сети первоначально были разработаны для передачи данных, но сейчас они поддерживают и такие услуги, как видеоконференции и интегральную передачу голоса и текста. Развитие технологии сетей мегаполисов осуществлялось местными телефонными компаниями. Исторически сложилось так, что местные телефонные компании всегда обладали слабыми техническими возможностями и из-за этого не могли привлечь крупных клиентов. Чтобы преодолеть свою отсталость и занять достойное место в мире локальных и глобальных сетей, местные предприятия связи занялись разработкой сетей на основе самых современных технологий, например технологии коммутации ячеек SMDS или ATM. Сети мегаполисов являются общественными сетями, и поэтому их услуги обходятся дешевле, чем построение собственной (частной) сети в пределах города.
Отличия локальных сетей от глобальных

Рассмотрим основные отличия локальных сетей от глобальных более детально. Так как в последнее время эти отличия становятся все менее заметными, то будем считать, что мы рассматриваем сети конца 80-х годов, когда эти отличия проявлялись весьма отчетливо.
Протяженность, качество и способ прокладки линий связи. Класс локальных вычислительных сетей по определению отличается от класса глобальных сетей небольшим расстоянием между узлами сети. Это в принципе делает возможным использование в локальных сетях качественных линий связи: коаксиального кабеля, витой пары, оптоволоконного кабеля, которые не всегда доступны (из-за экономических ограничений) на больших расстояниях, свойственных глобальным сетям. В глобальных сетях часто применяются уже существующие линии связи (телеграфные или телефонные), а в локальных сетях они прокладываются заново.
Сложность методов передачи и оборудования. В условиях низкой надежности физических каналов в глобальных сетях требуются более сложные, чем в локальных сетях, методы передачи данных и соответствующее оборудование. Так, в глобальных сетях широко применяются модуляция, асинхронные методы, сложные методы контрольного суммирования, квитирование и повторные передачи искаженных кадров. С другой стороны, качественные линии связи в локальных сетях позволили упростить процедуры передачи данных за счет применения смодулированных сигналов и отказа от обязательного подтверждения получения пакета.
Скорость обмена данными. Одним из главных отличий локальных сетей от глобальных является наличие высокоскоростных каналов обмена данными между компьютерами, скорость которых (10 и 100 Мбит/с) сравнима со скоростями работы устройств и узлов компьютера – дисков, внутренних шин обмена данными и т. п. За счет этого у пользователя локальной сети, подключенного к удаленному разделяемому ресурсу (например, диску сервера), складывается впечатление, что он пользуется этим диском, как “своим”. Для глобальных сетей типичны гораздо более низкие скорости передачи данных – 2400,9600,28800,33600 бит/с, 56 и 64 Кбит/с и только на магистральных каналах – до 2 Мбит/с.
Разнообразие услуг. Локальные сети предоставляют, как правило, широкий набор услуг – это различные виды услуг файловой службы, услуги печати, услуги службы передачи факсимильных сообщений, услуги баз данных, электронная почта и другие, в то время как глобальные сети в основном предоставляют почтовые услуги и иногда файловые услуги с ограниченными возможностями – передачу файлов из публичных архивов удаленных серверов без предварительного просмотра их содержания.
Оперативность выполнения запросов. Время прохождения пакета через локальную сеть обычно составляет несколько миллисекунд, время же его передачи через глобальную сеть может достигать нескольких секунд. Низкая скорость передачи данных в глобальных сетях затрудняет реализацию служб для режима on-line, который является обычным для локальных сетей.
Разделение каналов. В локальных сетях каналы связи используются, как правило, совместно сразу несколькими узлами сети, а в глобальных сетях – индивидуально.
Использование метода коммутации пакетов. Важной особенностью локальных сетей является неравномерное распределение нагрузки. Отношение пиковой нагрузки к средней может составлять 100:1 и даже выше. Такой трафик обычно называют пульсирующим. Из-за этой особенности трафика в локальных сетях для связи узлов применяется метод коммутации пакетов, который для пульсирующего трафика оказывается гораздо более эффективным, чем традиционный для глобальных сетей метод коммутации каналов. Эффективность метода коммутации пакетов состоит в том, что сеть в целом передает в единицу времени больше данных своих абонентов. В глобальных сетях метод коммутации пакетов также используется, но наряду с ним часто применяется и метод коммутации каналов, а также некоммутируемые каналы – как унаследованные технологии некомпьютерных сетей.
Масштабируемость. “Классические” локальные сети обладают плохой масштабируемостью из-за жесткости базовых топологий, определяющих способ подключения станций и длину линии. При использовании многих базовых топологий характеристики сети резко ухудшаются при достижении определенного предела по количеству узлов или протяженности линий связи. Глобальным же сетям присуща хорошая масштабируемость, так как они изначально разрабатывались в расчете на работу с произвольными топологиями.
Тенденция к сближению локальных и глобальных сетей

Если принять во внимание все перечисленные выше различия локальных и глобальных сетей, то становится понятным, почему так долго могли существовать раздельно два сообщества специалистов, занимающиеся этими двумя видами сетей. Но за последние годы ситуация резко изменилась.

Специалисты по локальным сетям, перед которыми встали задачи объединения нескольких локальных сетей, расположенных в разных, географически удаленных друг от друга пунктах, были вынуждены начать освоение чуждого для них мира глобальных сетей и телекоммуникаций. Тесная интеграция удаленных локальных сетей не позволяет рассматривать глобальные сети в виде “черного ящика”, представляющего собой только инструмент транспортировки сообщений на большие расстояния. Поэтому все, что связано с глобальными связями и удаленным доступом, стало предметом повседневного интереса многих специалистов по локальным сетям.

С другой стороны, стремление повысить пропускную способность, скорость передачи данных, расширить набор и оперативность служб, другими словами, стремление улучшить качество предоставляемых услуг – все это заставило специалистов по глобальным сетям обратить пристальное внимание на технологии, используемые в локальных сетях.

Таким образом, в мире локальных и глобальных сетей явно наметилось движение навстречу друг другу, которое уже сегодня привело к значительному взаимопроникновению технологий локальных и глобальных сетей.

Одним из проявлений этого сближения является появление сетей масштаба большого города (MAN), занимающих промежуточное положение между локальными и глобальными сетями. При достаточно больших расстояниях между узлами они обладают качественными линиями связи и высокими скоростями обмена, даже более высокими, чем в классических локальных сетях. Как и в случае локальных сетей, при построении MAN уже существующие линии связи не используются, а прокладываются заново.

Сближение в методах передачи данных происходит на платформе оптической цифровой (немодулированной) передачи данных по оптоволоконным линиям связи. Из-за резкого улучшения качества каналов связи в глобальных сетях начали отказываться от сложных и избыточных процедур обеспечения корректности передачи данных. Примером могут служить сети frame relay. В этих сетях предполагается, что искажение бит происходит настолько редко, что ошибочный пакет просто уничтожается, а все проблемы, связанные с его потерей, решаются программами прикладного уровня, которые непосредственно не входят в состав сети frame relay.

За счет новых сетевых технологий и, соответственно, нового оборудования, рассчитанного на более качественные линии связи, скорости передачи данных в уже существующих коммерческих глобальных сетях нового поколения приближаются к традиционным скоростям локальных сетей (в сетях frame relay сейчас доступны скорости 2 Мбит/с), а в глобальных сетях ATM и превосходят их, достигая 622 Мбит/с.

В результате службы для режима on-line становятся обычными и в глобальных сетях. Наиболее яркий пример – гипертекстовая информационная служба World Wide Web, ставшая основным поставщиком информации в сети Internet. Ее интерактивные возможности превзошли возможности многих аналогичных служб локальных сетей, так что разработчикам локальных сетей пришлось просто позаимствовать эту службу у глобальных сетей. Процесс переноса служб и технологий из глобальных сетей в локальные приобрел такой массовый характер, что появился даже специальный термин – intranet-технологии (intra – внутренний), обозначающий применение служб внешних (глобальных) сетей во внутренних – локальных.

Локальные сети перенимают у глобальных сетей и транспортные технологии. Все новые скоростные технологии (Fast Ethernet, Gigabit Ethernet, l00VG-AnyLAN) поддерживают работу по индивидуальным линиям связи наряду с традиционными для локальных сетей разделяемыми линиями. Для организации индивидуальных линий связи используется специальный тип коммуникационного оборудования – коммутаторы. Коммутаторы локальных сетей соединяются между собой по иерархической схеме, подобно тому, как это делается в телефонных сетях: имеются коммутаторы нижнего уровня, к которым непосредственно подключаются компьютеры сети, коммутаторы следующего уровня соединяют между собой коммутаторы нижнего уровня и т. д. Коммутаторы более высоких уровней обладают, как правило, большей производительностью и работают с более скоростными каналами, уплотняя данные нижних уровней. Коммутаторы поддерживают не только новые протоколы локальных сетей, но и традиционные – Ethernet и Token Ring.

В локальных сетях в последнее время уделяется такое же большое внимание методам обеспечения защиты информации от несанкционированного доступа, как и в глобальных сетях. Такое внимание обусловлено тем, что локальные сети перестали быть изолированными, чаще всего они имеют выход в “большой мир” через глобальные связи. При этом часто используются те же методы – шифрование данных, аутентификация пользователей, возведение защитных барьеров, предохраняющих от проникновения в сеть извне.

И наконец, появляются новые технологии, изначально предназначенные для обоих видов сетей. Наиболее ярким представителем нового поколения технологий является технология ATM, которая может служить основой не только локальных и глобальных компьютерных сетей, но и телефонных сетей, а также широковещательных видеосетей, объединяя все существующие типы трафика в одной транспортной сети.
Сети отделов, кампусов и корпораций

Еще одним популярным способом классификации сетей является их классификация по масштабу производственного подразделения, в пределах которого действует сеть. Различают сети отделов, сети кампусов и корпоративные сети.

Сети отделов – это сети, которые используются сравнительно небольшой группой сотрудников, работающих в одном отделе предприятия. Эти сотрудники решают некоторые общие задачи, например ведут бухгалтерский учет или занимаются маркетингом. Считается, что отдел может насчитывать до 100-150 сотрудников.

Главной целью сети отдела является разделение локальных ресурсов, таких как приложения, данные, лазерные принтеры и модемы. Обычно сети отделов имеют один или два файловых сервера и не более тридцати пользователей (рис. 4.5), Сети отделов обычно не разделяются на подсети. В этих сетях локализуется большая часть трафика предприятия. Сети отделов обычно создаются на основе какой-либо одной сетевой технологии – Ethernet, Token Ring. Для такой сети характерен один или, максимум, два типа операционных систем. Чаще всего – это сеть с выделенным сервером, например NetWare, хотя небольшое количество пользователей делает возможным использование одноранговых сетевых ОС, таких, например, как Windows 95.
Рис. 5. Пример сети масштаба отдела

Задачи управления сетью на уровне отдела относительно просты: добавление новых пользователей, устранение простых отказов, инсталляция новых узлов и установка новых версий программного обеспечения. Такой сетью может управлять сотрудник, посвящающий обязанностям администратора только часть своего времени. Чаще всего администратор сети отдела не имеет специальной подготовки, но является тем человеком в отделе, который лучше всех разбирается в компьютерах, и само собой получается так, что он занимается администрированием сети.

Существует и другой тип сетей, близкий к сетям отделов, – сети рабочих групп. К таким сетям относят совсем небольшие сети, включающие до 10-20 компьютеров. Характеристики сетей рабочих групп практически не отличаются от описанных выше характеристик сетей отделов. Такие свойства, как простота сети и однородность, здесь проявляются в наибольшей степени, в то время как сети отделов могут приближаться в некоторых случаях к следующему по масштабу типу сетей – сетям кампусов.

Сети кампусов получили свое название от английского слова campus – студенческий городок. Именно на территории университетских городков часто возникала необходимость объединения нескольких мелких сетей в одну большую сеть. Сейчас это название не связывают со студенческими городками, а используют для обозначения сетей любых предприятий и организаций.

Главными особенностями сетей кампусов являются следующие (рис. 4.6). Сети этого типа объединяют множество сетей различных отделов одного предприятия в пределах отдельного здания или в пределах одной территории, покрывающей площадь в несколько квадратных километров. При этом глобальные соединения в сетях кампусов не используются. Службы такой сети включают взаимодействие между сетями отделов, доступ к общим базам данных предприятия, доступ к общим факс-серверам, высокоскоростным модемам и высокоскоростным принтерам. В результате сотрудники каждого отдела предприятия получают доступ к некоторым файлам и ресурсам сетей других отделов. Важной службой, предоставляемой сетями кампусов, стал доступ к корпоративным базам данных независимо от того, на каких типах компьютеров они располагаются.
Рис. 6. Пример сети кампуса

Именно на уровне сети кампуса возникают проблемы интеграции неоднородного аппаратного и программного обеспечения/Типы компьютеров, сетевых операционных систем, сетевого аппаратного обеспечения могут отличаться в каждом отделе. Отсюда вытекают сложности управления сетями кампусов. Администраторы должны быть в этом случае более квалифицированными, а средства оперативного управления сетью – более совершенными.

Корпоративные сети называют также сетями масштаба предприятия, что соответствует дословному переводу термина “enterprise-wide networks”, используемого в англоязычной литературе для обозначения этого типа сетей. Сети масштаба предприятия (корпоративные сети) объединяют большое количество компьютеров на всех территориях отдельного предприятия. Они могут быть сложно связаны и покрывать город, регион или даже континент. Число пользователей и компьютеров может измеряться тысячами, а число серверов – сотнями, расстояния между сетями отдельных территорий могут оказаться такими, что становится необходимым использование глобальных связей. Для соединения удаленных локальных сетей и отдельных компьютеров в корпоративной сети применяются разнообразные телекоммуникационные средства, в том числе телефонные каналы, радиоканалы, спутниковая связь. Корпоративную сеть можно представить в виде “островков локальных сетей”, плавающих в телекоммуникационной среде.

Непременным атрибутом такой сложной и крупномасштабной сети является высокая степень гетерогенности – нельзя удовлетворить потребности тысяч пользователей с помощью однотипных программных и аппаратных средств. В корпоративной сети обязательно будут использоваться различные типы компьютеров – от мэйнфреймов до персоналок, несколько типов операционных систем и множество различных приложений. Неоднородные части корпоративной сети должны работать как единое целое, предоставляя пользователям по возможности прозрачный доступ ко всем необходимым ресурсам.

Появление корпоративных сетей – это хорошая иллюстрация известного философского постулата о переходе количества в качество. При объединении отдельных сетей крупного предприятия, имеющего филиалы в разных городах и даже странах, в единую сеть многие количественные характеристики объединенной сети превосходят некоторый критический порог, за которым начинается новое качество. В этих условиях существующие методы и подходы к решению традиционных задач сетей меньших масштабов для корпоративных сетей оказались непригодными. На первый план вышли такие задачи и проблемы, которые в сетях рабочих групп, отделов и даже кампусов либо имели второстепенное значение, либо вообще не проявлялись. Примером может служить простейшая (для небольших сетей) задача – ведение учетных данных о пользователях сети.

Наиболее простой способ ее решения – помещение учетных данных каждого пользователя в локальную базу учетных данных каждого компьютера, к ресурсам которого пользователь должен иметь доступ. При попытке доступа эти данные извлекаются из локальной учетной базы и на их основе доступ предоставляется или не предоставляется. Для небольшой сети, состоящей из 5-10 компьютеров и примерно такого же количества пользователей, такой способ работает очень хорошо. Но если в сети насчитывается несколько тысяч пользователей, каждому из которых нужен доступ к нескольким десяткам серверов, то, очевидно, это решение становится крайне неэффективным. Администратор должен повторить несколько десятков раз операцию занесения учетных данных пользователя. Сам пользователь также вынужден повторять процедуру логического входа каждый раз, когда ему нужен доступ к ресурсам нового сервера. Хорошее решение этой проблемы для крупной сети – использование централизованной справочной службы, в базе данной которой хранятся учетные записи всех пользователей сети. Администратор один раз выполняет операцию занесения данных пользователя в эту базу, а пользователь один раз выполняет процедуру логического входа, причем не в отдельный сервер, а в сеть целиком.

При переходе от более простого типа сетей к более сложному – от сетей отдела к корпоративной сети – сеть должна быть все более надежной и отказоустойчивой, при этом требования к ее производительности также существенно возрастают. По мере увеличения масштабов сети увеличиваются и ее функциональные возможности. По сети циркулирует все возрастающее количество данных, и сеть должна обеспечивать их безопасность и защищенность наряду с доступностью. Соединения, обеспечивающие взаимодействие, должны быть более прозрачными. При каждом переходе на следующий уровень сложности компьютерное оборудование сети становится все более разнообразным, а географические расстояния увеличиваются, делая достижение целей более сложным; более проблемным и дорогостоящим становится управление такими соединениями.
Топология сетей

Под топологией вычислительной сети понимается конфигурация графа, вершинам которого соответствуют компьютеры сети (иногда и другое оборудование, например концентраторы), а ребрам – физические связи между ними. Компьютеры, подключенные к сети, часто называют станциями или узлами сети.

Заметим, что конфигурация физических связей определяется электрическими соединениями компьютеров между собой и может отличаться от конфигурации логических связей между узлами сети. Логические связи представляют собой маршруты передачи данных между узлами сети и образуются путем соответствующей настройки коммуникационного оборудования.

Выбор топологии электрических связей существенно влияет на многие характеристики сети. Например, наличие резервных связей повышает надежность сети и делает возможным балансирование загрузки отдельных каналов. Простота присоединения новых узлов, свойственная некоторым топологиям, делает сеть легко расширяемой. Экономические соображения часто приводят к выбору топологий, для которых характерна минимальная суммарная длина линий связи.

Рассмотрим некоторые, наиболее часто встречающиеся топологии.

Полносвязная топология (рис. 7, а) соответствует сети, в которой каждый компьютер сети связан со всеми остальными. Несмотря на логическую простоту, этот вариант оказывается громоздким и неэффективным. Действительно, каждый компьютер в сети должен иметь большое количество коммуникационных портов, достаточное для связи с каждым из остальных компьютеров сети. Для каждой пары компьютеров должна быть выделена отдельная электрическая линия связи. Полносвязные топологии применяются редко, так как не удовлетворяют ни одному из приведенных выше требований. Чаще этот вид топологии используется в многомашинных комплексах или глобальных сетях при небольшом количестве компьютеров.

Все другие варианты основаны на неполносвязных топологиях, когда для обмена данными между двумя компьютерами может потребоваться промежуточная передача данных через другие узлы сети.

Ячеистая топология (mesh) получается из полносвязной путем удаления некоторых возможных связей (рис. 7, б). В сети с ячеистой топологией непосредственно связываются только те компьютеры, между которыми происходит интенсивный обмен данными, а для обмена данными между компьютерами, не соединенными прямыми связями, используются транзитные передачи через промежуточные узлы. Ячеистая топология допускает соединение большого количества компьютеров и характерна, как правило, для глобальных сетей.

Общая шина (рис. 7, в) является очень распространенной (а до недавнего времени самой распространенной) топологией для локальных сетей. В этом случае компьютеры подключаются к одному коаксиальному кабелю по схеме “монтажного ИЛИ”. Передаваемая информация может распространяться в обе стороны. Применение общей шины снижает стоимость проводки, унифицирует подключение различных модулей, обеспечивает возможность почти мгновенного широковещательного обращения ко всем станциям сети. Таким образом, основными преимуществами такой схемы являются дешевизна и простота разводки кабеля по помещениям. Самый серьезный недостаток общей шины заключается в ее низкой надежности: любой дефект кабеля или какого-нибудь из многочисленных разъемов полностью парализует всю сеть. К сожалению, дефект коаксиального разъема редкостью не является. Другим недостатком общей шины является ее невысокая производительность, так как при таком способе подключения в каждый момент времени только один компьютер может передавать данные в сеть. Поэтому пропускная способность канала связи всегда делится здесь между всеми узлами сети.

Топология звезда (рис. 7, г). В этом случае каждый компьютер подключается отдельным кабелем к общему устройству, называемому концентратором, который находится в центре сети. В функции концентратора входит направление передаваемой компьютером информации одному или всем остальным компьютерам сети. Главное преимущество этой топологии перед общей шиной – существенно большая надежность. Любые неприятности с кабелем касаются лишь того компьютера, к которому этот кабель присоединен, и только неисправность концентратора может вывести из строя всю сеть. Кроме того, концентратор может играть роль интеллектуального фильтра информации, поступающей от узлов в сеть, и при необходимости блокировать запрещенные администратором передачи.

К недостаткам топологии типа звезда относится более высокая стоимость сетевого оборудования из-за необходимости приобретения концентратора. Кроме того, возможности по наращиванию количества узлов в сети ограничиваются количеством портов концентратора. Иногда имеет смысл строить сеть с использованием нескольких концентраторов, иерархически соединенных между собой связями типа звезда (рис. 4.7, д). В настоящее время иерархическая звезда является самым распространенным типом топологии связей как в локальных, так и глобальных сетях.
Рис. 7. Типовые топологии сетей

В сетях с кольцевой конфигурацией (рис. 7, е) данные передаются по кольцу от одного компьютера к другому, как правило, в одном направлении. Если компьютер распознает данные как “свои”, то он копирует их себе во внутренний буфер. В сети с кольцевой топологией необходимо принимать специальные меры, чтобы в случае выхода из строя или отключения какой-либо станции не прервался канал связи между остальными станциями. Кольцо представляет собой очень удобную конфигурацию для организации обратной связи – данные, сделав полный оборот, возвращаются к узлу-источнику. Поэтому этот узел может контролировать процесс доставки данных адресату. Часто это свойство кольца используется для тестирования связности сети и поиска узла, работающего некорректно. Для этого в сеть посылаются специальные тестовые сообщения.
Рис. 8 Смешанная топология

В то время как небольшие сети, как правило, имеют типовую топологию – звезда, кольцо или общая шина, для крупных сетей характерно наличие произвольных связей между компьютерами. В таких сетях можно выделить отдельные произвольно связанные фрагменты (подсети), имеющие типовую топологию, поэтому их называют сетями со смешанной топологией (рис. 8).
Вернуться
8.3. Аппаратное обеспечение для функционирования сети

Маршрутизаторы – это устройства, служащие для передачи пакетов на сетевом уровне и выбора одного из возможных путей, которые должны проделать данные, прежде чем попасть от отправителя к получателю. Обычно маршрутизаторы работают с протоколом IP, который является наиболее распространенным, однако большинство устройств поддерживают и другие протоколы сетевого уровня (IPX и другие). Обычно маршрутизатор отвечает за взаимодействие локальной сети с другими сетями. Маршрутизатор – это сложное вычислительное устройство, содержащее процессор и блок памяти. Эти аппаратные компоненты используются для расчета маршрутов и передачи пакетов, а также для контроля над производительностью маршрутизатора. От уровня загруженности этих аппаратных компонентов напрямую зависит производительность маршрутизатора, поэтому, как и в случае с компьютерами, если этот уровень приближается к 100% достаточно часто, то следует или произвести их модернизацию, или проанализировать структуру трафика и постараться снизить нагрузку на перегруженные маршрутизаторы (хотя это имеет смысл только для больших сетей).

Мосты – устройства, служащие для объединения двух локальных сетей и передачи кадров в соответствии с присвоенными MAC-адресами. Их можно считать “низкоуровневыми” маршрутизаторами. Обычно мосты бывают двух разновидностей – локальные и удаленные. Локальные мосты используются для установления высокоскоростных соединений между двумя близлежащими локальными сетями, в то время как удаленные мосты связывают две локальные сети, отстоящие друг от друга на значительное расстояние по относительно медленному каналу, например телефонной линии. Мосты не понимают протоколы третьего и более высоких уровней, и поэтому они одинаково обрабатывают протоколы IP, IPX и другие. Кроме того, мосты позволяют разбивать на сегменты сети, в которых используются протоколы, не поддерживающие маршрутизацию, например NetBEUI. Однако для установления соединений между различными канальными уровнями(например, между сегментами TokenRing и Ethernet) удобнее использовать маршрутизаторы. Управление мостами довольно сложное, поскольку они работают только с MAC-адресами и физической топологией сети, и поэтому их рекомендуется использовать только в простейших сетях. Существует два типа: прозрачные мосты и мосты с маршрутизацией от источника. Прозрачные мосты обычно используются для установления соединения между сегментами Ethernet, в то время как мосты с маршрутизацией от источника – для установления соединения между сегментами Token Ring. Прозрачные мосты ретранслируют трафик, проходящий между двумя сегментами сети, изолируя при этом локальный трафик сегмента получателя, снижая таким образом общую интенсивность сетевого трафика. Мосты с маршрутизацией от источника значительно отличаются от прозрачных мостов. Прозрачные мосты пытаются подключить различные хосты к одному сетевому сегменту, в то время как мосты с маршрутизацией от источника не принимают никаких решений относительно способов передачи пакетов и не ведут списки MAC-адресов. Мосты с маршрутизацией от источника заставляют хосты обрабатывать все данные, связанные с маршрутизацей, а так же создавать новые маршруты. Таким образом, при росте количества хостов и мостов данные маршрутизации будут занимать значительную долю от общего объема трафика. Прозрачные мосты не возлагают на хосты никаких задач и не влияют на трафик сети. Однако в них далеко не всегда используется оптимальный маршрут передачи данных, а для устранения возможности возникновения сетевых колец прозрачные мосты даже блокируют некоторые порты. Ресурсы мостов являются достаточно ограниченными, и поэтому их стоит использовать только для соединения простейших локальных сетей с глобальными сетями. В большинстве случаев мосты оказываются не в состоянии справиться с обработкой возрастающего количества запросов от сетевых устройств.

Концентратор – это критическое звено сетей, использующих звездообразную топологию. Обычно, если к сети со звездообразной топологией подключено более двух рабочих станций, то возникает необходимость использования концентратора. Концентраторы используются с такими популярными сетевыми технологиями, как 10baseT, 10baseF (оптоволокно) и другими, для соединения различных кабелей и распределения данных по различным сегментам сети. Концентраторы выступают в качестве распространителей сигнала, получая его с одного порта и передавая на все остальные. Некоторые концентраторы также способны усиливать сигнал перед его ретрансляцией или изменять временные характеристики сигнала для обеспечения максимальной синхронизации обмена данными между портами. Концентраторы с несколькими разъемами типа 10baseF разделяют луч света с помощью зеркал и направляют его на различные порты. Все концентраторы имеют стандартный набор функций, некоторые из которых определяются типом используемого кабеля. Обычно подключение кабелей к концентратору осуществляется с помощью разъемов типа RJ45, которые являются стандартными для сетей Ethernet, использующих витую пару в качестве среды передачи. Длина кабеля, который может быть подключен к концентратору, ограничивается только свойствами самого кабеля. Например, длина кабеля Ethernet 10BaseF не может превышать двух километров. Поскольку концентраторы являются стандартными электронными устройствами, для их работы необходим источник питания. Большинство концентраторов оборудованы специальными световыми индикаторами, отображающими информацию о состоянии устройства (обычно информацию о напряжении и портах передачи данных). Некоторые концентраторы оборудованы специальными индикаторами, позволяющими отслеживать трафик через определенные порты и конфликты между пакетами в сети. Существуют несколько разновидностей концентраторов, каждая из которых обладает своими функциональными возможностями.и функциями.

Пассивные концентраторы. Функции пассивных концентраторов ограничиваются передачей полученных пакетов. Пассивные концентраторы помимо разъемов RJ45 оборудованы портами 10base2 для подключения к сетевой магистрали или портами AUI. Большинство пассивных концентраторов являются базовыми устройствами, которые могут использоваться для развертывания небольших сетей Ethernet, имеющих звездообразную топологию.

Активные концентраторы поддерживают все функции пассивных и обладают дополнительными возможностями контроля и проверки отправки данных. Благодаря использованию технологии передачи с промежуточным хранением, позволяющей анализировать данные перед трансляцией, такой тип концентраторов играет довольно значительную роль в сетях Ethernet. Они обладают возможностями восстановления поврежденных пакетов и изменения приоритетов отправки других пакетов, а также способны усиливать слабые сигналы. Некоторые активные концентраторы также имеют встроенные диагностические функции. Большинство активных концентраторов позволяют повышать производительность сети и производить диагностику проблемного оборудования. Активные концентраторы оборудованы дополнительными портами, позволяющими подключаться к сетевым магистралям, и могут использоваться для развертывания различных типов сетей звездообразной топологии.

Интеллектуальные концентраторы обладают множеством преимуществ по сравнению с другими типами концентраторов. В дополнение ко всем функциям активных интеллектуальные концентраторы поддерживают централизованное управление, идентификацию проблем и сбор диагностической информации, а также автоматическое устранение сбоев. Кроме того, они поддерживают возможность работы с устройствами различной скорости передачи данных и оборудованы дополнительными портами для подключения к высокоскоростным магистралям. Также интеллектуальные концентраторы поддерживают другие сетевые устройства, в частности мосты, маршрутизаторы и коммутаторы. Большинство современных концентраторов поставляется с предустановленным программным обеспечением для управления сетью, что делает их главным компонентом многих универсальных управляющих систем. Обычно такие концентраторы оборудованы резервными системами питания и вентиляции, предназначенными для обеспечения непрерывности работы. Большинство интеллектуальных концентраторов позволяет значительно повысить производительность сети и увеличить надежность и безопасность работы. Обычно они применяются для развертывания крупных корпоративных сетей. Разумеется, выбор типа концентратора зависит исключительно от сферы применения. Не имеет большого смысла приобретать интеллектуальный концентратор для создания небольшой сети из 12 компьютеров, а вот при развертывании крупной корпоративной сети одними пассивными концентраторами не обойтись. Поэтому перед приобретением подобных устройств необходимо сначала тщательно обдумать стратегию, которую вы собираетесь применить при развертывании сети, и составить список ключевых требований к концентратору, на базе которых и следует принять окончательное решение.

Коммутатор представляет собой многопортовое устройство канального уровня, которое устанавливает временное соединение между отправителем и получателем кадра. Хотя первые коммутаторы передавали кадры на основе анализа MAC-адресов, современные модели в состоянии обрабатывать ячейки, кадры и даже пакеты, использующие адреса третьего уровня, например IP-адреса. Если рассматривать коммутаторы как обычные сетевые устройства, тона первый взгляд они ничем не отличаются от маршрутизаторов, концентраторов и мостов. Однако есть три важных фактора, обеспечивающие коммутаторам преимущество перед всеми вышеописанными устройствами: быстродействие (коммутаторы намного быстрее), способ передачи данных (в коммутаторах используются более сложные аналитические методы) и возможность подключения большего количества устройств. Так же как и мосты, коммутаторы разделяют большие сети на подсети и позволяют значительно снизить общий объем трафика. При обмене данными между сегментами коммутаторы передают их только через те сегменты, к которым принадлежат хосты получателя и отправителя. Посредством распределения потока данных по локальным сегментам коммутаторы предоставляют подключенным устройствам дополнительные возможности доступа к сетевым ресурсам, увеличивая таким образом скорость передачи данных. Коммутаторы бывают двух типов – сегментные и портовые.

Сегментные коммутаторы в состоянии управлять трафиком сетевых областей(сегментов), подключенных к каждому порту, что позволяет соединять большее количество рабочих станций или областей сети, используя при этом меньшее количество коммутаторов и портов. С помощью таких коммутаторов можно обрабатывать на каждом порту отдельные рабочие станции, которые рассматриваются как области сети, состоящие из одного узла. Также существует и возможность объединения в отдельные сегменты рабочих станций с различными требованиями к сетевому доступу. Так, компьютеры с низкими требованиями можно объединить в один сегмент, компьютеры с более высокими требованиями – в другой, а, например, серверы – в третий. Преимуществами сегментных коммутаторов являются их невысокая стоимость по сравнению с портовыми коммутаторами и то, что их установка не требует дополнительных расходов на аппаратное обеспечение и проводку.

Портовые коммутаторы предназначены для ретрансляции данных, передаваемых отдельным устройством во все физические порты. Использование таких коммутаторов позволит выделить каждой рабочей станции, серверу и всем остальным устройствам канал для доступа к сетевым ресурсам с пропускной способностью не ниже 10 Мбит/с. Однако использование портовых коммутаторов связано с большими расходами. Во-первых, вам придется приобрести большое количество кабелей для подключения устройств, а во-вторых, количество коммутаторов будет возрастать пропорционально величине сети.

Своевременное обнаружение неполадки узких мест в сетевых устройствах играет очень важную роль. Большинство современных маршрутизаторов, концентраторов и коммутаторов оборудовано специальными аппаратными диагностическими средствами, предупреждающими пользователя о возникновении сбоев и их типе. Однако для того чтобы не только получать информацию о сбоях, но и предупреждать их, необходимо использовать специальные средства. Обычно в сети рекомендуется использовать диагностические пакеты, которые собирают информацию о работе различных устройств и выводят ее в удобном для анализа виде. Таких диагностических пакетов существует очень много. Они отличаются друг от друга интерфейсом, функциональными возможностями и стоимостью. Окончательный выбор должен зависеть от конкретных требований сети.

Кабель – это достаточно сложное изделие, “состоящее из проводников, слоев экрана и изоляции. В некоторых случаях в состав кабеля входят разъемы, с помощью которых кабели присоединяются к оборудованию. Кроме этого, для обеспечения быстрой перекоммутации кабелей и оборудования используются различные электромеханические устройства, называемые кроссовыми секциями, кроссовыми коробками или шкафами.

В компьютерных сетях применяются кабели, удовлетворяющие определенным стандартам, что позволяет строить кабельную систему сети из кабелей и соединительных устройств разных производителей. Сегодня наиболее употребительными стандартами в мировой практике являются следующие.
Американский стандарт EIA/TIA-568A, который был разработан совместнымиусилиями нескольких организаций: ANSI, EIA/TIA и лабораторией Underwriters Labs (UL). Стандарт EIA/TIA-568 разработан на основе предыдущей версиистандарта EIA/TIA-568 и дополнений к этому стандарту TSB-36 и TSB-40A).
Международный стандарт ISO/IEC 11801.
Европейский стандарт EN50173.

Эти стандарты близки между собой и по многим позициям предъявляют к кабелям идентичные требования. Однако есть и различия между этими стандартами, например, в международный стандарт 11801 и европейский EN50173 вошли некоторые типы кабелей, которые отсутствуют в стандарте EIA/TAI-568A.

До появления стандарта EIA/TIA большую роль играл американский стандарт системы категорий кабелей Underwriters Labs, разработанный совместно с компанией Anixter. Позже этот стандарт вошел в стандарт EIA/TIA-568.

Кроме этих открытых стандартов, многие компании в свое время разработали свои фирменные стандарты, из которых до сих пор имеет практическое значение только один – стандарт компании IBM.При стандартизации кабелей принят протокольно-независимый подход. Это означает, что в стандарте оговариваются электрические, оптические и механические характеристики, которым должен удовлетворять тот или иной тип кабеля или соединительного изделия – разъема, кроссовой коробки и т. п. Однако для какого протокола предназначен данный кабель, стандарт не оговаривает. Поэтому нельзя приобрести кабель для протокола Ethernet или FDDI, нужно просто знать, какие типы стандартных кабелей поддерживают протоколы Ethernet и FDDI.

В ранних версиях стандартов определялись только характеристики кабелей, без соединителей. В последних версиях стандартов появились требования к соединительным элементам (документы TSB-36 и TSB-40A, вошедшие затем в стандарт 568А), а также к линиям (каналам), представляющим типовую сборку элементов кабельной системы, состоящую из шнура от рабочей станции до розетки, самой розетки, основного кабеля (длиной до 90 м для витой пары), точки перехода (например, еще одной розетки или жесткого кроссового соединения) и шнура до активного оборудования, например концентратора или коммутатора.

Мы остановимся только на основных требованиях к самим кабелям, не рассматривая характеристик соединительных элементов и собранных линий.

В стандартах кабелей оговаривается достаточно много характеристик, из которых наиболее важные перечислены ниже (первые две из них уже были достаточно детально рассмотрены).
Затухание (Attenuation). Затухание измеряется в децибелах на метр для определенной частоты или диапазона частот сигнала.
Перекрестные наводки на ближнем конце (Near End Cross Talk, NEXT). Измеряются в децибелах для определенной частоты сигнала.
Импеданс (волновое сопротивление) – это полное (активное и реактивное) сопротивление в электрической цепи. Импеданс измеряется в Омах и является относительно постоянной величиной для кабельных систем (например, для коаксиальных кабелей, используемых в стандартах Ethernet, импеданс кабеля должен составлять 50 Ом). Для неэкранированной витой пары наиболее часто используемые значения импеданса – 100 и 120 Ом. В области высоких частот(100-200 МГц) импеданс зависит от частоты.
Активное сопротивление – это сопротивление постоянному току в электрической цепи. В отличие от импеданса активное сопротивление не зависит от частоты и возрастает с увеличением длины кабеля.
Емкость – это свойство металлических проводников накапливать энергию. Дваэлектрических проводника в кабеле, разделенные диэлектриком, представляют собой конденсатор, способный накапливать заряд. Емкость является нежелательной величиной, поэтому следует стремиться к тому, чтобы она была как можно меньше (иногда применяют термин “паразитная емкость”). Высокое значение емкости в кабеле приводит к искажению сигнала и ограничивает полосу пропускания линии.
Уровень внешнего электромагнитного излучения или электрический шум. Электрический шум – это нежелательное переменное напряжение в проводнике. Электрический шум бывает двух типов: фоновый и импульсный. Электрический шум можно также разделить на низко-, средне- и высокочастотный. Источниками фонового электрического шума в диапазоне до 150 кГц являются линии электропередачи, телефоны и лампы дневного света; в диапазоне от 150 кГц до 20 МГц – компьютеры, принтеры, ксероксы; в диапазоне от 20 МГц до 1 ГГц – телевизионные и радиопередатчики, микроволновые печи. Основными источникамиимпульсного электрического шума являются моторы, переключатели и сварочные агрегаты. Электрический шум измеряется в милливольтах.
Диаметр или площадь сечения проводника. Для медных проводников достаточно употребительной является американская система AWG (American Wire Gauge),которая вводит некоторые условные типы проводников, например 22 AWG,24 AWG, 26 AWG. Чем больше номер типа проводника, тем меньше его диаметр.В вычислительных сетях наиболее употребительными являются типы проводников, приведенные выше в качестве примеров. В европейских и международных стандартах диаметр проводника указывается в миллиметрах.

Естественно, приведенный перечень характеристик далеко не полон, причем в нем представлены только электромагнитные характеристики и его нужно дополнить механическими и конструктивными характеристиками, определяющими тип изоляции, конструкцию разъема и т. п. Помимо универсальных характеристик, таких, например, как затухание, которые применимы для всех типов кабелей, существуют характеристики, которые применимы только к определенному типу кабеля. Например, параметр шаг скрутки проводов используется только для характеристики витой пары, а параметр NEXT применим только к многопарным кабелям на основе витой пары.

Основное внимание в современных стандартах уделяется кабелям на основе витой пары и волоконно-оптическим кабелям.

Кабели на основе неэкранированной витой пары.

Медный неэкранированный кабель UTP в зависимости от электрических и механических характеристик разделяется на 5 категорий (Category I – Category 5). Кабели категорий 1 и 2 были определены в стандарте EIA/TIA-568, но в стандарт 568А уже не вошли, как устаревшие.

Кабели категории 1 применяются там, где требования к скорости передачи минимальны. Обычно это кабель для цифровой и аналоговой передачи голоса и низкоскоростной (до 20 Кбит/с) передачи данных. До 1983 года это был основной тип кабеля для телефонной разводки.

Кабели категории 2 были впервые применены фирмой IBM при построении собственной кабельной системы. Главное требование к кабелям этой категории – способность передавать сигналы со спектром до 1 МГц.

Кабели категории 3 были стандартизованы в 1991 году, когда был разработан Стандарт телекоммуникационных кабельных систем для коммерческих зданий (EIA-568), на основе которого затем был создан действующий стандарт EIA-568A. Стандарт EIA-568 определил электрические характеристики кабелей категории 3 для частот в диапазоне до 16 МГц, поддерживающих, таким образом, высокоскоростные сетевые приложения. Кабель категории 3 предназначен как для передачи данных, так и для передачи голоса. Шаг скрутки проводов равен примерно 3 витка на 1 фут (30,5 см). Кабели категории 3 сейчас составляют основу многих кабельных систем зданий, в которых они используются для передачи и голоса, и данных.

Кабели категории 4 представляют собой несколько улучшенный вариант кабелей категории 3. Кабели категории 4 обязаны выдерживать тесты на частоте передачи сигнала 20 МГц и обеспечивать повышенную помехоустойчивость и низкие потери сигнала. Кабели категории 4 хорошо подходят для применения в системах с увеличенными расстояниями (до 135 метров) и в сетях Token Ring с пропускной способностью 16 Мбит/с. На практике используются редко.

Кабели категории 5 были специально разработаны для поддержки высокоскоростных протоколов. Поэтому их характеристики определяются в диапазоне до 100 МГц. Большинство новых высокоскоростных стандартов ориентируются на использование витой пары 5 категории. На этом кабеле работают протоколы со скоростью передачи данных 100 Мбит/с – FDDI (с физическим стандартом TP-PMD), Fast Ethernet, 100VG-AnyLAN, а также более скоростные протоколы – ATM на скорости 155 Мбит/с, и Gigabit Ethernet на скорости 1000 Мбит/с (вариант Gigabit Ethernet на витой паре категории 5 стал стандартом в июне 1999 г.). Кабель категории 5 пришел на замену кабелю категории 3, и сегодня все новые кабельные системы крупных зданий строятся именно на этом типе кабеля (в сочетании с волоконно-оптическим).

Наиболее важные электромагнитные характеристики кабеля категории 5 имеют следующие значения:
полное волновое сопротивление в диапазоне частот до 100 МГц равно 100 Ом (стандарт ISO 11801 допускает также кабель с волновым сопротивлением 120 Ом);
величина перекрестных наводок NEXT в зависимости от частоты сигнала должна принимать значения не менее 74 дБ на частоте 150 кГц и не менее 32 дБ на частоте 100 МГц;
затухание имеет предельные значения от 0,8 дБ (на частоте 64 кГц) до 22 дБ (на частоте 100 МГц);
активное сопротивление не должно превышать 9,4 Ом на 100 м;
емкость кабеля не должна превышать 5,6 нф на 100 м.

Все кабели UTP независимо от их категории выпускаются в 4-парном исполнении. Каждая из четырех пар кабеля имеет определенный цвет и шаг скрутки. Обычно две пары предназначены для передачи данных, а две – для передачи голоса.

Для соединения кабелей с оборудованием используются вилки и розетки RJ-45, представляющие 8-контактные разъемы, похожие на обычные телефонные разъемы RJ-11.

Особое место занимают кабели категорий 6 и 7, которые промышленность начала выпускать сравнительно недавно. Для кабеля категории 6 характеристики определяются до частоты 200 МГц, а для кабелей категории 7 – до 600 МГц. Кабели категории 7 обязательно экранируются, причем как каждая пара, так и весь кабель в целом. Кабель категории 6 может быть как экранированным, так и неэкранированным. Основное назначение этих кабелей – поддержка высокоскоростных протоколов на отрезках кабеля большей длины, чем кабель UTP категории 5. Некоторые специалисты сомневаются в необходимости применения кабелей категории 7, так как стоимость кабельной системы при их использовании получается соизмеримой по стоимости сети с использованием волоконно-оптических кабелей, а характеристики кабелей на основе оптических волокон выше.

Кабели на основе экранированной витой пары.

Экранированная витая пара STP хорошо защищает передаваемые сигналы от внешних помех, а также меньше излучает электромагнитных колебаний вовне, что защищает, в свою очередь, пользователей сетей от вредного для здоровья излучения. Наличие заземляемого экрана удорожает кабель и усложняет его прокладку, так как требует выполнения качественного заземления. Экранированный кабель применяется только для передачи данных, а голос по нему не передают.

Основным стандартом, определяющим параметры экранированной витой пары, является фирменный стандарт IBM. В этом стандарте кабели делятся не на категории, а на типы: Туре 1, Туре 2,…, Туре 9.

Основным типом экранированного кабеля является кабель Туре 1 стандарта IBM. Он состоит из 2-х пар скрученных проводов, экранированных проводящей оплеткой, которая заземляется. Электрические параметры кабеля Туре 1 примерно соответствуют параметрам кабеля UTP категории 5. Однако волновое сопротивление кабеля Туре 1 равно 150 Ом (UTP категории 5 имеет волновое сопротивление 100 Ом), поэтому простое “улучшение” кабельной проводки сети путем замены неэкранированной пары UTP на STP Type 1 невозможно. Трансиверы, рассчитанные на работу с кабелем, имеющим волновое сопротивление 100 Ом, будут плохо работать на волновое сопротивление 150 Ом. Поэтому при использовании STP Type 1 необходимы соответствующие трансиверы. Такие трансиверы имеются в сетевых адаптерах Token Ring, так как эти сети разрабатывались для работы на экранированной витой паре. Некоторые другие стандарты также поддерживают кабель STP Туре 1 – например, 100VG-AnyLAN, а также Fast Ethernet (хотя основным типом кабеля для Fast Ethernet является UTP категории 5). В случае если технология может использовать UTP и STP, нужно убедиться, на какой тип кабеля рассчитаны приобретаемые трансиверы. Сегодня кабель STP Type 1 включен в стандарты EIA/TIA-568A, ISO 11801 и EN50173, то есть приобрел международный статус.

Экранированные витые пары используются также в кабеле IBM Type 2, который представляет кабель Туре 1 с добавленными 2 парами неэкранированного провода для передачи голоса.

Для присоединения экранированных кабелей к оборудованию используются разъемы конструкции IBM.

Не все типы кабелей стандарта IBM относятся к экранированным кабелям – некоторые определяют характеристики неэкранированного телефонного кабеля (Туре 3) и оптоволоконного кабеля (Туре 5).

Коаксиальные кабели.

Существует большое количество типов коаксиальных кабелей, используемых в сетях различного типа – телефонных, телевизионных и компьютерных. Ниже приводятся основные типы и характеристики этих кабелей.

RG-8 и RG-11 – “толстый” коаксиальный кабель, разработанный для сетей Ethernet 10Base-5. Имеет волновое сопротивление 50 Ом и внешний диаметр 0,5 дюйма (около 12 мм). Этот кабель имеет достаточно толстый внутренний проводник диаметром 2,17 мм, который обеспечивает хорошие механические и электрические характеристики (затухание на частоте 10 МГц – не хуже 18 дБ/км). Зато этот кабель сложно монтировать – он плохо гнется.

RG-58/U, RG-58 A/U и RG-58 C/U – разновидности “тонкого” коаксиальногокабеля для сетей Ethernet 10Base-2. Кабель RG-58/U имеет сплошной внутренний проводник, а кабель RG-58 A/U – многожильный. Кабель RG-58 C/U проходит “военную приемку”. Все эти разновидности кабеля имеют волновое сопротивление 50 Ом, но обладают худшими механическими и электрическими характеристиками по сравнению с “толстым” коаксиальным кабелем. Тонкий внутренний проводник 0,89 мм не так прочен, зато обладает гораздо большей гибкостью, удобной при монтаже. Затухание в этом типе кабеля выше, чем в”толстом” коаксиальном кабеле, что приводит к необходимости уменьшать длину кабеля для получения одинакового затухания в сегменте. Для соединения кабелей с оборудованием используется разъем типа BNC.

RG-59 – телевизионный кабель с волновым сопротивлением 75 Ом. Широко применяется в кабельном телевидении.

RG-62 – кабель с волновым сопротивлением 93 Ома, использовался в сетях ArcNet, оборудование которых сегодня практически не выпускается.

Коаксиальные кабели с волновым сопротивлением 50 Ом (то есть “тонкий” и “толстый”) описаны в стандарте EIA/TIA-568. Новый стандарт EIA/TIA-568A коаксиальные кабели не описывает, как морально устаревшие.

Волоконно-оптические кабели.

Волоконно-оптические кабели состоят из центрального проводника света (сердцевины) – стеклянного волокна, окруженного другим слоем стекла – оболочкой, обладающей меньшим показателем преломления, чем сердцевина. Распространяясь по сердцевине, лучи света не выходят за ее пределы, отражаясь от покрывающего слоя оболочки. В зависимости от распределения показателя преломления и от величины диаметра сердечника различают:
многомодовое волокно со ступенчатым изменением показателя преломления;
многомодовое волокно с плавным изменением показателя преломления;
одномодовое волокно.

Понятие “мода” описывает режим распространения световых лучей во внутреннем сердечнике кабеля. В одномодовом кабеле (Single Mode Fiber, SMF) используется центральный проводник очень малого диаметра, соизмеримого с длиной волны света – от 5 до 10 мкм. При этом практически все лучи света распространяются вдоль оптической оси световода, не отражаясь от внешнего проводника. Полоса пропускания одномодового кабеля очень широкая – до сотен гигагерц на километр. Изготовление тонких качественных волокон для одномодового кабеля представляет сложный технологический процесс, что делает одномодовый кабель достаточно дорогим. Кроме того, в волокно такого маленького диаметра достаточно сложно направить пучок света, не потеряв при этом значительную часть его энергии.

В многомодовых кабелях (Multi Mode Fiber, MMF) используются более широкие внутренние сердечники, которые легче изготовить технологически. В стандартах определены два наиболее употребительных многомодовых кабеля: 62,5/125 мкм и 50/125 мкм, где 62,5 мкм или 50 мкм – это диаметр центрального проводника, а 125 мкм – диаметр внешнего проводника.

В многомодовых кабелях во внутреннем проводнике одновременно существует несколько световых лучей, отражающихся от внешнего проводника под разными углами. Угол отражения луча называется модой луча. В многомодовых кабелях с плавным изменением коэффициента преломления режим распространения каждой моды имеет более сложный характер.

Многомодовые кабели имеют более узкую полосу пропускания – от 500 до 800 МГц/км. Сужение полосы происходит из-за потерь световой энергии при отражениях, а также из-за интерференции лучей разных мод.

В качестве источников излучения света в волоконно-оптических кабелях применяются:
светодиоды;
полупроводниковые лазеры.

Для одномодовых кабелей применяются только полупроводниковые лазеры, так как при таком малом диаметре оптического волокна световой поток, создаваемый светодиодом, невозможно без больших потерь направить в волокно. Для многомо-довых кабелей используются более дешевые светодиодные излучатели.

Для передачи информации применяется свет с длиной волны 1550 нм (1,55 мкм), 1300 нм (1,3 мкм) и 850 нм (0,85 мкм). Светодиоды могут излучать свет с длиной волны 850 нм и 1300 нм. Излучатели с длиной волны 850 нм существенно дешевле, чем излучатели с длиной волны 1300 нм, но полоса пропускания кабеля для волн 850 нм уже, например 200 МГц/км вместо 500 МГц/км.

Лазерные излучатели работают на длинах волн 1300 и 1550 нм. Быстродействие современных лазеров позволяет модулировать световой поток с частотами 10 ГГц и выше. Лазерные излучатели создают когерентный поток света, за счет чего потери в оптических волокнах становятся меньше, чем при использовании некогерентного потока светодиодов.

Использование только нескольких длин волн для передачи информации в оптических волокнах связанно с особенностью их амплитудно-частотной характеристики. Именно для этих дискретных длин волн наблюдаются ярко выраженные максимумы передачи мощности сигнала, а для других волн затухание в волокнах существенно выше.

Волоконно-оптические кабели присоединяют к оборудованию разъемами MIC, ST и SC.Волоконно-оптические кабели обладают отличными характеристиками всех типов: электромагнитными, механическими (хорошо гнутся, а в соответствующей изоляции обладают хорошей механической прочностью). Однако у них есть один серьезный недостаток – сложность соединения волокон с разъемами и между собой при необходимости наращивания длины кабеля.

Сама стоимость волоконно-оптических кабелей ненамного превышает стоимость кабелей на витой паре, однако проведение монтажных работ с оптоволокном обходится намного дороже из-за трудоемкости операций и высокой стоимости применяемого монтажного оборудования. Так, присоединение оптического волокна к разъему требует проведения высокоточной обрезки волокна в плоскости строго перпендикулярной оси волокна, а также выполнения соединения путем сложной операции склеивания, а не обжатия, как это делается для витой пары. Выполнение же некачественных соединений сразу резко сужает полосу пропускания волоконно-оптических кабелей и линий.
Вернуться
8.4. Адресация компьютеров в сети. Протоколы передачи и обмена информации между ПК в сети.
Адресация компьютеров в сети

Одной из проблем, которую нужно учитывать при объединении трех и более компьютеров, является проблема их адресации. К адресу узла сети и схеме его назначения можно предъявить несколько требований.
Адрес должен уникально идентифицировать компьютер в сети любого масштаба.
Схема назначения адресов должна сводить к минимуму ручной труд администратора и вероятность дублирования адресов.
Адрес должен иметь иерархическую структуру, удобную для построения больших сетей. Эту проблему хорошо иллюстрируют международные почтовые адреса, которые позволяют почтовой службе, организующей доставку писем между странами, пользоваться только названием страны адресата и не учитывать на звание его города, а тем более улицы. В больших сетях, состоящих из многих тысяч узлов, отсутствие иерархии адреса может привести к большим издержкам – конечным узлам и коммуникационному оборудованию придется оперировать с таблицами адресов, состоящими из тысяч записей.
Адрес должен быть удобен для пользователей сети, а это значит, что он должен иметь символьное представление например, Server3 или www.cisco.com.
Адрес должен иметь по возможности компактное представление, чтобы не пере гружать память коммуникационной аппаратуры – сетевых адаптеров, маршрутизаторов и т. п.

Нетрудно заметить, что эти требования противоречивы – например, адрес, имеющий иерархическую структуру, скорее всего будет менее компактным, чем неиерархический (такой адрес часто называют “плоским”, то есть не имеющим структуры). Символьный же адрес скорее всего потребует больше памяти, чем адрес-число.

Так как все перечисленные требования трудно совместить в рамках какой-либо одной схемы адресации, то на практике обычно используется сразу несколько схем, так что компьютер одновременно имеет несколько адресов-имен. Каждый адрес используется в той ситуации, когда соответствующий вид адресации наиболее удобен. А чтобы не возникало путаницы и компьютер всегда однозначно определялся своим адресом, используются специальные вспомогательные протоколы, которые по адресу одного типа могут определить адреса других типов.

Наибольшее распространение получили три схемы адресации узлов.
Аппаратные (hardware) адреса. Эти адреса предназначены для сети небольшого или среднего размера, поэтому они не имеют иерархической структуры. Типичным представителем адреса такого типа является адрес сетевого адаптера локальной сети. Такой адрес обычно используется только аппаратурой, поэтому его стараются сделать по возможности компактным и записывают в виде двоичного или шестнадцатеричного значения, например 0081005е24а8. При задании аппаратных адресов обычно не требуется выполнение ручной работы, так как они либо встраиваются в аппаратуру компанией-изготовителем, либо генерируются автоматически при каждом новом запуске оборудования, причем уникальность адреса в пределах сети обеспечивает оборудование. Помимо отсутствия иерархии, использование аппаратных адресов связано еще с одним недостатком – при замене аппаратуры, например, сетевого адаптера, изменяется и адрес компьютера. Более того, при установке нескольких сетевых адаптеров у компьютера появляется несколько адресов, что не очень удобно для пользователей сети.
Символьные адреса или имена. Эти адреса предназначены для запоминания людьми и поэтому обычно несут смысловую нагрузку. Символьные адреса легко использовать как в небольших, так и крупных сетях. Для работы в больших сетях символьное имя может иметь сложную иерархическую структуру, например ftp-archl.ucl.ac.uk. Этот адрес говорит о том, что данный компьютер поддерживает ftp-архив в сети одного из колледжей Лондонского университета (University College London – ucl) и эта сеть относится к академической ветви (ас) InternetВеликобритании (United Kingdom – uk). При работе в пределах сети Лондонского университета такое длинное символьное имя явно избыточно и вместо него удобно пользоваться кратким символьным именем, на роль которого хорошо подходит самая младшая составляющего полного имени, то есть имя ftp-archl.
Числовые составные адреса. Символьные имена удобны для людей, но из-за переменного формата и потенциально большой длины их передача по сети не очень экономична. Поэтому во многих случаях для работы в больших сетях в качестве адресов узлов используют числовые составные адреса фиксированного и компактного форматов. Типичным представителями адресов этого типа являются IP- и IPX-адреса. В них поддерживается двухуровневая иерархия, адрес делится на старшую часть – номер сети и младшую – номер узла. Такое деление позволяет передавать сообщения между сетями только на основании номера сети, а номер узла используется только после доставки сообщения в нужную сеть; точно так же, как название улицы используется почтальоном только после того, как письмо доставлено в нужный город. В последнее время, чтобы сделать маршрутизацию в крупных сетях более эффективной, предлагаются более сложные варианты числовой адресации, в соответствии с которыми адрес имеет три и более составляющих. Такой подход, в частности, реализован в новой версии протокола IPv6, предназначенного для работы в сети Internet. В современных сетях для адресации узлов применяются, как правило, одновременно все три приведенные выше схемы. Пользователи адресуют компьютеры символьными именами, которые автоматически заменяются в сообщениях, передаваемых по сети, на числовые номера. С помощью этих числовых номеров сообщения передаются из одной сети в другую, а после доставки сообщения в сеть назначения вместо числового номера используется аппаратный адрес компьютера. Сегодня такая схема характерна даже для небольших автономных сетей, где, казалось бы, она явно избыточна – это делается для того, чтобы при включении этой сети в большую сеть не нужно было менять состав операционной системы.

Проблема установления соответствия между адресами различных типов, которой занимается служба разрешения имен, может решаться как полностью централизованными, так и распределенными средствами. В случае централизованного подхода в сети выделяется один компьютер (сервер имен), в котором хранится таблица соответствия друг другу имен различных типов, например символьных имен и числовых номеров. Все остальные компьютеры обращаются к серверу имен, чтобы по символьному имени найти числовой номер компьютера, с которым необходимо обменяться данными.

При другом, распределенном подходе, каждый компьютер сам решает задачу установления соответствия между именами. Например, если пользователь указал для узла назначения числовой номер, то перед началом передачи данных компьютер-отправитель посылает всем компьютерам сети сообщение (такое сообщение называется широковещательным) с просьбой опознать это числовое имя. Все компьютеры, получив это сообщение, сравнивают заданный номер со своим собственным. Тот компьютер, у которого обнаружилось совпадение, посылает ответ, содержащий его аппаратный адрес, после чего становится возможным отправка сообщений по локальной сети.

Распределенный подход хорош тем, что не предполагает выделения специального компьютера, который к тому же часто требует ручного задания таблицы соответствия имен. Недостатком распределенного подхода является необходимость широковещательных сообщений – такие сообщения перегружают сеть, так как они требуют обязательной обработки всеми узлами, а не только узлом назначения. Поэтому распределенный подход используется только в небольших локальных сетях. В крупных сетях распространение широковещательных сообщений по всем ее сегментам становится практически нереальным, поэтому для них характерен централизованный подход. Наиболее известной службой централизованного разрешения имен является служба Domain Name System (DNS) сети Internet.
Вернуться
8.5. Сетевые протоколы

Важнейшим направлением стандартизации в области вычислительных сетей является стандартизация коммуникационных протоколов. В настоящее время в сетях используется большое количество стеков коммуникационных протоколов. Наиболее популярными являются стеки: TCP/IP, IPX/SPX, NetBIOS/SMB, DECnet, SNA и OSI. Все эти стеки, кроме SNA на нижних уровнях – физическом и канальном, – используют одни и те же хорошо стандартизованные протоколы Ethernet, Token Ring, FDDI и некоторые другие, которые позволяют использовать во всех сетях одну и ту же аппаратуру. Зато на верхних уровнях все стеки работают по своим собственным протоколам. Эти протоколы часто не соответствуют рекомендуемому моделью OSI разбиению на уровни. В частности, функции сеансового и представительного уровня, как правило, объединены с прикладным уровнем. Такое несоответствие связано с тем, что модель OSI появилась как результат обобщения уже существующих и реально используемых стеков, а не наоборот.
Стек OSI

Следует четко различать модель OSI и стек OSI. В то время как модель OSI является концептуальной схемой взаимодействия открытых систем, стек OSI представляет собой набор вполне конкретных спецификаций протоколов. В отличие от других стеков протоколов стек OSI полностью соответствует модели QSI, он включает спецификации протоколов для всех семи уровней взаимодействия, определенных в этой модели. На нижних уровнях стек OSI поддерживает Ethernet, Token Ring, FDDI, протоколы глобальных сетей, Х.25 и ISDN, – то есть использует разработанные вне стека протоколы нижних уровней, как и все другие стеки. Протоколы сетевого, транспортного и сеансового уровней стека OSI специфицированы и реализованы различными производителями, но распространены пока мало. Наиболее популярными протоколами стека OSI являются прикладные протоколы. К ним относятся: протокол передачи файлов FTAM, протокол эмуляции терминала VTP, протоколы справочной службы Х.500, электронной почты Х.400 и ряд других.

Протоколы стека OSI отличает большая сложность и неоднозначность спецификаций. Эти свойства явились результатом общей политики разработчиков стека, стремившихся учесть в своих протоколах все случаи жизни и все существующие и появляющиеся технологии. К этому нужно еще добавить и последствия большого количества политических компромиссов, неизбежных при принятии международных стандартов по такому злободневному вопросу, как построение открытых вычислительных сетей.

Из-за своей сложности протоколы OSI требуют больших затрат вычислительной мощности центрального процессора, что делает их наиболее подходящими для мощных машин, а не для сетей персональных компьютеров.

Стек OSI – международный, независимый от производителей стандарт. Его поддерживает правительство США в своей программе GOSIP, в соответствии с которой все компьютерные сети, устанавливаемые в правительственных учреждениях США после 1990 года, должны или непосредственно поддерживать стек OSI, или обеспечивать средства для перехода на этот стек в будущем. Тем не менее стек OSI более популярен в Европе, чем в США, так как в Европе осталось меньше старых сетей, работающих по своим собственным протоколам. Большинство организаций пока только планируют переход к стеку OSI, и очень немногие приступили к созданию пилотных проектов. Из тех, кто работает в этом направлении, можно назвать Военно-морское ведомство США и сеть NFSNET. Одним из крупнейших производителей, поддерживающих OSI, является компания AT&T, ее сеть Stargroup полностью базируется на этом стеке.
Стек TCP/IP

Стек TCP/IP был разработан по инициативе Министерства обороны США более 20 лет назад для связи экспериментальной сети ARPAnet с другими сетями как набор общих протоколов для разнородной вычислительной среды. Большой вклад в развитие стека TCP/IP, который получил свое название по популярным протоколам IP и TCP, внес университет Беркли, реализовав протоколы стека в своей версии ОС UNIX. Популярность этой операционной системы привела к широкому распространению протоколов TCP, IP и других протоколов стека. Сегодня этот стек используется для связи компьютеров всемирной информационной сети Internet, а также в огромном числе корпоративных сетей.

Стек TCP/IP на нижнем уровне поддерживает все популярные стандарты физического и канального уровней: для локальных сетей – это Ethernet, Token Ring, FDDI, для глобальных – протоколы работы на аналоговых коммутируемых и выделенных линиях SLIP, РРР, протоколы территориальных сетей Х.25 и ISDN.

Основными, протоколами стека, давшими ему название, являются протоколы IP и TCP. Эти протоколы в терминологии модели OSI относятся к сетевому и транспортному уровням соответственно. IP обеспечивает продвижение пакета по составной сети, a TCP гарантирует надежность его доставки.

За долгие годы использования в сетях различных стран и организаций стек TCP/IP вобрал в себя большое количество протоколов прикладного уровня. К ним относятся такие популярные протоколы, как протокол пересылки файлов FTP, протокол эмуляции терминала telnet, почтовый протокол SMTP, используемый в электронной почте сети Internet, гипертекстовые сервисы службы WWW и многие другие.

Сегодня стек TCP/IP представляет собой один из самых распространенных стеков транспортных протоколов вычислительных сетей. Действительно, только в сети Internet объединено около 10 миллионов компьютеров по всему миру, которые взаимодействуют друг с другом с помощью стека протоколов TCP/IP.

Стремительный рост популярности Internet привел и к изменениям в расстановке сил в мире коммуникационных протоколов – протоколы TCP/IP, на которых построен Internet, стали быстро теснить бесспорного лидера прошлых лет – стек IPX/SPX компании Novell, Сегодня в мире общее количество компьютеров, на которых установлен стек TCP/IP, сравнялось с общим количеством компьютеров, на которых работает стек IPX/SPX, и это говорит о резком переломе в отношении администраторов локальных сетей к протоколам, используемым на настольных компьютерах, так как именно они составляют подавляющее число мирового компьютерного парка и именно на них раньше почти везде работали протоколы компании Novell, необходимые для доступа к файловым серверам NetWare. Процесс становления стека TCP/IP в качестве стека номер один в любых типах сетей продолжается, и сейчас любая промышленная операционная система обязательно включает программную реализацию этого стека в своем комплекте поставки.

Хотя протоколы TCP/IP неразрывно связаны с Internet и каждый из многомиллионной армады компьютеров Internet работает на основе этого стека, существует большое количество локальных, корпоративных и территориальных сетей, непосредственно не являющихся частями Internet, в которых также используют протоколы TCP/IP. Чтобы отличать их от Internet, эти сети называют сетями TCP/IP или просто IP-сетями.

Поскольку стек TCP/IP изначально создавался для глобальной сети Internet, он имеет много особенностей, дающих ему преимущество перед другими протоколами, когда речь заходит о построении сетей, включающих глобальные связи. В частности, очень полезным свойством, делающим возможным применение этого протокола в больших сетях, является его способность фрагментировать пакеты. Действительно, большая составная сеть часто состоит из сетей, построенных на совершенно разных принципах. В каждой из этих сетей может быть установлена собственная величина максимальной длины единицы передаваемых данных (кадра). В таком случае при переходе из одной сети, имеющей большую максимальную длину, в сеть с меньшей максимальной длиной может возникнуть необходимость деления передаваемого кадра на несколько частей. Протокол IP стека TCP/IP эффективно решает эту задачу.

Другой особенностью технологии TCP/IP является гибкая система адресации, позволяющая более просто по сравнению с другими протоколами аналогичного назначения включать в интерсеть сети других технологий. Это свойство также способствует применению стека TCP/IP для построения больших гетерогенных сетей.

В стеке TCP/IP очень экономно используются возможности широковещательных рассылок. Это свойство совершенно необходимо при работе на медленных каналах связи, характерных для территориальных сетей.

Однако, как и всегда, за получаемые преимущества надо платить, и платой здесь оказываются высокие требования к ресурсам и сложность администрирования IP-сетей. Мощные функциональные возможности протоколов стека TCP/IP требуют для своей реализации высоких вычислительных затрат. Гибкая система адресации и отказ от широковещательных рассылок приводят к наличию в IP-сети различных централизованных служб типа DNS, DHCP и т. п. Каждая из этих служб направлена на облегчение администрирования сети, в том числе и на облегчение конфигурирования оборудования, но в то же время сама требует пристального внимания со стороны администраторов.

Можно приводить и другие доводы за и против стека протоколов Internet, однако факт остается фактом – сегодня это самый популярный стек протоколов, широко используемый как в глобальных, так и локальных сетях.
Стек IPX/SPX

Этот стек является оригинальным стеком протоколов фирмы Novell, разработанным для сетевой операционной системы NetWare еще в начале 80-х годов. Протоколы сетевого и сеансового уровней Internetwork Packet Exchange (IPX) и Sequenced Packet Exchange (SPX), которые дали название стеку, являются прямой адаптацией протоколов XNS фирмы Xerox, распространенных в гораздо меньшей степени, чем стек IPX/SPX. Популярность стека IPX/SPX непосредственно связана с операционной системой Novell NetWare, которая еще сохраняет мировое лидерство по числу установленных систем, хотя в последнее время ее популярность несколько снизилась и по темпам роста она отстает от Microsoft Windows NT.

Многие особенности стека IPX/SPX обусловлены ориентацией ранних версий ОС NetWare (до версии 4.0) на работу в локальных сетях небольших размеров, состоящих из персональных компьютеров со скромными ресурсами. Понятно, что для таких компьютеров компании Novell нужны были протоколы, на реализацию которых требовалось бы минимальное количество оперативной памяти (ограниченной в IBM-совместимых компьютерах под управлением MS-DOS объемом 640 Кбайт) и которые бы быстро работали на процессорах небольшой вычислительной мощности. В результате протоколы стека IPX/SPX до недавнего времени хорошо работали в локальных сетях и не очень – в больших корпоративных сетях, так как они слишком перегружали медленные глобальные связи широковещательными пакетами, которые интенсивно используются несколькими протоколами этого стека (например, для установления связи между клиентами и серверами). Это обстоятельство, а также тот факт, что стек IPX/SPX является собственностью фирмы Novell и на его реализацию нужно получать лицензию (то есть открытые спецификации не поддерживались), долгое время ограничивали распространенность его только сетями NetWare. Однако с момента выпуска версии NetWare 4.0 Novell внесла и продолжает вносить в свои протоколы серьезные изменения, направленные на их адаптацию для работы в корпоративных сетях. Сейчас стек IPX/ SPX реализован не только в NetWare, но и в нескольких других популярных сетевых ОС, например SCO UNIX, Sun Solaris, Microsoft Windows NT.
Стек NetBIOS/SMB

Этот стек широко используется в продуктах компаний IBM и Microsoft. На физическом и канальном уровнях этого стека используются все наиболее распространенные протоколы Ethernet, Token Ring, FDDI и другие. На верхних уровнях работают протоколы NetBEUI и SMB.

Протокол NetBIOS (Network Basic Input/Output System) появился в 1984 году как сетевое расширение стандартных функций базовой системы ввода/вывода (BIOS) IBM PC для сетевой программы PC Network фирмы IBM. В дальнейшем этот протокол был заменен так называемым протоколом расширенного пользовательского интерфейса NetBEUI – NetBIOS Extended User Interface. Для обеспечения совместимости приложений в качестве интерфейса к протоколу NetBEUI был сохранен интерфейс NetBIOS. Протокол NetBEUI разрабатывался как эффективный протокол, потребляющий немного ресурсов и предназначенный для сетей, насчитывающих не более 200 рабочих станций. Этот протокол содержит много полезных сетевых функций, которые можно отнести к сетевому, транспортному и сеансовому уровням модели OSI, однако с его помощью невозможна маршрутизация пакетов. Это ограничивает применение протокола NetBEUI локальными сетями, не разделенными на подсети, и делает невозможным его использование в составных сетях. Некоторые ограничения NetBEUI снимаются реализацией этого протокола NBF (NetBEUI Frame), которая включена в операционную систему Microsoft Windows NT.

Протокол SMB (Server Message Block) выполняет функции сеансового, представительного и прикладного уровней. На основе SMB реализуется файловая служба, а также службы печати и передачи сообщений между приложениями.

Стеки протоколов SNA фирмы IBM, DECnet корпорации Digital Equipment и AppleTalk/AFP фирмы Apple применяются в основном в операционных системах и сетевом оборудовании этих фирм.
Вернуться
8.6. Глобальная компьютерная сеть. Ресурсы, службы и сервисы Internet

Сегодня каждый день множество людей неожиданно открывает для себя существование глобальных компьютерных сетей, объединяющих компьютеры во всем мире в едином информационном пространстве, имя которому – Интернет. Интернет многогранен и нельзя четко определить, что это такое. С технической точки зрения, Интернет – объединение транснациональных компьютерных сетей, работающих по самым разнообразным протоколам, связывающих всевозможные типы компьютеров, физически передающих данные по телефонным проводам и оптоволокну, через спутники и радиомодемы. Подавляющее большинство компьютеров в Интернет связано по протоколам TCP/IP, и именно это, вкупе с требованием наличия подключения к глобальной сети, является критерием присутствия в Интернет. Однако частями и носителями культуры Интернет являются также люди, работающие в сетях другого типа, в том случае, если они имеют возможность пользоваться какими-либо сервисами Интернет. Сегодня практически любой человек, обладающий доступом к компьютеру с простейшим модемом, может использовать в своей деятельности огромные информационные ресурсы, предоставляемые Интернет.

Итак, Интернет – сеть сетей, всемирная компьютерная сеть. Интернет можно рассматривать со многих позиций, вот две крайние из них. Наиболее узкое рассмотрение – объединение сетей, связанных между собой по протоколам TCP/IP так, что в любой момент каждый компьютер в Интернет “видит” каждый другой (то есть может передать ему пакет данных IP и получить ответ за доли секунды). Наиболее широкое – киберпространство, рождающее киберкультуру со своим образом мысли, своим языком, своей этикой. Такой взгляд на Интернет еще будет рассматриваться философами и психологами.

Сети, работающие по протоколам TCP/IP (проще говоря, TCP/IP сети), родились как проект агентства DARPA министерства обороны США. Сеть создавалась “на случай ядерной войны” и предполагала, что любой компьютер в сети может перестать функционировать в любой момент, равно как и линии связи между компьютерами. Именно такая постановка задачи привела к рождению сетевой технологии, которая де-факто стала технологией всемирной сети – технологии TCP/IP. Протокол IP – это протокол, описывающий формат пакета данных, передаваемого по сети. Следующий простой пример должен пояснить, что здесь имеется в виду. Когда Вы получаете телеграмму, весь текст в ней (и адрес, и сообщение) написан на ленте подряд, но есть правила, позволяющие понять, где тут адрес, а где сообщение. Аналогично, пакет в компьютерной сети представляет собой поток битов, а протокол IP определяет, где адрес и прочая служебная информация, а где сами передаваемые данные. Протокол TCP предназначен для контроля передачи, контроля целостности передаваемой информации. Когда Вы не расслышали, что сказал Вам собеседник в телефонном разговоре, Вы просите его повторить сказанное. Приблизительно этим занимается и протокол TCP применительно к компьютерным сетям. Компьютеры обмениваются пакетами протокола IP, контролируют их передачу по протоколу TCP и, объединяясь в глобальную сеть, образуют Интернет. Такова, в самых общих чертах, техническая сторона вопроса.

Протоколы TCP/IP для компьютеров – это как правила ведения разговора для людей. Но, пользуясь этими правилами, люди обращаются с информацией по-разному: спорят, рассказывают, записывают сообщения на автоответчик. Аналогичным образом обстоят дела и с компьютерами – протокол TCP/IP позволяет передавать информацию, а его, в свою очередь, используют разнообразные сервисы, по-разному обращающиеся с информацией. От эффективности этих сервисов, их надежности, простоты, удобства и распространенности, зависит то, насколько полезными и необходимыми они становятся в жизни людей. Интернет замечателен тем, что сеть и ее сервисы стали широко распространены в жизни общества, что они оказались достаточно хороши, чтобы река информации потекла руслом Интернет. Интернет не решил проблему хранения и упорядочения информации, но решил проблему ее передачи – дал возможность получить любую информацию где угодно, когда угодно. Если бы транспорт был бы столь же развит, как глобальные сети, то уже сегодня Вы могли бы ночевать дома в Москве, работая в Антарктиде.

Эта замечательная способность передачи информации привела к грандиозным темпам роста Интернет. Вследствие децентрализованности, нельзя точно сказать, каковы его размеры сегодня, но по оценкам “Network Wizards”, количество компьютеров, полноценно подключенных в Интернет, в течении последних двух лет ежегодно удваивается, составляя 6.6 миллионов компьютеров в июле 1995 года. По другим оценкам, количество компьютеров, имеющих доступ к каким-либо сервисам Интернет, весной 1995 года составляло до 30 миллионов. Это значит, что если скорость роста Интернет останется на том же уровне, то в течение ближайших лет Интернет и его сервисы станут столь же общеупотребительными, как телефон и телевидение сегодня. Очень многие компании понимают это, и, стремясь первыми прийти на этот рынок (а Интернет представляет собой, помимо всего прочего, еще и огромный рынок миллионов потенциальных клиентов), вкладывают деньги в развитие сети и сервисов, ей предоставляемых. Если в 1994 году в компании, работающие с Интернет, было вложено 42 миллиона долларов США, то уже за первый квартал 1995 года эта цифра составляла 47 миллионов (New York Times, 26 June 1995, p. D5). А деньги, как известно, делают деньги, и это является еще одним фактором, ускоряющим развитие сети. Коммерциализация Интернет – это, возможно, самый важный аспект его развития сегодня. Долгое время, до весны 1995 года, основные каналы связи и административные структуры Интернет финансировались Национальным научным фондом США, но теперь финансирование прекращено и развитие сети происходит на коммерческой основе.

Чтобы жить в городе, нужно уметь пользоваться транспортом. Для каждой поездки Вы выберете свой вид транспорта. За город ездят на электричках, в аэропорт можно поехать на маршрутном такси, до метро можно доехать на троллейбусе. Если Вы едете на своем автомобиле, Вам нужно знать, по каким улицам лучше ехать. С другой стороны, Вы должны знать правила движения и не переходить улицу на красный свет светофора. Интернет в этом плане очень похож на город. Чтобы успешно работать с ним, нужно знать правила поведения в сети и уметь ориентироваться в множестве доступных Вам информационных сервисов. Увы, ввиду децентрализованности и молодости Интернет, не существует единой его карты или путеводителя по всем его сервисам. Эффективность Вашей работы в сети определяется Вашим знанием существующих сервисов, умением обращаться с конкретными сервисами и способностью выбрать правильный способ решения конкретной задачи. Этим определяется не только то, как скоро Вы сможете найти нужную информацию, но и то, сможете ли Вы ее найти вообще. К каждой гайке нужен свой ключ, и цель этой статьи объяснить, как подбирать подходящий ключ.
Типы сервисов Интернет

Прежде чем перейти к рассмотрению конкретных сервисов Интернет, надо описать некоторые категории, использующиеся при оценке различных сервисов и их применимости к тем или иным задачам. Конечно, для того, чтобы лучше представить себе схему передачи информации в Интернет, полезно было бы классифицировать сервисы, разделив их на группы в соответствии с каким-либо набором критериев оценки. Однако по ряду причин нельзя ввести сколько-нибудь жесткую или определенную классификацию. Основная причина – уникальность каждого сервиса и одновременная неотделимость его от остальных. Каждый сервис характеризуется свойствами, часть которых объединяет его с одной группой сервисов, а другая часть с другой группой.

Наиболее подходящим для классификации сервисов Интернет является деление на сервисы интерактивные, прямые и отложенного чтения. Эти группы объединяют сервисы по большому числу признаков. Сервисы, относящиеся к классу отложенного чтения, наиболее распространены, наиболее универсальны и наименее требовательны к ресурсам компьютеров и линиям связи. Основным признаком этой группы является та особенность, что запрос и получение информации могут быть достаточно сильно (что, вообще говоря, ограничивается только актуальностью информации на момент получения) разделены по времени. Сюда относится, например, электронная почта.

Сервисы прямого обращения характерны тем, что информация по запросу возвращается немедленно. Однако от получателя информации не требуется немедленной реакции. Сервисы, где требуется немедленная реакция на полученную информацию, т.е. получаемая информация является, по сути дела, запросом, относятся к интерактивным сервисам. Для пояснения вышесказанного можно заметить, что в обычной связи аналогами сервисов интерактивных, прямых и отложенного чтения являются, например, телефон, факс и письменная корреспонденция.
Электронная почта

Электронная почта (e-mail) – первый из сервисов Интернет, наиболее распространенный и эффективный из них.

Электронная почта – типичный сервис отложенного чтения (off-line). Вы посылаете Ваше сообщение, как правило в виде обычного текста, адресат получает его на свой компьютер через какой-то, возможно достаточно длительный промежуток времени, и читает Ваше сообщение тогда, когда ему будет удобно.

E-mail очень похож на обычную бумажную почту, обладая теми же достоинствами и недостатками. Обычное письмо состоит из конверта, на котором написан адрес получателя и стоят штампы почтовых отделений пути следования, и содержимого – собственно письма. Электронное письмо также состоит из заголовков, содержащих служебную информацию (об авторе письма, получателе, пути прохождения по сети и т.д.), играющих роль конверта, и собственно содержимого письма. Вы можете вложить в обычное письмо что-нибудь, например фотографию; аналогично, Вы можете послать файл с данными электронным письмом. Вы можете подписать обычное письмо – можно подписать и электронное письмо. Обычное письмо может не дойти до адресата или дойти слишком поздно – как и электронное письмо. Обычное письмо весьма дешево, и электронная почта – самый дешевый вид связи.

Итак, электронная почта повторяет достоинства (простота, дешевизна, возможность пересылки нетекстовой информации, возможность подписать и зашифровать письмо) и недостатки (негарантированное время пересылки, возможность доступа третьих лиц во время пересылки, неинтерактивность) обычной почты. Однако у них есть и существенные отличия. Стоимость пересылки обычной почты очень сильно зависит от того, куда, в сколь удаленную точку планеты она должна быть доставлена, и ее размера и типа. Для электронной почты такой зависимости или нет, или она довольно невелика. Электронное письмо можно шифровать и подписывать гораздо более надежно и удобно, нежели бумажное – для последнего, строго говоря, вообще нет общепринятых средств шифрования. Скорость доставки электронных писем гораздо выше, чем бумажных, и минимальное время их прохождения несравнимо меньше.

E-mail универсален – множество сетей во всем мире, построенных на совершенно разных принципах и протоколах, могут обмениваться электронными письмами с Интернет, получая тем самым доступ к прочим его ресурсам. Практически все сервисы Интернет, использующиеся обычно как сервисы прямого доступа (on-line), имеют интерфейс к электронной почте, так что даже если у Вас нет доступа к Интернет в режиме on-line, Вы можете получать большую часть информации, хранящейся в Интернет, посредством дешевой электронной почты.

Скорость доставки сообщений электронной почты сильно зависит от того, каким образом она передается. Путь электронного письма между двумя машинами, непосредственно подключенными к Интернет, занимает секунды, и при этом вероятность потери или подмены письма минимальна. С другой стороны, если Вы пользуетесь для передачи своих электронных писем технологиями FTN (последовательной передачи файлов многими компьютерами по цепочке), и посылаете письмо в какую-нибудь экзотическую сеть, то письмо, во-первых, будет идти долго – дни и даже недели, во-вторых, будет иметь большие шансы просто потеряться при обрыве связи во время передачи по цепочке, в-третьих, его могут легко подменить где-то в пути следования.
Сетевые новости Usenet

Сетевые новости Usenet, или, как их принято называть в российских сетях, телеконференции – это, пожалуй, второй по распространенности сервис Интернет. Если электронная почта передает сообщения по принципу “от одного – одному”, то сетевые новости передают сообщения “от одного – многим”. Механизм передачи каждого сообщения похож на передачу слухов: каждый узел сети, узнавший что-то новое (т.е. получивший новое сообщение), передает новость всем знакомым узлам, т.е. всем тем узлам, с кем он обменивается новостями. Таким образом, посланное Вами сообщение распространяется, многократно дублируясь, по сети, достигая за довольно короткие сроки всех участников телеконференций Usenet во всем мире. При этом в обсуждении интересующей Вас темы может участвовать множество людей, независимо от того, где они находятся физически, и Вы можете найти собеседников для обсуждения самых необычных тем. Число пользователей Usenet весьма велико – по оценкам UUNET technologies, количество новых сообщений, поступающих в телеконференции ежедневно, составляет около миллиона.

Новости разделены по иерархически организованным тематическим группам, и имя каждой группы состоит из имен подуровней иерархии, разделенных точками, причем более общий уровень пишется первым. Рассмотрим, например, имя группы новостей comp.sys.sun.admin. Эта группа относится к иерархии верхнего уровня comp, предназначенной для обсуждения всего, связанного с компьютерами. В иерархии comp есть подуровень sys, предназначенный для обсуждения различных компьютерных систем. Далее, sun означает компьютерные системы фирмы Sun Microsystems, а admin обозначает группу, предназначенную для обсуждения вопросов администрирования таких компьютерных систем. Итак, группа comp.sys.sun. admin предназначена для обсуждения вопросов администрирования компьютерных систем фирмы Sun Microsystems. Таким образом, обычно, обладая минимальными знаниями английского языка, можно по имени группы легко понять, что в ней обсуждается. Например, в alt.games.vgaplanets пишут любители игры Vga Planets, а jet.testing предназначена для посылки тестовых сообщений в группу, локальную для компании Jet Infosystems.

Как Вы могли заметить, существуют глобальные иерархии, как-то comp, и иерархии, локальные для какой-либо организации, страны или сети. Вообще говоря, набор групп, которые получает Ваш локальный сервер Usenet, определяется администратором этого сервера и наличием этих групп на других серверах, с которыми обменивается новостями Ваш сервер. Однако обычной является ситуация, когда сервер получает, во-первых, все глобальные иерархии, во-вторых, группы, локальные для Вашей страны и сети, и, в-третьих, группы, локальные для Вашей организации. Например, к первой группе относятся иерархии comp, news, misc, alt, rec, ко второй – иерархии relcom и fido7 в России и иерархия de в Германии, к третьей – иерархии jet для Jet Infosystems и cern в CERN.

К различным иерархиям применимы различные нормы и правила работы с ними. В первую очередь, это касается языка сообщений – в группы российской иерархии relcom лучше всего писать по-русски, в то время как в группы глобальной иерархии comp можно писать только по-английски. Не всегда в Usenet можно посылать информацию рекламного характера – например, вы можете свободно посылать рекламные сообщения в группы иерархии relcom.commerce, специально для того и созданные, а вот в группы fido7 некоммерческой сети FIDO посылать рекламу строго запрещено. Менее строгими являются ограничения на возможные объемы цитирования предыдущих авторов в Вашем письме, размер подписи Вашего письма и т.д.

Начиная работать с какой-либо группой или иерархией групп, в первую очередь нужно прочитать правила работы с ними, которые регулярно помещаются в эти группы человеком, добровольно взявшим на себя обязанности координатора группы (модератора). На самом деле, группы новостей бывают двух типов – модерируемые и обычные. Сообщения, появляющиеся в модерируемых группах, прежде чем быть разосланными по сети, просматриваются модератором. Это, конечно, является своего рода цензурой, но в таком огромном сообществе, как Usenet, невозможно поддерживать порядок без подобных строгостей.

Сегодня всякий компьютер, полноценно подключенный к Интернет, имеет доступ к новостям Usenet, но новости Usenet распространяются и по другим сетям, применяясь столь же широко, как и электронная почта. Способы и удобство работы с новостями сильно зависят от того, каким образом Вы получаете их. В Интернет Ваша программа-клиент напрямую получает новости с сервера Usenet, и между просмотром списка сообщений, содержащихся в группе, и чтением этих сообщений нет задержки. Если Вы пользуетесь новостями через электронную почту, то Вы сначала получаете список статей, а уже потом принимаете по электронной почте статьи из списка, отдельно Вами заказанные. Такой способ работы с новостями Usenet является сегодня наиболее распространенным в России, но на самом деле это весьма неудобный и устаревший метод.
Списки рассылки

Списки рассылки (maillists) – простой, но в то же время весьма полезный сервис Интернет. Это практически единственный сервис, не имеющий собственного протокола и программы-клиента и работающий исключительно через электронную почту.

Идея работы списка рассылки состоит в том, что существует некий адрес электронной почты, который на самом деле является общим адресом многих людей – подписчиков этого списка рассылки. Вы посылаете письмо на этот адрес, например на адрес [email protected] (это адрес списка рассылки, посвященного обсуждению проблем локализации операционных систем класса UNIX), и Ваше сообщение получат все люди, подписанные на этот список рассылки.

Такой сервис по задачам, которые он призван решать, похож на сетевые новости Usenet, но имеет и существенные отличия. Во-первых, сообщения, распространяемые по электронной почте, всегда будут прочитаны подписчиком, дождавшись его в почтовом ящике, в то время как статьи в сетевых новостях стираются по прошествии определенного времени и становятся недоступны. Во-вторых, списки рассылки более управляемы и конфиденциальны: администратор списка полностью контролирует набор подписчиков и может следить за содержанием сообщений. Каждый список рассылки ведется какой-либо организацией и она обладает полным контролем над списком, в отличие от новостей Usenet, не принадлежащих никому и менее управляемых. В-третьих, для работы со списком рассылки достаточно доступа к электронной почте, и подписчиками могут быть люди, не имеющие доступа к новостям Usenet или каким-либо группам этих новостей. В-четвертых, такой способ передачи сообщений может быть просто быстрее, коль скоро сообщения передаются напрямую абонентам, а не по цепочке между серверами Usenet. Однако сравнивая списки рассылки и новости Usenet, надо отметить, что часто группы Usenet могут также быть доступны и через списки рассылки, и другими способами – через WWW, например. Это значит, что Вы можете использовать тот способ работы, который более удобен для Вас.

Ситуации, когда применяются списки рассылки как адекватное средство решения стоящих задач, достаточно характерны. Во-первых, организации часто создают списки рассылки для оповещения своих клиентов, пользователей своих продуктов или просто заинтересованных лиц о выпуске новых продуктов, коммерческих предложениях, различных новостях компании и т.д. Например, издательство O’Reilly & Associates имеет список рассылки, из которого можно узнать о выходе новых книг издательства. Такие списки становятся все более популярны, и, возможно, это будет хорошим решением и для Вашей организации. Вторая ситуация, когда требуется заведение списка рассылки – когда обсуждается какой-то вопрос, слишком специфичный и интересующий слишком мало людей для того, чтобы заводить для него отдельную группу в новостях Usenet. В-третьих, списки рассылки часто заводятся виртуальными рабочими группами – людьми, работающими над одной проблемой, но живущими в различных точках планеты. Так, некоторые книги вышеупомянутого издательства были написаны группой авторов, никогда не встречавшихся в реальной жизни, но общавшихся исключительно через список рассылки.

В зависимости от числа подписчиков, список рассылки обслуживается на сервере программами различной сложности, которые могут обеспечивать или не обеспечивать полную функциональность, а именно: автоматическую подписку клиентов и прием их отказа от подписки, проверку корректности электронных адресов, ведение архива сообщений, обработку почтовых ошибок, поддержку работы в режиме дайджеста (когда подписчик получает не каждое сообщение отдельным письмом, но периодически все сообщения за какой-то срок в одном письме), проверку сообщений администратором списка перед рассылкой и т.д.

Всякая палка имеет два конца, и спискам рассылки также свойственны некоторые недостатки и сложности. Если Вы подписаны на несколько оживленных списков, то в один прекрасный день Вы можете обнаружить, что Ваш почтовый ящик забит письмами из списков рассылки, и в их множестве теряются личные письма, которые интересуют Вас в первую очередь. Чтобы не возникало такой ситуации, полезно воспользоваться программой, раскладывающей письма из списков рассылки по отдельным папкам в момент получения – ведь обычно такие письма можно распознать по их почтовым заголовкам. Вам не надо заниматься этим самому – наверняка Ваш системный администратор знает, как это сделать. Другая трудность состоит в том, что иногда бывает сложно отменить подписку, больше не представляющую для Вас интереса. Как уже говорилось, списки обслуживаются разными программами, и эти программы управляются разными командами, что и вызывает вышеописанные проблемы. К сожалению, универсальный совет здесь только один – обращайтесь к своему системному администратору. Если же Вы соберетесь завести свой список рассылки – то тут Вас тем более ждут проблемы, но их обсуждение – тема отдельная.
FTP – передача файлов

Еще один широко распространенный сервис Интернет – ftp. Русского перевода этого слова, вообще говоря, нет, и его так и называют в разговоре – эфтэпэ. Расшифровывается эта аббревиатура как протокол передачи файлов, но при рассмотрении ftp как сервиса Интернет имеется в виду не просто протокол, но именно сервис – доступ к файлам в файловых архивах. Вообще говоря, ftp – стандартная программа, работающая по протоколу TCP, всегда поставляющаяся с операционной системой. Ее исходное предназначение – передача файлов между разными компьютерами, работающими в сетях TCP/IP: на одном из компьютеров работает программа-сервер, на втором пользователь запускает программу-клиента, которая соединяется с сервером и передает или получает по протоколу ftp файлы. Тут предполагается, что пользователь зарегистрирован на обоих компьютерах и соединяется с сервером под своим именем и со своим паролем на этом компьютере. Протокол ftp, разумеется, оптимизирован для передачи файлов.

Данная черта и послужила причиной того, что программы ftp стали частью отдельного сервиса Интернет. Дело в том, что сервер ftp зачастую настраивается таким образом, что соединиться с ним можно не только под своим именем, но и под условным именем anonymous – аноним. Тогда Вам становятся доступна не вся файловая система компьютера, но некоторый набор файлов на сервере, которые составляют содержимое сервера anonymous ftp – публичного файлового архива. Итак, если кто-то хочет предоставить в публичное пользование файлы с информацией, программами и прочим, то ему достаточно организовать на своем компьютере, включенном в Интернет, сервер anonymous ftp. Сделать это достаточно просто, программы-клиенты ftp есть практически на любом компьютере – поэтому сегодня публичные файловые архивы организованы в основном как серверы anonymous ftp. На таких серверах сегодня доступно огромное количество информации и программного обеспечения. Практически все, что может быть предоставлено публике в виде файлов, доступно с серверов anonymous ftp. Это и программы – свободно распространяемые и демонстрационные версии, это и мультимедиа, это, наконец просто тексты – законы, книги, статьи, отчеты.

Таким образом, если Вы, например, хотите представить миру демо-версию Вашего программного продукта – anonymous ftp является удачным решением такой задачи. Если, с другой стороны, Вы хотите найти, скажем, последнюю версию Вашей любимой свободно распространяющейся программы, то искать ее нужно именно на серверах ftp.

Несмотря на распространенность, у ftp есть и множество недостатков. Программы-клиенты ftp могут быть не всегда удобны и просты в использовании. Не всегда можно понять, а что это за файл перед Вами – то ли это тот файл, что Вы ищете, то ли нет. Нет простого и универсального средства поиска на серверах anonymous ftp – хотя для этого и существует специальный сервис archie, но это независимая программа, неуниверсальная и не всегда применимая. Программы ftp довольно стары и некоторые их особенности, бывшие полезными при рождении, не очень понятны и нужны сегодня – так, например, для передачи файлов есть два режима – бинарный и текстовый, и если Вы вдруг неправильно выбрали режим, то передаваемый файл может быть поврежден. Описания файлов на сервере выдаются в формате операционной системы сервера, а список файлов операционной системы UNIX может привести в недоумение пользователя DOS. Проблема тут в том, что со списком файлов выдается лишняя информация, а слишком много знать всегда вредно. Серверы ftp нецентрализованы, и это несет свои проблемы.

Несмотря на все это, серверы anonymous ftp сегодня – стандартный путь организации публичных файловых архивов в Интернет. Вы можете также организовывать доступ к файлам под паролем – например, своим клиентам.

Ftp – сервис прямого доступа, требующий полноценного подключения к Интернет, но возможен и доступ через электронную почту – существуют серверы, которые могут прислать Вам по электронной почте файлы с любых серверов anonymous ftp. Однако это может быть весьма неудобно, ибо такие серверы сильно загружены, и Ваш запрос может долго ждать своей очереди. Кроме того, большие файлы при отсылке делятся сервером на части ограниченного размера, посылаемые отдельными письмами – и если одна часть из сотни потеряется или повредится при передаче, то остальные 99 тоже окажутся ненужными.
Система поиска файлов Archie

Archie – это не самостоятельный сервис, но сервис, облегчающий работу с серверами anonymous ftp, обеспечивающий поиск файлов на таких серверах. Вам наверняка никогда не придется организовывать свой сервер archie, но пользоваться его услугами придется наверняка. Их всего существует с десяток, и каждый из них сильно загружен. Серверы archie “помнят” списки всех файлов на многих серверах anonymous ftp, и по Вашему запросу могут искать интересующий Вас файл по имени или части имени. Вы задаете шаблон для поиска, указываете характеристики поиска и получаете список имен серверов и мест расположения файлов на них, которые удовлетворяют Вашему запросу. Существуют специальные программы-клиенты archie, но можно воспользоваться услугами такого сервера, и соединившись с ним по протоколу telnet и войдя под именем archie.

Если Вы представляете себе, как может называться файл, который Вы ищете, то archie – адекватное средство его поиска, то средство, которое приходится часто использовать в своей работе.

К недостаткам archie относится децентрализованность, высокая загруженность серверов, необходимость уметь задавать шаблон имени для поиска файла. Каждый сервер обслуживает свой набор серверов ftp, возможно перекрывающихся – Вы можете не обнаружить необходимую информацию на одном сервере, но найти на другом, и кто знает, на каком искать прежде.
Гипертекстовая система Gopher

Одним из достаточно известных и распространенных сервисов Интернет является gopher. Хотя сейчас он уже практически не развивается, или, во всяком случае, развивается гораздо медленнее прочих сервисов похожего назначения, но тем не менее через gopher доступно довольно-таки большое количество информации – в первую очередь, по историческим причинам – был период, когда gopher был лучшим средством экспорта информации для публичного доступа и некоторые компании до сих пор продолжают использовать его. Современные средства работы с информацией в Интернет обеспечивают в том числе доступ к серверам gopher, поэтому Вам не нужно учиться работать со специальными программами-клиентами gopher. Что касается использования сервера gopher для предоставления своей информации в публичное пользование – вряд ли Вам придется это делать, поскольку gopher морально устарел.

Gopher – это распределенная система экспорта структурированной информации. При работе с gopher Вы находитесь в системе вложенных меню, из которых доступны файлы различных типов – как правило, простые тексты, но это может быть и графика, и звук и любые другие виды файлов. Таким образом, в публичный доступ экспортируются файлы с информацией, но не в виде файловой системы, как в ftp, а в виде аннотированной древовидной структуры. Gopher – сервис прямого доступа и требует, чтобы и сервер, и клиент были полноценно подключены к Интернет.
Система гипермедиа WWW

WWW (World Wide Web – всемирная паутина) – самый популярный и интересный сервис Интернет сегодня, самое популярное и удобное средство работы с информацией. Самое распространенное имя для компьютера в Интернет сегодня – www, больше половины потока данных Интернет приходится на долю WWW. Количество серверов WWW сегодня нельзя оценить сколь-нибудь точно, но по некоторым оценкам их более 30 тысяч. Скорость роста WWW даже выше, чем у самой сети Интернет. Сегодня WWW – самая передовая технология Интернет, и она уже становится массовой технологией – возможно, недалек тот день, когда каждый человек, знающий, что такое телефон, будет знать, что такое WWW.

Подробное описание WWW – тема отдельной статьи, поэтому здесь будут приведены самые общие понятия и представления, которые нужно иметь о WWW, как об одном из сервисов Интернет. WWW – информационная система, которой весьма непросто дать корректное определение. Вот некоторые из эпитетов, которыми она может быть обозначена: гипертекстовая, гипермедийная, распределенная, интегрирующая, глобальная. Ниже будет показано, что понимается под каждым из этих свойств в контексте WWW.

WWW работает по принципу клиент-сервер, точнее, клиент-серверы: существует множество серверов, которые по запросу клиента возвращают ему гипермедийный документ – документ, состоящий из частей с разнообразным представлением информации (текст, звук, графика, трехмерные объекты и т.д.), в котором каждый элемент может являться ссылкой на другой документ или его часть. Ссылки эти в документах WWW организованы таким образом, что каждый информационный ресурс в глобальной сети Интернет однозначно адресуется, и документ, который Вы читаете в данный момент, способен ссылаться как на другие документы на этом же сервере, так и на документы (и вообще на ресурсы Интернет) на других компьютерах Интернет, причем пользователь не замечает этого, и работает со всем информационным пространством Интернет как с единым целым. Ссылки WWW указывают не только на документы, специфичные для самой WWW, но и на прочие сервисы и информационные ресурсы Интернет. Более того, большинство программ-клиентов WWW (browsers, навигаторы) не просто понимают такие ссылки, но и являются программами-клиентами соответствующих сервисов: ftp, gopher, сетевых новостей Usenet, электронной почты и т.д. Таким образом, программные средства WWW являются универсальными для различных сервисов Интернет, а сама информационная система WWW играет интегрирующую роль.

Вот некоторые термины, использующиеся в WWW – конечный пользователь может их и не знать, но рано или поздно они Вам встретятся и они не должны вызвать у Вас недоумение. Первый термин – html (hypertext markup language, язык разметки гипертекста). Это формат гипермедийных документов, использующихся в WWW для предоставления информации. Формат этот не описывает то, как документ должен выглядеть, но его структуру и связи. Внешний вид документа на экране пользователя определяется навигатором – если Вы работаете за графическим или текстовым терминалом, то в каждом случае документ будет выглядеть по-своему, но структура его останется неизменной, поскольку она задана форматом html. Имена файлов в формате html обычно оканчиваются на html (или имеют расширение htm в случае, если сервер работает под MS-DOS или Windows). Второй термин – URL (uniform resource locator, универсальный указатель на ресурс). Так называются те самые ссылки на информационные ресурсы Интернет. Еще один термин – http (hypertext transfer protocol, протокол передачи гипертекста). Это название протокола, по которому взаимодействуют клиент и сервер WWW.

WWW – сервис прямого доступа, требующий полноценного подключения к Интернет, и более того, часто требующий быстрых линий связи, в случае, если документы, которые Вы читаете, содержат много графики или другой нетекстовой информации. Однако существуют мосты, позволяющие получать информацию, содержащуюся в WWW, посредством электронной почты. Возможность такая есть, но таких мостов мало, да и толку от них немного – чтобы успешно использовать возможности WWW, требуется прямой доступ в Интернет, а при его отсутствии теряются многие плюсы, создавшие WWW сегодняшнюю популярность. Кроме того, некоторые возможности, имеющиеся при обычной работе, просто недоступны через электронную почту. Это, в основном, относится к элементам интерактивности в WWW. Например, в языке html поддерживаются формы. Пользователь вводит в них некоторую информацию, которая затем может передаваться на сервер. Таким образом заполняются анкеты, регистрационные карты, проводятся социологические опросы. Например, на сервере CNN можно было передать свое отношение к делу Симпсона, а в электронном журнале SunWorld OnLine можно выразить свою удовлетворенность статьями: не слишком ли коротко, достаточно ли информативно и т.д.
Гипертекстовая система Hyper-G

WWW не была единственной попыткой создать глобальную гипермедийную распределенную информационную систему. Другой такой системой является Hyper-G. Этот сервис Интернет менее известен, но весьма интересен. Hyper-G значительно моложе WWW (хотя темпы роста и не указывают на то, что Hyper-G сможет когда-либо сравниться по популярности с WWW) и это академическая разработка – плод стараний технологического университета в Граце (Graz), Австрия. Система эта вряд ли окажется практически полезной для Вас, но заслуживает внимания как очень интересная технология, и ее рассмотрение позволяет многое добавить в картину сервисов Интернет и их развития.

С общих позиций Hyper-G аналогична WWW, преследуя те же идеи и повторяя многие принципы. Есть клиенты и есть серверы, которые предоставляют информацию в виде коллекций документов. По принципам организации информации в пределах одного сервера Hyper-G является чем-то средним между WWW и gopher. Документы доступны из иерархического меню, но сами документы являются гипермедийными. Клиент Hyper-G общается не со множеством серверов, как в случае WWW, но исключительно со “своим” сервером, регистрируясь на нем при подключении. Получение документов с других серверов Hyper-G происходит через “свой” сервер, что позволяет создать более интегрированную систему серверов, чем в случае с WWW. Регистрация же клиента позволяет определить уникальным образом не только ресурсы и сервисы Интернет, но и клиентов, что значительно облегчает обеспечение авторизованного доступа и удаленного управления документами.

К чертам, препятствующим распространению Hyper-G, следует отнести недостаточно хорошую реализацию программ-клиентов, не полностью свободный доступ к серверной части программного обеспечения, централизованность проекта и отсутствие альтернативных реализаций программного обеспечения, слишком твердую структуру организации документов на сервере, сложность системы. Серверы Hyper-G весьма немногочисленны, следовательно, информации в Hyper-G хранится немного. Отсутствует доступ посредством электронной почты, хотя серверы Hyper-G могут также выполнять роль серверов gopher и WWW.
Поисковая система WAIS

Если Вы интересуетесь Интернет, Вы могли слышать название WAIS, но до сих пор не знать, что это такое. WAIS (произносится как вэйс) – еще один сервис Интернет, сегодня почти не использующийся, или, по крайней мере, практически не развивающийся. WAIS расшифровывается как информационная система широкого профиля, но на самом деле это комплекс программ, предназначенных для индексирования больших объемов неструктурированной, как правило просто текстовой, информации, поиска по таким документам и их извлечения. Существуют программы для индексирования, для локального поиска по полученным индексам, а также серверная и клиентская программа, общающиеся между собой по специальному протоколу Z39.50.

Задача поиска по большим объемам неструктурированной информации весьма нетривиальна и сегодня еще не существует общепринятого ее решения. WAIS во многих случаях является приемлемым вариантом поисковой системы, и коль скоро она имеет свободно распространяемую программную реализацию, то получила достаточную известность как один из сервисов Интернет. На самом деле, она почти не используется сегодня самостоятельно, но во многих случаях применяется как вспомогательное средство, например, для индексирования документов, хранящихся на WWW-сервере. В некоторых случаях она также используется как средство работы со словарями, или для поиска по архивам сетевых новостей Usenet. Если перед Вами стоит задача по индексированию больших объемов неструктурированной информации, то, возможно, WAIS окажется адекватным ее решением. Однако нужно иметь в виду, что свободно распространяемая реализация системы далека от совершенства, что система достаточна сложна для понимания и изучения, и, что хуже всего, практически не развивается. Поддержкой и развитием свободной версии занимались последовательно несколько организаций, но ни одна из них не довела продукт до приемлемого для реальной работы состояния.
Сервисы IRC, MUD, MOO

К интерактивным сервисам, служащим общению людей через Интернет, относится IRC – Internet Relay Chat, разговоры через Интернет. В Интернет существует сеть серверов IRC. Пользователи присоединяются к одному из каналов – тематических групп и участвуют в разговоре, который ведется не голосом, но текстом. Узлы IRC синхронизованы между собой, так что, подключившись к ближайшему серверу, Вы подключаетесь ко всей сети IRC.

Практическая ценность IRC невелика, автору неизвестны примеры коммерческого его применения – используется IRC в основном для развлечения. В IRC обычно пишут латиницей, даже при общении по-русски, что весьма неприятно. Сервис этот существует, может быть интересен на досуге, но вряд ли имеет какую-либо практическую ценность, потому и не будет описываться более подробно.

Подобную функциональность несут еще два сервиса – MUD и MOO. Расшифровываются эти аббревиатуры как Multi User Dungeon (многопользовательская игра) и Object-Oriented MUD (объектно-ориентированный многопользовательский мир).

MUD – многопользовательские игры в Интернет, обычно ролевого или сказочного характера. Практической ценности не представляют, но также используются в часы досуга. К сожалению, подавляющее большинство таких игр текстового рода, что мешает их широкому распространению. Примеры реализации графических вариантов MUD существуют, но редки и недостаточно хороши. Основное их достоинство – возможность общения людей в игре, подобно IRC. Соответственно, и применимость их аналогична.

MOO – по средствам доступа похож на MUD (то же текстовое общение: “посмотреть на стол” – “Это стол. У него семь с половиной ножек.”), но принципы, положенные в основу MOO, другие. В виртуальном мире MOO отсутствует игра, но зато создаются объекты и определяются их свойства и связи, что может иметь применение в образовательных целях. Например, в виртуальных учебных аудиториях MOO проходят занятия курсов по C++ Глобальной Сетевой Академии (Global Network Academy) и проходят весьма успешно. Однако неудобный терминальный интерфейс MOO и малая распространенность не позволяют порекомендовать этот сервис для практического использования – слишком узок круг задач, решением которых он может послужить.
Инфраструктурные сервисы

Описанный выше ftp является примером инфраструктурного сервиса Интернет, то есть сервиса, основанного на программных средствах, обычно поставляемых как часть операционной системы. Такие сервисы, изначально предназначенные для обеспечения связи между компьютерами, часто используются и для передачи информации, становясь, таким образом, сервисом Интернет. Так, ftp – программный комплекс, изначально предназначенный для передачи пользовательских файлов между компьютерами в сетях TCP/IP, стал популярным сервисом Интернет, когда стал использоваться для организации файловых архивов публичного доступа. Существует ряд других инфраструктурных сервисов, о которых полезно знать и иметь их в виду при планировании организации информационного взаимодействия между Вашей организацией и Интернет. Инфраструктурные сервисы удобны тем, что для работы с ними обычно не требуется установки специального программного обеспечения ни на стороне клиента, ни на стороне сервера.

Инфрасервисом является finger. Это программа, предназначенная для получения информации о пользователях локального и удаленных компьютеров: полного имени и телефонов, времени последнего входа в систему, текущей активности и т.п. Finger становится сервисом Интернет, когда на сервере заводится псевдопользователь, и, при обращении за информацией о нем, Вы получите не вышеописанную техническую информацию, но что-то другое. Так, например, через finger можно получить из первых рук информацию о статусе последних версий игры Doom и других игр фирмы ID Software.

Инфрасервисом является и telnet – программа, обеспечивающая терминальный доступ к удаленным компьютерам. Она также используется как средство доступа к удаленным информационным сервисам, работа с которыми происходит в режиме текстового терминала – это, например, описанные в этой статье MUD и MOO. Telnet используется как часть информационного сервиса Интернет, когда при соединении пользователь попадает не в командный интерпретатор, но сразу в специализированную программу, обеспечивающую доступ к информационным ресурсам. Так можно работать с каталогами некоторых библиотек, с сервером, обслуживающим игроков в шахматы и го, можно получить доступ к терминальному навигатору WWW, если у Вас нет локального. Серверов таких достаточно много, и они обслуживают самые разнообразные информационные сервисы. Многие инфраструктурные сервисы TCP/IP могут использоваться для передачи информации в Интернет, и нет смысла пытаться описать здесь все. Но вот, например, как можно использовать информацию из базы данных имен компьютеров Интернет DNS. Для прямого обращения к этой базе данных используется утилита nslookup, которая предназначена для отладки и проверки информации в DNS сетевыми администраторами TCP/IP-сетей. Однако, пользуясь ей, можно получить информацию о том, какого типа компьютер используется как удаленный информационный сервер, какое реальное имя имеет компьютер, известный Вам под логическим псевдонимом, и т.д.

Все, что предназначено для передачи технической информации, может быть тем или иным способом использовано для передачи информации как сервиса Интернет. Это надо иметь в виду, если Вы собираетесь применять возможности Интернет в своей работе или на досуге.
Вернуться
8.7. Системы искусственного интеллекта и нейронные сети
История развития искусственного интеллекта

Раньше с понятием искусственного интеллекта (ИИ) связывали надежды на создание мыслящей машины, способной соперничать с человеческим мозгом и, возможно, превзойти его. Эти надежды, на долгое время захватившие воображение многих энтузиастов, так и остались несбывшимися. И хотя фантастические литературные прообразы “умных машин” создавались еще за сотни лет до наших дней, лишь с середины тридцатых годов, с момента публикации работ А. Тьюринга, в которых осуждалась реальность создания таких устройств, к проблеме ИИ стали относиться серьезно. Для того, чтобы ответить на вопрос, какую машину считать “думающей”, Тьюринг предложил использовать следующий тест: испытатель через посредника общается с невидимым для >него собеседником – человеком или машиной. “Интеллектуальной” может считаться та машина, которую испытатель в процессе такого общения не сможет отличить от человека.

Если испытатель при проверке компьютера на “интеллектуальность” будет придерживаться достаточно жестких ограничений в выборе темы и формы диалога, этот тест выдержит любой современный компьютер, оснащенный подходящим программным обеспечением. Можно было бы считать признаком интеллектуальности умение поддерживать беседу, но, как было показано, эта человеческая способность легко моделируется на компьютере.

Признаком интеллектуальности может служить способность к обучению. В 1961 г. профессор Д. Мичи, один из ведущих английских специалистов по ИИ, описал механизм, состоящий из 300 спичечных коробков, который мог “научиться” играть в “крестики и нолики”. Мичи назвал это устройство MENACE (Matchbox Educable Naughts and Crosses Engine). В названии (“угроза”) заключается, очевидно, доля иронии, вызванной предубеждениями перед “думающими машинами”.

До настоящего времени единого и признанного всеми определения ИИ не существует, и это не удивительно. Достаточно вспомнить, что универсального определения человеческого интеллекта также нет Дискуссии о том, что можно считать признаком ИИ, а что – нет, напоминают споры средневековых ученых о том, которых интересовало, сколько ангелов смогут разместиться на кончике иглы. Сейчас к ИИ принято относить ряд алгоритмов и программных систем, отличительным свойством которых является то, что они могут решать некоторые задачи так, как кто делал бы размышляющий над их решением человек.
Основные задачи искусственного интеллекта

Ранее было уже указано, что нельзя дать исчерпывающее определение ИИ. Однако можно перечислить те задачи, методы решения которых на ЭВМ принято связывать с понятием ИИ. Ниже приводятся краткие характеристики таких задач.

Автоматическое решение задач представляет собой не столько вычислительную процедуру поиска ответа, как, например, расчет квадратного корня, сколько нахождение метода решения поставленной задачи. Системы, осуществляющие построение вычислительной процедуры, называют автоматическими решателями задач.

Под распознавателями подразумевают устройства, реагирующие на внешнюю среду через различные датчики, например видеокамеры, и позволяющие решать задачи распознавания образов. В таких устройствах результаты распознавания выводятся на экран, используются для принятия решений, и т.п. Например, на современных автоматических боулинговых дорожках установлены видеокамеры, которые после броска шара распознают число и взаимное расположение оставшихся кегель, для подсчета очков. Системы распознавания речи позволяют упростить взаимодействие с компьютером, с помощью упрощенного естественного языка. Необходимо заметить, что существующие на данный момент системы могут распознавать лишь очень ограниченный набор слов-команд, требуют предварительной настройки на дикцию пользователя и не могут анализировать длительную речь (целые предложения), хотя и ведутся интенсивные исследования в этом направлении.

Задачи доказательства теорем и обучения (например, для овладения навыками в какой-либо игре) решаются с помощью автоматического совершенствования алгоритма посредством обработки пробных вариантов, т.е. как бы с помощью накопления “собственного опыта”. Следует отметить, что способность к обучению представляет собой одно из основных свойств ИИ.

В настоящее время многие отождествляют понятие ИИ и экспертных систем. Это отождествление появилось во многом благодаря разработкам по созданию программного и аппаратного обеспечения в рамках японского проекта по созданию “ЭВМ пятого поколения”. Существующие экспертные системы включают в себя огромные базы знаний, сформированные с помощью информации, получаемой от экспертов, т.е. специалистов в той области, для которой создавалась каждая система. Манипуляция накопленными данными осуществляется в другой части экспертных систем, содержащей правила вывода. Сейчас такие системы с успехом используются в медицине, геологии, проектировании и многих других отраслях.

Для эффективной работы мощных систем ИИ необходима высокая скорость доступа к большим базам данных, а также высокое быстродействие. ЭВМ с обычной архитектурой не удовлетворяют этим требованиям. Обычные последовательные методы решения задач уступают место методам параллельной обработки, когда несколько процессоров независимо друг от друга выполняют различные части одной программы, или выполняют одинаковые действия над различными частями большого массива данных. Для этого применяются средства от многопроцессорных компьютеров, многомашинных кластеров, до специализированных параллельных процессоров и компьютеров. Однако в последние годы наблюдается тенденция к использованию массово производящихся, и как следствие дешевых, процессоров для объединения в большие вычислительные комплексы.

В системах искусственного интеллекта человеческие знания, необходимые для решения задач ИИ, должны быть представлены и записаны в форме, пригодной для последующей обработки на компьютере. Сложность заключается в том, что многие аспекты знаний изменяются в зависимости от условий и с трудом поддаются описанию, оставаясь при этом очевидными для человека. Знания должны храниться в системах ИИ в некоторой обобщенной для данной предметной области форме, позволяющей использовать выбранное представление в любой возможной ситуации. Для хранения знаний требуется большая область памяти, и, кроме того, значительное время уходит на их предварительную обработку. Это очевидное условие может быть упущено при разработке системы.

Многие аспекты ИИ связаны с развивающейся в настоящее время наукой – робототехникой. Идея создания “разумного” робота, способного “учиться на собственном опыте”, представляет собой одну из центральных проблем ИИ. Такой робот может обладать способностью к ведению диалога на естественном языке и уметь решать задачи, требующие инициативы и некоторой оригинальности мышления. Для этого требуется некоторое предварительное обучение робота, в результате которого он мог бы в отличие от используемых сейчас промышленных роботов выполнять целенаправленные и заранее незапрограммированные действия.

В течение многих лет идеи ИИ серьезно не рассматривались. Это происходило отчасти благодаря чрезмерному оптимизму некоторых теоретиков, а также из-за появления ряда сенсационных публикаций по этому предмету, впоследствии оказавшихся во многом несостоятельными. Идея аппаратно-программных моделей человеческого мозга вызывала насмешки, а в сфере технического производства стали избегать разработок, связанных с ИИ, так как результаты их внедрения явно не соответствовали обещаниям. Эта в полном смысле слова плачевная ситуация в настоящее время изменилась к лучшему благодаря новейшим достижениям в разработке аппаратуры и программного обеспечения.
Нейронные сети

Идея нейронных сетей родилась в ходе исследований в области искусственного интеллекта, а именно в результате попыток воспроизвести способность биологических нервных систем обучаться и исправлять ошибки, моделируя низкоуровневую структуру мозга. Основной областью исследований по искусственному интеллекту в 60 – 80 – е годы были экспертные системы. Такие системы основывались на высокоуровневом моделировании процесса мышления (в частности, на его представлении как манипуляций с символами). Скоро стало ясно, что подобные системы, хотя и могут принести пользу в некоторых областях, не охватывают некоторые ключевые аспекты работы человеческого мозга. Согласно одной из точек зрения, причина этого состоит в том, что они не в состоянии воспроизвести структуру мозга. Чтобы создать искусственный интеллект, необходимо построить систему с похожей архитектурой.

Мозг состоит из очень большого числа (приблизительно 1010) нейронов, соединенных многочисленными связями (в среднем несколько тысяч связей на один нейрон, однако это число может сильно колебаться). Нейроны – это специальные клетки, способные распространять электрохимические сигналы. Нейрон имеет разветвленную структуру ввода информации (дендриты), ядро и разветвляющийся выход (аксон). Аксоны клетки соединяются с дендритами других клеток с помощью синапсов. При активации нейрон посылает электрохимический сигнал по своему аксону. Через синапсы этот сигнал достигает других нейронов, которые могут в свою очередь активироваться. Нейрон активируется тогда, когда суммарный уровень сигналов, пришедших в его ядро из дендритов, превысит определенный уровень (порог активации).

Интенсивность сигнала, получаемого нейроном (а, следовательно, и возможность его активации), сильно зависит от активности синапсов. Каждый синапс имеет протяженность, и специальные химические вещества передают сигнал вдоль него. Один из самых авторитетных исследователей нейронных систем, Дональд Хебб, высказал постулат, что обучение заключается в первую очередь в изменениях “силы” синоптических связей. Например, в классическом опыте Павлова каждый раз перед кормлением собаки звонил колокольчик, и собака быстро научилась связывать звонок колокольчика с пищей. Синоптические связи между участками коры головного мозга, ответственными за слух, и слюнными железами усилились, и при возбуждении коры звуком колокольчика у собаки начиналось слюноотделение.

Таким образом, будучи построен из очень большого числа совсем простых элементов (каждый из которых берет взвешенную сумму входных сигналов и в случае, если суммарный вход превышает определенный уровень, передает дальше двоичный сигнал), мозг способен решать чрезвычайно сложные задачи.

Определение классического формального нейрона дается следующим образом:

Он получает входные сигналы (исходные данные или выходные сигналы других нейронов сети) через несколько входных каналов. Каждый входной сигнал проходит через соединение, имеющее определенную интенсивность (или вес); этот вес соответствует синоптической активности биологического нейрона. С каждым нейроном связано определенное пороговое значение. Вычисляется взвешенная сумма входов, из нее вычитается пороговое значение и в результате получается величина активации нейрона.

Сигнал активации преобразуется с помощью функции активации (или передаточной функции) и в результате получается выходной сигнал нейрона.

Если при этом использовать ступенчатую функцию активации, то такой нейрон будет работать точно так же, как описанный выше естественный нейрон.
Применение нейронных сетей

Сеть можно применять в ситуации, когда имеется определенная информация, и требуется из нее получить некоторую неизвестную информацию. Вот некоторые важные примеры задач, в которых были успешно решены нейросетевые методы.

Распознавание состояния больного.

Применение классических статистических методов описано еще в работах Неймана. С помощью медицинской аппаратуры можно наблюдать за различными показателями состояния здоровья человека (например, частотой пульса, содержанием различных веществ в крови, частотой дыхания). Стадии возникновения некоторой болезни может соответствовать определенная и весьма сложная (например, нелинейная и взаимозависимая) комбинация изменений наблюдаемых переменных, которая может быть обнаружена с помощью нейросетевой модели.

Прогнозирование на фондовом рынке.

Колебания цен на акции и фондовых индексов – еще один пример сложного, многомерного, но, в определенных ситуациях, частично прогнозируемого явления. Многие финансовые аналитики используют нейронные сети для прогнозирования цен акций на основе многочисленных факторов, например, прошлого поведения цен этих и других акций в совокупности с различными другими экономическими показателями. В качестве альтернативных вариантов здесь применяются модели авторегрессии и технический анализ.

Предоставление кредита.

Как правило, у банка имеется большой набор сведений о человеке, обратившемся с просьбой о предоставлении кредита. Это могут быть его возраст, образование, род занятий и многие другие данные. Обучив нейронную сеть на уже имеющихся данных, аналитик может определить наиболее существенные характеристики, и на их основе отнести данного клиента к категории с высоким или низким кредитным риском. Заметим, сто для решения подобных задач можно параллельно использовать и классические методы, такие как дискриминантный анализ и деревья классификации.

Системы слежения за состоянием оборудования.

Нейронные сети оказались полезны как средство контроля состояния механизмов. Нейронная сеть может быть обучена так, чтобы отличить звук, который издает машина при нормальной работе (“ложная тревога”) от того, который является предвестником неполадок. После такого обучения нейронная сеть может предупреждать инженеров об угрозе поломки до того, как она случится, и тем самым исключать неожиданные и дорогостоящие простои.

Управление работой двигателя.

Нейронные сети используются для анализа сигналов от датчиков, установленных на двигателях. С помощью нейронной сети можно управлять различными параметрами работы двигателя, чтобы достичь определенной цели, например, уменьшить потребление горючего.

Нейросети в искусственном интеллекте.

Работы по созданию интеллектуальных систем ведутся в двух направлениях Сторонники первого направления, составляющие сегодня абсолютное большинство среди специалистов в области искусственного интеллекта, исходят из положения о том, что искусственные системы не обязаны повторять в своей структуре и функционировании структуру и проистекающие в ней процессы, присущие биологическим системам. Важно лишь то, что теми или иными средствами удается добиться тех же результатов в поведении, какие характерны для человека и других биологических систем. Сторонники второго направления считают, что на чисто информационном уровне этого не удастся сделать. Феномены человеческого поведения, его способность к обучению и адаптации, по мнению этих специалистов, есть следствие именно биологической структуры и особенностей её функционирования.

У сторонников первого – информационного направления есть реально действующие макеты и программы, моделирующие те или иные стороны интеллекта. Одна из наиболее ярких работ, представляющих первое направление, – это программа “Общий решатель задач” А. Ньюэлла, И. Шоу и Г. Саймона. Развитие информационного направления шло от задачи о рационализации рассуждений путем выяснения общих приемов быстрого выявления ложных и истинных высказываний в заданной системе знаний. Способность рассуждать и находить противоречия в различных системах взаимосвязанных ситуаций, объектов, понятий является важной стороной феномена мышления, выражением способности к дедуктивному мышлению. Результативность информационного направления бесспорна в области изучения и воспроизведения дедуктивных мыслительных проявлений. Для некоторых практических задач этого достаточно. Информационное направление – наука точная, строгая, вобравшая в себя основные результаты изысканий кибернетики и её математическую культуру. Главные проблемы информационного направления – ввести в свои модели внутреннюю активность и суметь представить индуктивные процедуры. Одна из центральных проблем, это “Проблема активных знаний, порождающих потребности в деятельности системы из-за тех знаний, которые накопились в памяти системы”.

У сторонников второго – биологического направления результатов пока существенно меньше, чем надежд. Одним из родоначальников биологического направления в кибернетике является У. Мак-Каллок. В нейрофизиологии установлено, что целый ряд функций и свойств у живых организмов реализованы с помощью определенных нейронных структур. На основе воспроизведения таких структур в ряде случаев получены хорошие модели, в особенности это касается некоторых сторон работы зрительного тракта.

Создание нейрокомпьютеров, моделирующих нейронные сети (НС), в настоящее время рассматривается как одно из наиболее перспективных направлений в решении проблем интеллектуализации вновь создаваемых ЭВМ и информационно-аналитических систем нового поколения. В большей части исследований на эту тему НС представляется как совокупность большого числа сравнительно простых элементов, топология соединений которых зависит от типа сети. Практически все известные подходы к проектированию НС связаны в основном с выбором и анализом некоторых частных структур однородных сетей на формальных нейронах с известными свойствами (сети Хопфилда, Хемминга, Гроссберга, Кохоннена и др.) и некоторых описанных математически режимов их работы. В этом случае термин “нейронные сети” метафоричен, поскольку он отражает лишь то, что эти сети в некотором смысле подобны живым НС, но не повторяют их во всей сложности. Вследствие такой трактовки нейронные ЭВМ рассматриваются в качестве очередного этапа высокопараллельных супер-ЭВМ с оригинальной идеей распараллеливания алгоритмов решения разных классов задач. Сам термин “нейронная” ЭВМ – нейрокомпьютер, как правило, никак не связан с какими-то ни было свойствами и характеристиками мозга человека и животных. Он связан только с условным наименованием порогового логического элемента как формального нейрона с настраиваемыми или фиксированными весовыми коэффициентами, который реализует простейшую передаточную функцию нейрона-клетки.

Исследования в области создания нейроинтеллекта ведутся на различных уровнях: теоритический инструментарий, прототипы для прикладных задач, средства программного обеспечения НС, структуры аппаратных средств. Основными этапами на пути создания мозгоподобного компьютера являются выяснение принципов образования межэлементных связей и мозгоподобных системах – адаптивных сетях с большим числом элементов, создание компактного многовходового адаптивного элемента – аналога реального нейрона, исследование его функциональных особенностей, разработка и реализация программы обучения мозгоподобного устройства.

Одним из наиболее существенных путей расширения функционального диапазона НС, а также повышения их эффективности для традиционных задач является более целенаправленное использование в моделях механизмов и принципов организации мозга. Обоснованием этого служит достаточно экономная реализация функций в мозге, пока не доступная для самых совершенных супер-ЭВМ. В мозге, как и в любой сложной системе, процесс функционирования представляет собой совокупный результат работы его элементов и способов их взаимодействия. Оба эти фактора находят свое отражение в системной работе мозга.

В настоящее время становится очевидным, что успех разработки нейрокомпьютеров и интеллектуализации ЭВМ нового поколения в значительной степени определяется успехом работы над созданием нового класса базовых элементов с использованием данных о работе мозга. В первую очередь, это касается усложнения архитектуры, простанственно-временного распределения процессов в самом базовом элементе и расширении его функциональных возможностей. Поэтому актуальна необходимость в новом взгляде на перераспределение основных функций обработки информации между самими базовыми элементами нейрокомпьютера и сетевыми ресурсами в сторону увеличения логической нагрузки на базовые элементы.

Это связано с тем, что только в самое последнее время, на основе данных практической нейрофизиологии появилась возможность выделить из огромного числа процессов в мозге небольшое их количество наиболее значимых для переработки информации и выполнения сложных функций принятия конечных решений. Минимально необходимый набор структур, обеспечивающих эти процессы, значительно сузился и вследствие установленных ограничений существующих ЭВМ, которые не могут быть преодолены в настоящее время без использования свойств работы мозга. Кроме того, широко практикуемые однородные структуры искусственных НС на формальных нейронах не используют в полной мере возможностей реальных нейронов: их разнотипность, свойства распределенной и параллельной работы, многоуровневую иерархическую структурированность и соподчиненность в организации базовых структур головного мозга.

Из огромного числа данных о деятельности мозга, по-видимому, наиболее близко к решению проблемы интеллектуализации разрабатываемых ЭВМ относятся факты о механизмах и принципах элементной и сетевой организации процессов и функций в коре больших полушарий (КБП). Это определяется ее функциональной значимостью и уровнем современных данных о конкретных механизмах ее работы. Известно, что КБП является основным субстратом выполнения высших функций, определяющим уровень интеллекта личности. В настоящее время накоплен и в значительной мере систематизирован экспериментальный и теоретический материал об элементарной организации корковых функций. Все это дает основания предполагать, что данные о работе высшего отдела мозга могут иметь существенное значение и для идеологии создания нейрокомпьютерров, и для конструктивных решений отдельных их блоков. В плане общего подхода к моделированию нейрокомпьютера существенно то, что по мере накопления фактов о морфологии, цитохимии и нейрофизиологии появляется все больше путей для перехода от вероятностных к детерминированным сетям корковой деятельности, основанных на данных об архитектурных принципах организации КБП. На основе этих данных все четче прослеживается связь особенностей функций КБП с конкретной спецификой ее элементов и связей. Это позволяет уже на исходной стадии моделирования решать принципиальный вопрос о соотношении функциональных нагрузок отдельного элемента и сети в целом, определяющим саму стратегию разработки нейрокомпьютера. На практике этот выбор связан, прежде всего, с определением набора функций и свойств базового элемента и зависит как от уровня технической базы, так и от конструкторского решения их реализации.

Обоснованием пересмотра концепции базового элемента нового типа являются данные практической нейрофизиологии, выявившие необходимый минимальный набор базовых свойств реальных нейронов, обеспечивающий реализацию основных информационных функций мозга у животных и человека. В соответствии с этими данными

В задаче создания новых поколений интеллектуальных вычислительных систем и задаче развития робототехники путь интеллектуализации за счет введения квазибиологических автоматов в конечном счете окажется технически и экономически более целесообразным направлением по сравнению с введением элементов интеллекта на основе информационно-логических методов.

Pin It on Pinterest

Яндекс.Метрика