Тенденции развития компьютерной техники. Направления развития компьютерной техники

- 49.08 Кб

Первой волной компьютерной революции принято считать появление мэйнфреймов, предоставивших предприятиям доступ к огромным информационным ресурсам. На этом этапе весомую роль сыграла компания IBM. Ее унаследованные системы и сегодня все еще широко применяются различными организациями по всему миру.

Вторая волна связана с распространением персональных компьютеров в начале 80-х годов. Благодаря ПК, информационные технологии стали доступными для конечных пользователей, что дает основание называть данный этап "демократизацией вычислений". Важнейшая роль здесь принадлежит корпорации Microsoft, разработавшей самые популярные ОС для настольных систем.

Инвестиции в инфраструктуру и сервисы Интернет вызвали бурный рост отрасли информационных технологий в конце 90-х годов XX века. Сегодня наблюдается бурное развитие локальных и глобальных сетей. Сетевые возможности становятся обязательными атрибутами ОС (операционной системы) для ПК, а сетевые серверные ОС - ареной конкурентной борьбы ведущих компаний. Новый этап должен привести к качественному изменению всего характера вычислений.

Мы стоим на пороге третьего этапа компьютерной революции, которая приведет к реализации возможности непрерывного обмена информацией через глобальные сети. В этом случае накопленные знания станут доступными в электронной форме и будут передаваться по сетям, универсальный доступ к глобальной сети фундаментально изменит современные методы работы, образования, управления, способы проведения досуга и характер развлечений.

Переходу к новому этапу способствует и сама технология. По мнению специалистов, в течение ближайшего десятилетия базовые компьютерные технологии не столкнутся с существенными физическими ограничениями, что позволит наращивать вычислительную мощность микропроцессоров и емкость устройств дисковой памяти теми же темпами, что и сегодня. В то же время для микропроцессоров, памяти, программного обеспечения определяющей является технология коммуникаций. По мере наращивания мощности клиентов и серверов необходимость в быстрой передаче больших объемов данных становится все более острой, поэтому следующим этапом должны стать наращивание мощности сетевых технологий. Эволюция средств связи приводит к применению каналов со все более высокой пропускной способностью, что даст возможность передавать по ним все типы данных и обеспечить такими средствами каждый дом. Что касается программного обеспечения, то оно превратится в среду интеллектуальной поддержки, направляющую действия пользователей.

Для персональных компьютеров различных видов современные сети предлагают такие услуги, которые еще вчера трудно было представить, включая новые возможности телевидения и развитые системы защиты. Электроника все шире будет использоваться в быту, наделяя "интеллектом" не только теле-, радио- и видеоаппаратуру, но и самые обычные предметы. Развиваемые технологии позволят подключить данные устройства к сети, используя для этого всю существующую инфраструктуру, включая кабельное телевидение и обычную электросеть.

Глобальная коммуникационная сеть, как Internet неуклонно расширяется, приобретая все более важное значение и новые функции. Она все чаще применяется не только для поиска информации и коммуникаций, но и для обучения, электронной коммерции и в других областях, знаменуя начало формирования глобального сетевого сообщества.

Развитие информационных технологий в значительной степени определяет процессы интеграции систем и создания стандартов. Это может в существенной мере отодвинуть сроки воплощения в жизнь тех преимуществ, которые предоставляют новейшие технологии. Например, выполнение программы создания и совершенствования компьютеров пятого поколения, финансируемой японскими фирмами, сдерживается тем, что новая архитектура программного обеспечения пока не сочетается с существующими центрами искусственного интеллекта, новые протоколы не могут быть использованы в старых системах связи, а новые машинные языки не подходят для старых систем и т.д.

Еще одной тенденцией развития информационных технологий является глобализация информационного бизнеса. Чисто теоретически любой человек (или фирма) является сегодня потребителем информации. Поэтому возможности информационного рынка по- прежнему являются беспредельными, хотя и существует довольно жесткая конкуренция между основными производителями.

Таким образом, главными, определяющими стимулами развития информационной технологии, являются социально-экономические потребности общества. Экономические отношения накладывают свой отпечаток на процесс развития техники и технологии, либо давая ему простор, либо сдерживая его в определенных границах.

Техника и технология в своем развитии имеют эволюционные и революционные стадии и периоды. Вначале обычно происходит медленное постепенное усовершенствование технических средств и технологии, накопление этих усовершенствований является эволюцией.

Современные тенденции развития средств вычислительной техники

По прогнозам аналитиков, к 2012 году число транзисторов в микропроцессоре достигнет 1 млрд., тактовая частота возрастет до 10 ГГц, а производительность достигнет 100 млрд.оп/с.

Рассмотрим основные направления развитие микропроцессоров.

1. Повышение тактовой частоты.

Для повышения тактовой частоты при выбранных материалах используются: более совершенный технологический процесс с меньшими проектными нормами; увеличение числа слоев металлизации; более совершенная схемотехника меньшей каскадности и с более совершенными транзисторами, а также более плотная компоновка функциональных блоков кристалла.

Так, все производители микропроцессоров перешли на технологию КМОП, хотя Intel, например, использовала БиКМОП для первых представителей семейства Pentium. Известно, что биполярные схемы и КМОП на высоких частотах имеют примерно одинаковые показатели тепловыделения, но КМОП-схемы более технологичны, что и определило их преобладание в микропроцессорах.

Уменьшение размеров транзисторов, сопровождаемое снижением напряжения питания с 5 В до 2,5-3 В и ниже, увеличивает быстродействие и уменьшает выделяемую тепловую энергию. Все производители микропроцессоров перешли с проектных норм 0,35-0,25 мкм на 0,18 мкм и 0,12 мкм и стремятся использовать уникальную 0,07 мкм технологию.

Год производства


При минимальном размере деталей внутренней структуры интегральных схем 0,1-0,2 мкм достигается оптимум, ниже которого все характеристики транзистора быстро ухудшаются. Практически все свойства твердого тела, включая его электропроводность, резко изменяются и "сопротивляются" дальнейшей миниатюризации, возрастание сопротивления связей происходит экспоненциально. Потери даже на кратчайших линиях внутренних соединений такого размера "съедают" до 90% сигнала по уровню и мощности.

При этом начинают проявляться эффекты квантовой связи, в результате чего твердотельное устройство становится системой, действие которой основано на коллективных электронных процессах. Проектная норма 0,05-0,1 мкм (50-100 нм) - это нижний предел твердотельной микроэлектроники, основанной на классических принципах синтеза схем.

Уменьшение длины межсоединений актуально для повышения тактовой частоты работы, так как существенную долю длительности такта занимает время прохождения сигналов по проводникам внутри кристалла. Например, в Alpha 21264 предприняты специальные меры по кластеризации обработки, призванные локализовать взаимодействующие элементы микропроцессора.

Проблема уменьшения длины межсоединений на кристалле при использовании традиционных технологий решается путем увеличения числа слоев металлизации. Так, Cyrix при сохранении 0,6 мкм КМОП технологии за счет увеличения с 3 до 5 слоев металлизации сократила размер кристалла на 40% и уменьшила выделяемую мощность, исключив существовавший ранее перегрев кристаллов.

Одним из шагов в направлении уменьшения числа слоев металлизации и уменьшения длины межсоединений стала технология, использующая медные проводники для межсоединений внутри кристалла, разработанная фирмой IBM и используемая в настоящее время и другими фирмами-изготовителями СБИС.

Впервые рубеж тактовой частоты в 500 МГц перешагнули микропроцессоры фирмы DEC, которая уже в конце 1996 г. поставляла Alpha 21164 с тактовой частотой 500 МГц, в 1997 г. - Alpha 21264 с тактовой частотой 600 МГц, а в 1998 г. - Alpha 21264 с тактовой частотой 750 МГц и выше. В настоящее время ряд фирм выпускает процессоры для персональных компьютеров с тактовой частотой свыше 4 ГГц.

Увеличение объема и пропускной способности подсистемы памяти.

Возможные решения по увеличению пропускной способности подсистемы памяти включают создание кэш-памяти одного или нескольких уровней, а также увеличение пропускной способности интерфейсов между процессором и кэш-памятью и конфликтующей с этим увеличением пропускной способности между процессором и основной памятью. Совершенствование интерфейсов реализуется как увеличением пропускной способности шин (путем увеличения частоты работы шины и/или ее ширины), так и введением дополнительных шин, расшивающих конфликты между процессором, кэш-памятью и основной памятью. В последнем случае одна шина работает на частоте процессора с кэш-памятью, а вторая - на частоте работы основной памяти. При этом частоты работы второй шины, например, равны 66, 66, 166 МГц для микропроцессоров Pentium Pro-200, Power PC 604E-225, Alpha 21164-500, работающих на тактовых частотах 300, 225, 500 МГц, соответственно. При ширине шин 64, 64, 128 разрядов это обеспечивает пропускную способность интерфейса с основной памятью 512, 512, 2560 Мбайт/с, соответственно.

Общая тенденция увеличения размеров кэш-памяти реализуется по-разному:

внешние кэш-памяти данных и команд с двухтактовым временем доступа объемом от 256 Кбайт до 2 Мбайт со временем доступа 2 такта в HP PA-8000;

отдельный кристалл кэш-памяти второго уровня, размещенный в одном корпусе в Pentium Pro;

размещение отдельных кэш-памяти команд и кэш-памяти данных первого уровня объемом по 8 Кбайт и общей для команд и данных кэш-памяти второго уровня объемом 96 Кбайт в Alpha 21164.

Наиболее используемое решение состоит в размещении на кристалле отдельных кэш-памятей первого уровня для данных и команд с возможным созданием внекристальной кэш-памяти второго уровня. Например, в Pentium II использованы внутрикристальные кэш-памяти первого уровня для команд и данных по 16 Кбайт каждая, работающие на тактовой частоте процессора, и внекристальный кэш второго уровня, работающий на половинной тактовой частоте.

Увеличение количества параллельно работающих исполнительных устройств.

Каждое семейство микропроцессоров демонстрирует в следующем поколении увеличение числа функциональных исполнительных устройств и улучшение их характеристик, как временных (сокращение числа ступеней конвейера и уменьшение длительности каждой ступени), так и функциональных (введение ММХ-расширений системы команд и т.д.).

В настоящее время процессоры могут выполнять до 6 операций за такт. Однако число операций с плавающей точкой в такте ограничено двумя для R10000 и Alpha 21164, а 4 операции за такт делает HP PA-8500.

Для того чтобы загрузить функциональные исполнительные устройства, используются переименование регистров и предсказание переходов, устраняющие зависимости между командами по данным и управлению, буферы динамической переадресации.

Широко используются архитектуры с длинным командным словом - VLIW. Так, архитектура IA-64, развиваемая Intel и HP, использует объединение нескольких инструкций в одной команде (EPIC). Это позволяет упростить процессор и ускорить выполнение команд. Процессоры с архитектурой IA-64 могут адресоваться к 4 Гбайтам памяти и работать с 64-разрядными данными. Архитектура IA-64 используется в микропроцессоре Merced, обеспечивая производительность до 6 Гфлоп при операциях с одинарной точностью и до 3 Гфлоп - с повышенной точностью на частоте 1ГГц.

Системы на одном кристалле и новые технологии.

В настоящее время получили широкое развитие системы, выполненные на одном кристалле - SOC (System On Chip). Сфера применения SOC - от игровых приставок до телекоммуникаций. Такие кристаллы требуют применения новейших технологий.

Основной технологический прорыв в области SOC удалось сделать корпорации IBM, которая в 1999 году смогла реализовать сравнительно недорогой процесс объединения на одном кристалле логической части микропроцессора и оперативной памяти. В новой технологии, в частности, используется так называемая конструкция памяти с врезанными ячейками (trench cell). В этом случае конденсатор, хранящий заряд, помещается в некое углубление в кремниевом кристалле. Это позволяет разместить на нем свыше 24 тыс. элементов, что почти в 8 раз больше, чем на обычном микропроцессоре, и в 2-4 раза больше, чем в микросхемах памяти для ПК. Следует отметить, что хотя кристаллы, объединяющие логические схемы и память на одном кристалле, выпускались и ранее, например, такими фирмами, как Toshiba, Siemens AG и Mitsubishi, подход, предложенный IBM, выгодно отличается по стоимости. Причем ее снижение никоим образом не сказывается на производительности.

Описание работы

На протяжении всей истории человечество овладело сначала веществом, затем энергией и, наконец, информацией. На заре цивилизации человеку хватало элементарных знаний и первобытных навыков, но постепенно объем информации увеличивался, и люди почувствовали недостаток индивидуальных знаний. Потребовалось научиться обобщать знания и опыт, которые способствовали правильной обработке информации и принятию необходимых решений, иными словами, необходимо было научиться целенаправленно работать с информацией и использовать для ее получения, обработки и передачи

На протяжении недавней истории ЭВМ, то есть примерно с середины 60-х годов, когда полупроводники уже полностью вытеснили электронные лампы из элементной базы вычислительных машин, в развитии этой области техники произошло несколько драматических поворотов. Все они явились следствием, с одной стороны, бурного развития технологии микропроцессоров, с другой - интенсивного прогресса программного обеспечения компьютеров. Тот и другой процессы развивались параллельно, подстегивая друг друга, в какой-то мере конкурируя. Новые технические возможности, появлявшиеся с созданием новых элементов и устройств, позволили разработать более совершенные (и функционально и по производительности) программы; это, в свою очередь, порождало потребность в новых, более совершенных компонентах и т. д.

В 60-е годы, в эпоху машин третьего поколения, то есть машин на базе отдельных полупроводниковых элементов и интегральных схем, небольшой плотности (типичные представители - компьютеры семейства IBM 360), пользователи пришли к осознанию необходимости изменения организации использования компьютера. До этого компьютер предоставлялся в распоряжение одного человека (это был либо оператор, выполняющий готовую программу, либо программист, занятый разработкой новой программы). Такой порядок не позволял использовать весь потенциал машины. Поэтому возникла технология так называемой пакетной обработки заданий, характерная тем, что пользователь был отделен от машины. Он должен был заранее подготовить свое задание (чаще всего - в виде колоды перфокарт с управляющими кодами и исходными данными), и передать его в руки операторов, которые формировали очередь заданий. Таким образом, машина получала для обработки сразу несколько заданий и не простаивала в ожидании каждого нового задания или реакции пользователя на свои сообщения. Но и этого оказалось недостаточно: по быстродействию центральный процессор намного опережал внешние устройства, такие как считыватели перфокарт и перфолент, алфавитно-цифровые печатающие устройства, и потому его мощность оказывалась не полностью использованной. Возникла идея организации многозадачного использования процессора. Её суть состояла в том, что процессор как бы одновременно выполнял несколько программ («как бы» - потому, что на самом деле процессор работал по-прежнему последовательно). Но когда, например, в рамках какой-то программы очередь доходила до обмена с внешним устройством, эта операция перепоручалась недорогому специализированному устройству, а центральный процессор переключался на продолжение другой программы и т. д. Таким образом, коэффициент использования аппаратной части вычислительной установки резко возрос. В рамках одного из направлений развития идеи многозадачности появились и так называемые многопультовые системы. Они представляли собою комплексы, состоявшие из центрального компьютера и группы видеотерминалов (числом до нескольких десятков). Человек-оператор, работавший за пультом такого терминала, ощущал себя полным распорядителем машины, поскольку компьютер реагировал на его действия (в том числе команды) с минимальной задержкой. В действительности же центральный компьютер как бы одновременно работал со многими программами, переключаясь с одной на другую в соответствии с определенной дисциплиной (например, уделяя каждому терминалу по нескольку миллисекунд в течение секунды).

В 1971 г. был создан первый микропроцессор, то есть функционально законченное устройство, способное выполнять обязанности центрального процессора (правда, в то время, - весьма маломощного). Это имело значение поворотного момента в истории вычислительной техники. И не только вычислительной: в дальнейшем прогресс микроэлектроники привел к существенным переменам и в других областях - в станкостроении, автомобилестроении, технике связи и т. д. Совершенствование технологии, опиравшееся на достижения фундаментальных наук, на успехи оптики, точного машиностроения, металлургии, керамики и других отраслей, дало возможность получить микропроцессоры со всё большим количеством элементов размещенных на поверхности полупроводникового кристалла со всё большей плотностью, а, значит, - всё более мощные компьютеры. Одновременно, что очень важно, заметно падала и их себестоимость. Забота о возможно более полном использовании вычислительных ресурсов теряла свою остроту, и даже актуальность.

В 1979 г. появился первый персональный компьютер. Мировой лидер в производстве средств вычислительной техники, корпорация IBM, отреагировала на его появление с некоторым запаздыванием, но в 1980 г. выступила на рынке со своим PC IBM, самой важной особенностью которого была так называемая открытая архитектура . Это означает, во-первых, возможность реализации принципа взаимозаменяемости, то есть использования для сборки ПК узлов от разных производителей (лишь бы они соответствовали определенным соглашениям), и во-вторых - возможность доукомплектования ПК, наращивания его мощности уже в ходе его эксплуатации. Это смелое и дальновидное техническое решение дало мощный толчок всей индустрии ПК. Десятки и сотни фирм включились в разработку и производство отдельных блоков и целых ПК, создав большой спрос на элементы, новые материалы, новые идеи. Все последующие годы отмечены фантастически быстрым совершенствованием микропроцессоров (каждые пять лет плотность размещения элементов на полупроводниковом кристалле возрастала в десять раз!), запоминающих устройств (оперативных и накопительных), средств отображения и фиксации данных. И, как уже указывалось, очень существенно то, что одновременно снижались себестоимость и цены на ПК.

В конечном счете, последние два десятилетия ознаменованы широчайшим распространением ПК во всех сферах человеческой деятельности, включая быт, досуг и домашнее хозяйство. Заметны и социальные последствия этого феномена.Стоит отметить, что ПК стали преобладать и как аппаратная база систем управления, вытесняя большие компьютеры, что привело к ряду негативных последствий, в частности, к неприемлемому снижению уровня централизации и частичной потере управляемости, что частично компенсировалось развитием сетевых технологий.

Как и ранее, технологические достижения принесли не только удовлетворение, но и новые проблемы. Усилия по их разрешению приводят к новым интересным результатам как в аппаратной сфере, так и в создании новых программных средств и систем. Проиллюстрируем это положение несколькими примерами.

Увеличение емкости накопителей и снижение стоимости хранения данных дало толчок расширению применения баз данных в составе систем управления разного назначения, возросло осознание ценности баз данных. Отсюда возникла потребность предоставить доступ к информационным ресурсам многим пользователям.Ответом на нее стало создание локальных вычислительных сетей. Такие сети позволяют решить и задачу повышения загрузки дорогостоящих аппаратных средств, например, лазерных или светодиодных принтеров, плоттеров. Появление сетей, в свою очередь, обострило потребность в еще более мощных накопителях и процессорах и т. д.

Увеличение быстродействия процессоров и емкости ОЗУ создало предпосылки для перехода к графическому интерфейсу. Для IBM-подобных компьютеров это была сначала графическая оболочка Windows, а затем - полноценные операционные системы (Windows -95, -98, -2000, -XP). Но одновременно все более ощутимым стало и осознание неполного использования вычислительной мощности аппаратной части компьютера. Возродиласьна новой основе идея многозадачности. Она воплощена в новых операционных системах. Так что работая, например, под Windows 98, можно одновременно выполнять обработку какого–то массива данных, распечатывать результаты предыдущей программы и принимать электронную почту.

Компьютеризация всех сфер жизни вызвала повышенное внимание масс рядовых пользователей к такой важной теме как воздействия компьютера на состояние здоровья. Этому способствуют и многочисленные публикации последнего времени в отечественной и зарубежной прессе. Так, по данным Министерства Труда США, “повторяющиеся травмирующие воздействия при работе с компьютером” обходятся корпоративной Америке в 100 млрд. $ ежегодно. При этом пострадавшие иногда расплачиваются жестокими болями в течение всей жизни. Актуальность проблематики очевидна. Вместе с тем, уровень отечественных медицинских публикаций на эту тему либо сильно завышен и не доступен рядовому пользователю (статьи в изданиях для врачей) либо занижен, так как не предусматривает комплексного анализа ситуации. Обычно авторы популярных изданий сосредотачивают внимание на чем - то одном, и чаще всего это – тема влияния излучений от монитора.

Да, действительно, вокруг монитора присутствуют переменные электрическое и магнитное поля, имеется рентгеновское излучение. Однако технические характеристики мониторов и других частей компьютера в настоящее время жестко контролируются специальными международными стандартами, что исключает вредные воздействия при правильной эксплуатации. Любой уважающий себя производитель или поставщик компьютерного оборудования стремится получить на него сертификат по шведскому стандарту ТСО. Покупателю остается удостовериться в наличии такого сертификата и далее он может быть уверен в высоком качестве монитора. Таким образом, пользователь не должен испытывать своего рода фобии при постоянной работе с компьютером, необходимо лишь уделить должное внимание правильной организации своего рабочего места и соблюдению режима работы. Все необходимые для этого рекомендации содержатся в официальном документе Министерства Здравоохранения РФ “Санитарные правила и нормы. Сан ПиН 2.2.2.542-96.”

Обилие ПК в конторах и на предприятиях иногда создает ложное впечатление об уходе больших и средних машин из сферы управления, из систем обработки деловой информации. Однако это не так. Например, в крупных банках ПК используются в основном как устройства оформления первичных операций и средства общения с клиентами, то есть в качестве терминалов, а все проводки, проверки кредитоспособности и т. п. операции выполняются на больших компьютерах. И на промышленных предприятиях при построении автоматизированных информационных систем также может оказаться более рентабельным применение многопультовой системы на базе большого или среднего компьютера. Так, например, стоимость одного рабочего места в многопультовой системе на базе компьютера типа ЕС 1066 становится ниже, чем при использовании ПК, начиная с числа терминалов, равного 200.

Подводя итоги, можно сказать, что основные наблюдаемые ныне тенденции развития компьютерной техники выражаются в следующем:

    Продолжается рост вычислительной мощности микропроцессоров. При дальнейшем увеличении плотности размещения элементов тактовая частота процессоров перевалила барьер 2 Ггц. Наиболее популярны модели Intel Pentium-4 (высокая скорость без мелких, но часто очень мешающих про­блем), AMD Athlon XP (отличная произво­дительность по приемлемой цене).

    Повышение мощности микропроцессоров позволяет совмещать в одном элементе («на одном кристалле») все большее число устройств. Это, в свою очередь, дает возможность реализовать на одной печатной плате большее число функций и за счет этого сокращать число отдельных блоков компьютера;

    Расширяется набор функций, реализуемых в одном ПК, он становится все более «разносторонним» аппаратом. Особенно наглядно это проявляется в мультимедийном компьютере, который представляет собой, по существу, функциональный комбайн: помимо своих «прямых обязанностей» - обработки алфавитно–цифровой информации он способен работать со звуком (воспроизведение и запись; редактирование, включая создание специальных эффектов и др.); воспроизводить видеосигнал (прием телепередач; запись кадров и их обработка; воспроизведение аналоговых и цифровых видеозаписей, компьютерных анимаций и др.); эффективно работать в компьютерных сетях. Многообразие возможностей требует, в свою очередь, расширения номенклатуры компонентов и существенного повышения мощности базовых блоков.

Сети компьютеров

В настоящее время особо важное значение приобрела конфигурация вычислительной системы, построенная на использовании многих компьютеров, объединенных в сеть. При этом обеспечивается единое информационное пространство сразу для множества пользователей вычислительной системы, что особенно наглядно проявилось на примере всемирной компьютерной сети Internet.

Компьютерной сетью называется совокупность компьютеров, взаимосвязанных через каналы передачи данных, обеспечивающая пользователей средствами обмена информацией и коллективного использования ресурсов сети: аппаратных, программных и информационных.

Объединение компьютеров в сеть позволяет совместно использовать дорогостоящее оборудование - диски большой емкости, принтеры, модемы, оперативную память, иметь общие программные средства и данные. Глобальные сети предоставляют возможность использовать аппаратные ресурсы удаленных компьютеров. Глобальные сети, охватывая миллионы людей, полностью изменили процесс распространения и восприятия информации, сделали обмен информацией через электронную почту самой распространенной услугой сети, а саму информацию - основным ресурсом человека.

Основным назначением сети является обеспечение простого, удобного и надежного доступа пользователя к распределенным общесетевым ресурсам и организация их коллективного использования при надежной защите от несанкционированного доступа, а также обеспечение удобных и надежных средств передачи данных между пользователями сети. С помощью сетей эти проблемы решаются независимо от территориального расположения пользователей.

В эпоху всеобщей информатизации большие объемы информации хранятся, обрабатываются и передаются в локальных и глобальных компьютерных сетях. В локальных сетях создаются общие базы данных для работы пользователей. В глобальных сетях осуществляется формирование единого научного, экономического, социального и культурного информационного пространства.

Помимо сфер научной, деловой, образовательной, общественной и культурной жизни глобальная сеть охватила и сделала доступным для миллионов людей новый вид отдыха и развлечений. Сеть превратилась в инструмент ежедневной работы и организации досуга людей самого разного круга.

Компьютерные сети можно классифицировать по ряду признаков, например, по степени территориальной распределенности. При этом различают глобальные, региональные и локальные сети.

Глобальные сети объединяют пользователей, расположенных по всему миру, используют волоконно-оптические и спутниковые каналы связи, позволяющие соединять узлы сети связи и компьютеры, находящиеся на расстоянии до 10–15 тыс. км друг от друга.

Региональные сети объединяют пользователей города, области, небольших стран. В качестве каналов связи чаще всего используются волоконно-оптические и телефонные линии. Расстояния между узлами сети составляют 10–1000 км.

Локальные сети связывают абонентов одного или близлежащих зданий одного предприятия, учреждения. Локальные сети получили очень широкое распространение, так как 80–90% информации циркулирует вблизи мест ее появления и только 20–10% связано с внешними взаимодействиями. Локальные сети могут иметь любую структуру, но чаще всего компьютеры в локальной сети связаны единым высокоскоростным каналом передачи данных. Единый для всех компьютеров высокоскоростной канал передачи данных - главная отличительная особенность локальных сетей. В качестве канала передачи данных используется витая пара, коаксиальный кабель либо оптический кабель. В оптическом канале световод сделан из кварцевого стекла толщиной в волос, это - наиболее высокоскоростной, надежный, но и дорогостоящий кабель. Расстояния между компьютерами в локальной сети - до 10 км.

Корпоративные сети являются тем примером, который не укладывается в систему классификации сетей по признаку их территориальной распределенности. Например, сеть банка или авиакомпании может связывать компьютеры как в соседних помещениях, так и расположенные на разных континентах. Корпоративная сеть обычно имеет свою особую систему кодирования и защиты информации, что исключает в ней свободный доступ, характерный для глобальных сетей.

Каналы связи в локальных и корпоративных сетях являются собственностью организации, и это серьезно упрощает их эксплуатацию.

Функциональные возможности сети определяются теми услугами, которые она предоставляет пользователю. Для реализации каждой из услуг сети и доступа пользователя к этой услуге разрабатывается специальное программное обеспечение.

Для обеспечения связи между этими сетями используются средства межсетевого взаимодействия, называемые мостами (Bridge) и маршрутизаторами (Router). В качестве моста и маршрутизатора могут использоваться компьютеры, в которых установлено по два или более сетевых адаптера. Каждый из адаптеров обеспечивает связь с одной из связываемых сетей.

Мост или маршрутизатор получает пакеты, посылаемые компьютером одной сети компьютеру другой сети, переадресует их и отправляет по указанному адресу. Мосты, как правило, используются для связи сетей с одинаковыми коммуникационными системами, например для связи двух сетей Ethernet или двух сетей Arcnet. Маршрутизаторы связывают сети с разными коммуникационными системами, так как имеют средства преобразования пакетов одного формата в другой. Существуют мосты-маршрутизаторы (Brouter), объединяющие функции обоих средств.

Для обеспечения связи сетей с различными компьютерными системами предназначены шлюзы (Gateway). Например, в общей структуре корпоративной сети через шлюз локальная сеть может быть связана с мощным внешним компьютером.

Конфигурация вычислительной системы

На выбор конфигурации вычислительной системы решающее влияние оказывает технологический процесс ее работы в конкретных производственных условиях. Можно выделить следующие стандартные этапы работы:

    Зарождение данных , т.е. формирование первичных сообщений, которые фиксируют результаты хозяйственных операций, свойства объектов и субъектов управления, параметры производственных процессов, содержание нормативных и юридических актов и т.д.

    Накопление и систематизация данных , т.е. организация такого размещения данных, которое обеспечивало бы быстрый поиск и отбор нужных сведений, методическое обновление данных, защиту их от искажений, утраты, потери связности и т.п.

    Обработка данных - процессы, в результате которых на основе ранее накопленных данных формируются новые виды данных: обобщающие, аналитические, рекомендательные, прогнозные... Производные данные тоже могут быть подвергнуты дальнейшей обработке и принести сведения более глубокой обобщенности и т.д.

    Отображение данных - представление данных в форме, пригодной для восприятия человеком. Прежде всего - это вывод на печать, т.е. изготовление читаемых человеком документов. Также широко используются такие виды преобразования, как построение графических иллюстративных материалов (графики, диаграммы, пиктограммы, видеограммы), формирование звуковых и видео - сигналов.

Сообщения, формируемые на этапе 1, могут иметь разный вид: либо это обычный бумажный документ, либо машиночитаемое сообщение, либо то и другое одновременно. Что именно - определяет разработчик конфигурации вычислительной системы в зависимости от требуемой степени автоматизации процесса; от управленческой функции, в рамках которой сообщение создано; от бюджета, выделенного на создание системы и т.д. Сообщения, имеющие массовый характер, обязательно переводятся в машиночитаемый вид, так что создание такого сообщения предпочтительно заканчивать на машинном носителе. Специальная аппаратура, реализующая эти операции, носит собирательное название «средства сбора данных» или «средства регистрации первичной информации». Она включает измерители различных типов (электронные весы, счетчики, расходомеры, хронометры), считыватели штрих-кодов, машины для счета банкнот, считыватели магнитных карт и т.п.

Потребности этапов 2 и 3 обычно удовлетворяются базовыми средствами вычислительной техники, в основном - компьютерами. В то же время, информация по некоторым видам управленческих и коммерческих функций вполне может накапливаться и обрабатываться и более дешевыми средствами оргтехники (приборы для использования «электронных» денег, электронные записные книжки, калькуляторы и т.п.).

Средства, обеспечивающие восприятие информации человеком, т.е. средства отображения данных (этап 4), также тяготеют к цифровой вычислительной технике. Это – матричные, струйные, лазерные, светодиодные принтеры, модемы и факс-модемы (используемые также в Интернет – телефонии), специальные звуковые и видео - карты различной мощности, устройства оцифровки фото и видео – изображений, проекторы компьютерных изображений.

СОДЕРЖАНИЕ
ВВЕДЕНИЕ


1.4. Новейшие достижения
2. ПРАКТИЧЕСКОЕ ЗАДАНИЕ
2.1. Исходные данные
2.2. Выполнение задания
ЗАКЛЮЧЕНИЕ
СПИСОК ЛИТЕРАТУРЫ
ПРИЛОЖЕНИЕ

ВВЕДЕНИЕ
Компьютеры появились очень давно в нашем мире, но только в последнее время их начали так усиленно использовать во многих отраслях человеческой жизни. Еще десять лет назад было редкостью увидеть какой-нибудь персональный компьютер - они были, но были очень дорогие, и даже не каждая фирма могла иметь у себя в офисе компьютер. А теперь в каждом третьем доме есть компьютер, который уже глубоко вошел в жизнь самих обитателей дома.
Сама идея создания искусственного интеллекта появилась очень давно, но только в 20 столетии ее начали приводить в исполнение. Сначала появились огромные компьютеры, которые были зачастую размером с огромный дом. Использование таких махин было не очень удобно, но мир не стоял на одном месте эволюционного развития - менялись люди, менялась их среда обитания, и вместе с ней менялись и сами технологии, все больше совершенствуясь. И компьютеры становились все меньше и меньше по своим размерам, пока не достигли сегодняшних размеров.
Современные вычислительные машины представляют одно из самых значительных достижений человеческой мысли, влияние, которого на развитие научно-технического прогресса трудно переоценить. Области применения ЭВМ непрерывно расширяются. Этому в значительной степени способствует распространение персональных ЭВМ, и особенно микроЭВМ.
За время, прошедшее с 50-х годов, цифровая ЭВМ превратилась из «волшебного», но при этом дорогого, уникального и перегретого нагромождения электронных ламп, проводов и магнитных сердечников в небольшую по размерам машину – персональный компьютер – состоящий из миллионов крошечных полупроводниковых приборов, которые упакованы в небольшие пластмассовые коробочки.
В результате этого превращения компьютеры стали применяться повсюду. Они управляют работой кассовых аппаратов, следят за работой автомобильных систем зажигания, ведут учет семейного бюджета, или просто используются в качестве развлекательного комплекса, но это только малая часть возможностей современных компьютеров. Более того, бурный прогресс полупроводниковой микроэлектроники, представляющей собой базу вычислительной техники, свидетельствует о том, что сегодняшний уровень как самих компьютеров, так и областей их применения является лишь слабым подобием того, что наступит в будущем.
Изучение компьютерной техники уже введено в программы школьного обучения как обязательный предмет, чтобы ребенок смог уже с довольно раннего возраста знать строение и возможности компьютеров. А в самих школах (в основном на западе и в Америке) уже многие годы компьютеры применялись для ведения учебной документации, а теперь они используются при изучении многих учебных дисциплин, не имеющих прямого отношения к вычислительной технике.
Современные вычислительные машины представляют одно из самых значительных достижений человеческой мысли, их влияние на развитие научно-технического прогресса трудно переоценить. Области применения ЭВМ непрерывно расширяются, чему в значительной степени способствует распространение персональных компьютеров, и особенно микроПК.
Цель данной работы – рассмотреть перспективы развития персональных компьютеров.
1. ОСНОВНЫЕ ТЕНДЕНЦИИ РАЗВИТИЯ КОМПЬЮТЕРНОЙ ТЕХНИКИ
1.1. Развитие оптических компьютеров
Развитие вычислительной техники представляет собой постоянно сменяющие друг друга физические способы реализации логических алгоритмов - от механических устройств (вычислительная машина Бэббиджа) к ламповым (компьютеры 40-50-х годов Марк I и Марк II), затем к транзисторным и, наконец, к интегральным схемам. И уже на рубеже XXI века шли разговоры о скором достижении пределов применения полупроводниковых технологий и появлении вычислительных устройств, работающих на совершенно ином принципе. Все это свидетельствует о том, что прогресс не стоит на месте, и с течением времени ученые открывают новые возможности создания вычислительных систем, принципиально отличающихся от широко применяемых компьютеров. Существует несколько возможных альтернатив замены современных компьютеров, одна из которых - создание так называемых оптических компьютеров, носителем информации в которых будет световой поток.
Проникновение оптических методов в вычислительную технику ведется по трем основным направлениям. Первое основано на использовании аналоговых интерференционных оптических вычислений для решения отдельных специальных задач, связанных с необходимостью быстрого выполнения интегральных преобразований. Второе направление связано с использованием оптических соединений для передачи сигналов на различных ступенях иерархии элементов вычислительной техники, т.е. создание чисто оптических или гибридных (оптоэлектронных) соединений вместо обычных, менее надежных, электрических соединений. При этом в конструкции компьютера появляются новые элементы - оптоэлектронные преобразователи электрических сигналов в оптические и обратно. Но самым перспективным направлением развития оптических вычислительных устройств является создание компьютера, полностью состоящего из оптических устройств обработки информации. Это направление интенсивно развивают с начала 80-х годов ведущие научные центры (MTI, Sandia Laboratories и др.) и основные компании-производители компьютерного оборудования (Intel, IBM, AMD).
В основе работы различных компонентов оптического компьютера (трансфазаторы-оптические транзисторы, триггеры, ячейки памяти, носители информации) лежит явление оптической бистабильности. Оптическая бистабильность - это одно из проявлений взаимодействия света с веществом в нелинейных системах с обратной связью, при котором определенной интенсивности и поляризации падающего на вещество излучения соответствуют два (аналог 0 и 1 в полупроводниковых системах) возможных стационарных состояния световой волны, прошедшей через вещество, отличающихся амплитудой и (или) параметрами поляризации. Причем предыдущее состояние вещества однозначно определяет, какое из двух состояний световой волны реализуется на выходе. Для большего понимания явление оптической бистабильности можно сравнить с обычной петлей магнитного гистерезиса (эффект, используемый в магнитных носителях информации). Увеличение интенсивности падающего на вещество светового луча до некоторого значения I1 приводит к резкому возрастанию интенсивности прошедшего луча; на обратном же ходе при уменьшении интенсивности падающего луча до некоторого значения I2 Весь набор полностью оптических логических устройств для синтеза более сложных блоков оптических компьютеров реализуется на основе пассивных нелинейных резонаторов-интерферометров. В зависимости от начальных условий (начального положения пика пропускания и начальной интенсивности оптического излучения) в пассивном нелинейном резонаторе, нелинейный процесс завершается установлением одного из двух устойчивых состояний пропускания падающего излучения. А из нескольких нелинейных резонаторов можно собрать любой, более сложный логический элемент (триггер).
Элементы памяти оптического компьютера представляют собой полупроводниковые нелинейные оптические интерферометры, в основном, созданными из арсенида галлия (GaAs). Минимальный размер оптического элемента памяти определяется минимально необходимым числом атомов, для которого устойчиво наблюдается оптическая бистабильность. Это число составляет ~1000 атомов, что соответствует 1-10 нанометрам.
К настоящему времени уже созданы и оптимизированы отдельные составляющие оптических компьютеров – оптические процессоры, ячейки памяти), однако до полной сборки еще далеко. Основной проблемой, стоящей перед учеными, является синхронизация работы отдельных элементов оптического компьютера в единой системе, поскольку уже существующие элементы характеризуются различными параметрами рабочей волны светового излучения (интенсивность, длина волны), и уменьшение его размера. Если для конструирования оптического компьютера использовать уже разработанные компоненты, то обычный PC имел бы размеры легкового автомобиля. Однако применение оптического излучения в качестве носителя информации имеет ряд потенциальных преимуществ по сравнению с электрическими сигналами, а именно:
 световые потоки, в отличие от электрических, могут пересекаться друг с другом;
 световые потоки могут быть локализованы в поперечном направлении до нанометровых размеров и передаваться по свободному пространству;
 скорость распространения светового сигнала выше скорости электрического;
 взаимодействие световых потоков с нелинейными средами распределено по всей среде, что дает новые степени свободы (по сравнению с электронными системами) в организации связи и создании параллельных архитектур.
Вообще, создание большего количества параллельных архитектур, по сравнению с полупроводниковыми компьютерами, является основным достоинством оптических компьютеров, оно позволяет преодолеть ограничения по быстродействию и параллельной обработке информации, свойственные современным ЭВМ. Развитие оптических технологий все равно будет продолжаться, поскольку полученные результаты важны не только для создания оптических компьютеров, но также и для оптических коммуникаций и сети Internet.
1.2. Развитие квантовых компьютеров
Рассмотрим, что такое квантовый компьютер. Основной его строительной единицей является кубит (qubit, Quantum Bit). Классический бит имеет лишь два состояния - 0 и 1, тогда как состояний кубита значительно больше. Для описания состояния квантовой системы было введено понятие волновой функции, ее значение представляется в виде вектора с большим числом значений. Существуют волновые функции, которые называются собственными для какой-либо определенной величины. Квантовая система может находиться в состоянии с волновой функцией, равной линейной комбинации собственных функций, соответствующих каждому из возможных значений (такое состояние называется сложным), т. е. физически - ни в возбужденном, ни в основном состоянии. Это означает, что кубит в одну единицу времени равен и 0, и 1, тогда как классический бит в ту же единицу времени равен либо 0, либо 1. Как для классических, так и для квантовых компьютеров были введены элементарные логические операции: дизъюнкция, конъюнкция и квантовое отрицание, при помощи которых будет организована вся логика квантового компьютера.
Опишем, как работает квантовый компьютер. Согласно законам квантовой механики, энергия электрона, связанного в атоме, не произвольна. Она может иметь лишь определенный прерывный (дискретный) ряд значений Е0, Е1,... Еn называемых уровнями энергии. Этот набор называют энергетическим спектром атома. Самый нижний уровень энергии Е0, при котором энергия атома наименьшая, называется основным. Остальные уровни (Е1, Е2,... Еn) соответствуют более высокой энергии атома и называются возбужденными. Излучение и поглощение атомом электромагнитной энергии происходит отдельными порциями - квантами, или фотонами. При поглощении фотона энергия увеличивается - он переходит «вверх» - с нижнего на верхний уровень, при излучении фотона атом совершает обратный переход вниз.
Если атом в данный момент времени находится в одном из возбужденных состояний Е2, то такое состояние атома неустойчиво, даже если на него не влияют другие частицы. Через очень короткое время атом перейдет в одно из состояний с меньшей энергией, например Е1. Такой самопроизвольный (спонтанный) переход с одного уровня на другой и сопровождающее его спонтанное излучение столь же случайны во времени, как радиоактивный распад ядра атома. Предсказать точно момент перехода принципиально невозможно - можно лишь говорить о вероятности того, что переход произойдет через такое-то время. Но атом может перейти с уровня Е2 на Е1 не спонтанно, а под действием электромагнитной волны, если только частота этой волны достаточно близка к частоте перехода атома. Такая резонансная волна как бы «расшатывает» электрон и ускоряет его «падение» на уровень с меньшей энергией. Переходы, происходящие под действием внешнего электромагнитного поля, называются вынужденными (или стимулированными).
При создании квантового компьютера основное внимание уделяется вопросам управления кубитами при помощи вынужденного излучения и недопущении спонтанного излучения, которое нарушит работу всей квантовой системы. От рассказа о физике происходящих в квантовом компьютере процессов перейдем к тому, как эти свойства реализуются в экспериментальном образце квантового компьютера.
Для того чтобы практически реализовать квантовый компьютер, существуют несколько важных правил, которые в 1996 г. привел Дивиченцо (D.P. Divincenzo). Без их выполнения не может быть построена ни одна квантовая система:
 Точно известное число частиц системы.
 Возможность приведения системы в точно известное начальное состояние.
 Высокая степень изоляции от внешней среды.
 Умение менять состояние системы согласно заданной последовательности элементарных преобразований.
Выполнение этих требований вполне реально с помощью существующих квантовых технологий, однако для того, чтобы воплотить теорию в реальность, нужны гигантские суммы денежных средств, которые пока не могут быть выделены на финансирование исследований.

1.3. Создание нейрокомпьютеров
Для решения некоторых задач требуется создание эффективной системы искусственного интеллекта, которая могла бы обрабатывать информацию, не затрачивая много вычислительных ресурсов. И разработчиков «осенило»: мозг и нервная система живых организмов позволяют решать задачи управления и эффективно обрабатывать сенсорную информацию, а это огромный плюс для создаваемых вычислительных систем. Именно это послужило предпосылкой создания искусственных вычислительных систем на базе нейронных систем живого мира. Специалисты, добившись нужных результатов в этой области, создадут компьютер с большими возможностями.
Создание компьютера на основе нейронных систем живого мира базируется на теории перцептронов, разработчиком которой был Розенблатт. Он предложил понятие перцептрона - искусственной нейронной сети, которая может обучаться распознаванию образов. Предположим, что есть некоторая зенитно-ракетная установка, задача которой - распознать цель и определить наиболее опасную из них. Также есть два самолета вероятного противника: штурмовик и бомбардировщик. Зенитно-ракетная установка, используя оптические средства, фотографирует самолеты и отправляет полученные снимки на вход нейронной сети (при полностью сфотографированном самолете нейронная сеть быстро распознает его). Но если снимок получился плохо, то именно здесь используются основные свойства нейронной сети, одно из которых - возможность к самообучению. Например, на снимке отсутствует одно крыло и хвостовая часть самолета. Через некоторое (приемлемое) время нейронная сеть сама дорисовывает отсутствующие части и определяет тип этого самолета и дальнейшие действия по отношению к нему. Из распознанных штурмовика и бомбардировщика оператор данной зенитно-ракетной установки выберет для уничтожения более опасный самолет.
Перспективность создания компьютеров по теории Розенблатта состоит в том, что структуры, имеющие свойства мозга и нервной системы, имеют ряд особенностей, которые сильно помогают при решении сложных задач:
1) Параллельность обработки информации.
2) Способность к обучению.
3) Способность к автоматической классификации.
4) Высокая надежность.
5) Ассоциативность.
Нейрокомпьютеры - это совершенно новый тип вычислительной техники, иногда их называют биокомпьютерами. Нейрокомпьютеры можно строить на базе нейрочипов, которые функционально ориентированы на конкретный алгоритм, на решение конкретной задачи. Для решения задач разного типа требуется нейронная сеть разной топологии (топология - специальное расположение вершин, в данном случае нейрочипов, и пути их соединения). Возможна эмуляция нейрокомпьютеров (моделирование) - как программно на ПЭВМ и суперЭВМ, так и программно-аппаратно на цифровых супербольших интегральных схемах.
Искусственная нейронная сеть построена на нейроноподобных элементах - искусственных нейронах и нейроноподобных связях. Здесь важно заметить, что один искусственный нейрон может использоваться в работе нескольких (приблизительно похожих) алгоритмов обработки информации в сети, и каждый алгоритм осуществляется при помощи некоторого количества искусственных нейронов.

1.4. Новейшие достижения
Рассмотрим новейшие достижения в области компьютерных технологий.
1. Суперпамять.
Недавно американская фирма Nantero из Бостона, разработала технологию, позволяющую серийно производить чипы памяти на нанотрубках до 10Гб данных. Память нового поколения, использующая массив фуллереновых трубок на поверхности чипа кремния (NRAM, Nanoscale Random Access Memory) будет хранить данные даже после отключения питания устройства. Это наводит на мысли, как резко может измениться структура компьютера. Ведь по сути, это качественный скачок в производстве компьютеров. Загрузка компьютеров, оснащенных такой памятью, при включении будет происходить мгновенно. Да и быстродействие компьютеров значительно возрастет, так как не будет обращения к винчестеру. Винчестеры как таковые будут не нужны. Можно будет отказаться от системного блока.
Компьютер недалекого будущего состоит из следующих частей. Жидкокристаллический дисплей 19 дюймов на котором сзади располагается системная плата с процессором и памятью. Сейчас Intel выпустила наборы системной логики 865 и 875, с двухканальным контроллером памяти. Наверное, будет 4-х и 8-ми канальная организация памяти. Емкость памяти компьютера 100-200 Гб. От южного моста можно оставить 6 канальный звук. От CD и DVD приводов можно будет отказаться так, как данные удобней будет переносить на компактной флэш-памяти.
2. Робот-натуралист.
Американский дизайнер Сабрина Рааф представила робота, озабоченного проблемами экологии. «Translator II: Grower» представляет собой стальную платформу, которая держится стены и перемещается по периметру ком¬наты. Робот использует самый тривиаль¬ный сенсор углекислого газа для анализа состояния окружающей среды. Каждые несколько секунд машина делает замеры, после чего наносит на стену риску. Через полсантиметра - другую. Чем выше кон¬центрация углекислого газа, тем длиннее полоска. Такая своеобразная диаграмма информирует о состоянии окружающей среды. Особенно интересно наблюдать за поведением робота при большом скоп¬лении людей в помещении.
3. Наш новый суперкомпьютер.
Не так давно в Москве Объединенный институт проблем информатики Наци¬ональной академии наук Беларуси, Инсти¬тут программных систем Российской Ака¬демии Наук, компания «Т-Платформы» и корпорация AMD презентовали супер¬компьютер «СКИФ К-1000». Он предназна¬чен для решения широкого спектра задач в различных областях науки. Этого монстра собрали наши соотечественники совмест¬но с белорусскими коллегами из 576 процессоров AMD Opteron. Компьютер получился самым мощным на всей территории СНГ и Восточ¬ной Европы и занимает почетное 98 место в рейтинге самых скоростных машин ТОР500. Главное, что разра¬ботчики не остановились на достигнутом, и продолжают разработки. Возможно, скоро именно в России будут трудиться самые быстрые компьютеры.
4. Протез мозга.
Ученые из Южнокалифорнийского университета в Америке разрабо-тали микрочип, имитирующий работу участка головного мозга, отвечающего за запоминание информации. Тестиро¬вание проводилось на мозговых тканях обычной крысы. Оно прошло успешно - проанализиро-вав импульсы, полученные с чипа, уче¬ные пришли к выводу, что они абсолют¬но идентичны тем, которые дает срез ткани головного мозга. В ближай¬шее время команда ученых планирует провести опыты уже не на кусках ткани, а на живых животных. Если опыты пройдут удачно и не будет замечено никаких ано¬малий, то, разумеется, разработки будут продолжаться дальше. Хотя, как заявляет Теодор Бергер, до создания полноценно¬го протеза еще далеко. Например, пока не ясно, каким образом микрочип будет взаимодействовать с те¬ми участками мозга, с которыми его не получится соединить напрямую.
5. Робот-носильщик.
Компания Fujitsu представила универ¬сального робота-носильщика. Еще в фойе робот приветствует гостей отеля хриплым баритоном. Уточнив номер ком¬наты, Service Robot берет тяжелые чемо¬даны в обе «руки» и начинает движение в сторону лифта. А если вещей много, вы¬катывает специальную тележку. Элект¬ронная карта отеля, восемь камер и ульт-развуковые сенсоры позволяют роботу преодолевать любые препятствия. Пра¬вое и левое колеса вращаются независи¬мо, поэтому движение по наклонным и неровным поверхностям дается легко. Используя систему обработки трехмер¬ных изображений, робот может хватать предметы и протягивать их гостям. За реалистичное движение «рук» отвечает модель нервной системы позвоночных. В продолжение своей миссии Service Robot нажимает кнопку вызова лифта, подни¬мается на этаж и провожает гостей в но¬мер. Робот чутко воспринимает голосо¬вые инструкции. Три микрофона позволя¬ют ему определить источник команд, что¬бы обернуться на голос. Справки об оте¬ле можно получить на цветном сенсор¬ном экране. Робот подключен к интерне¬ту по интерфейсу Wi-Fi 802.11b. Дроид самостоятельно контролирует заряд батареи и время от времени отправляется на базу для индукционной подзарядки без прямого контакта с зарядным устрой¬ством. Ночью робот патрулирует коридоры отеля. Размеры Service Robot -65x57x130 см. Вес робота - 63 кг. Ско¬рость движения - до 3 км/ч. Service Robot поступил в продажу в июне 2005 года по цене 18 тысяч долларов.

2. ПРАКТИЧЕСКОЕ ЗАДАНИЕ
2.1. Исходные данные
Организация ООО «Тобус» начисляет амортизацию на свои основные средства (ОС) линейным методом согласно установлен¬ному сроку службы (рис. 14.1). При этом необходимо отслеживать ОС в разрезе подразделений (рис. 14.2).
Сумма амортизации = Первоначальная стоимость/Срок службы
Начисление амортизации следует производить, только если ОС находится в эксплуатации.
Организовать ведение журнала регистрации ОС по подраз¬делениям и ежемесячные начисления амортизации согласно со¬стоянию ОС (рис. 14.3).
1. Создать таблицы по приведенным ниже данным (рис. 14.1 - 14.3).
2. Организовать межтабличные связи для автоматического заполнения графы журнала учета ОС (рис. 14.3): «Наименование ОС», «Наименование подразделения», «Срок службы, мес.».
3. Определить общую сумму амортизации по каждому ОС.
4. Определить общую сумму амортизации по конкретному подразделению.
5. Определить общую сумму амортизации по каждому ме¬сяцу.
6. Определить остаточную стоимость ОС.
7. Построить гистограмму по данным сводной таблицы.

Рис. 14.2. Список подразделений организации.

Рис. 14.3. Расчет суммы амортизации ОС.

2.2. Выполнение задания
Для выполнения этого задания удобнее всего воспользоваться программой Excel.
С помощью программы Excel можно создавать самые различные документы. Рабочие листы (Sheets) можно использовать для составления таблиц, вычисления статистических оценок, управления базой данных и составления диаграмм. Для каждого из этих приложений программа Excel может создать отдельный документ, который сохраняется на диске в виде файла.
Файл может содержать несколько взаимосвязанных рабочих листов, образующих единый трехмерный документ (блокнот, рабочую папку). С помощью трехмерных документов пользователь получает прямой доступ одновременно к нескольким таблицам и диаграммам, что повышает эффективность их обработки.
Все данные таблицы записываются в так называемые ячейки, которые находятся на пересечении строк и столбцов таблицы. По умолчанию содержимое ячейки представляется программой Excel в стандартном формате, который устанавливается при запуске программы. Например, для чисел и текстов задается определенный вид и размер шрифта.
В программе Excel имеются контекстные меню, которые вызываются правой кнопкой мыши, когда промаркирована некоторая область таблицы. Эти меню содержат много директив обработки и форматирования таблиц. Директивы форматирования можно также вызвать на панели форматирования (вторая строка пиктографического меню), щелкнув мышью по соответствующей пиктограмме.
Отдельные ячейки таблицы маркируются (выделяются) автоматически с помощью указателя ячеек. Чтобы перевести указатель в заданную ячейку, нужно щелкнуть по ней левой кнопкой мыши или использовать клавиши управления курсором. Для маркировки нескольких ячеек нужно щелкнуть в начале маркируемой области (левый верхний угол) и, удерживая кнопку мыши нажатой, перемещать манипулятор в конец области (правый нижний угол). Чтобы отменить маркировку области, можно просто щелкнуть по немаркированной ячейке. Для маркирования нескольких ячеек с помощью клавиатуры необходимо установить указатель ячеек в начальную ячейку области, а затем, удерживая клавишу нажатой, распространить маркировку на всю область с помощью клавиш управления курсором.
Одна строка или столбец таблицы маркируются щелчком по номеру (адресу), который расположен в заголовке строки или столбца. Для маркирования нескольких строк или столбцов нужно щелкнуть по номеру первой строки (столбца), а затем, удерживая кнопку мыши нажатой, переместить манипулятор в нужную позицию.
Возможность использования формул и функций является одним из важнейших свойств программы обработки электронных таблиц. Это, в частности, позволяет проводить статистический анализ числовых значений в таблице.
Текст формулы, которая вводится в ячейку таблицы, должен начинаться со знака равенства (=), чтобы программа Excel могла отличить формулу от текста. После знака равенства в ячейку записывается математическое выражение, содержащее аргументы, арифметические операции и функции.
В качества аргументов в формуле обычно используются числа и адреса ячеек. Для обозначения арифметических операций могут использоваться следующие символы: + (сложение); - (вычитание); * (умножение); / (деление).
Формула может содержать ссылки на ячейки, которые расположены на другом рабочем листе или даже в таблице другого файла. Однажды введенная формула может быть в любое время модифицирована. Встроенный Менеджер формул помогает пользователю найти ошибку или неправильную ссылку в большой таблице.
Кроме этого, программа Excel позволяет работать со сложными формулами, содержащими несколько операций. Для наглядности можно включить текстовый режим, тогда программа Excel будет выводить в ячейку не результат вычисления формулы, а собственно формулу.
Выполненное задание расположено в приложении.
ЗАКЛЮЧЕНИЕ
Создание качественно новых вычислительных систем с более высокой производительностью и некоторыми характеристиками искусственного интеллекта, например с возможностью самообучения,- очень актуальная тема. Последние десять лет такие разработки ведутся во многих направлениях - наиболее успешными и быстро развивающимися из них являются квантовые компьютеры, нейрокомпьютеры и оптические компьютеры, поскольку современная элементная и технологическая база имеет все необходимое для их создания.
В данной работе рассматривались три вида компьютеров: квантовые компьютеры, которые построены на основе явлений, возникающих в квантовой физике и дающих мощный вычислительный агрегат при решении задач сложных вычислений; нейрокомпьютеры и оптические компьютеры, которые построены на различной теоретической базе, но схожи в том, что и те и другие занимаются обработкой информации.
С достоверностью известно, что уже сейчас существуют системы обработки информации, построенные на объединении оптических и нейронных компьютеров, - это так называемые нейроно-оптические компьютеры. Для того чтобы создать мощную систему обработки информации, пришлось разработать гибридную систему, т. е. имеющую свойства как оптических, так и нейронных компьютеров. С целью проиллюстрировать практическое воплощение компьютерного прогресса в данной работе были приведены примеры новейших изобретений в сфере высоких технологий.

СПИСОК ЛИТЕРАТУРЫ
1. Андрейчиков А.В., Андрейчикова О.Н. Интеллектуальные информационные системы / Учебник. – СПб: Питер, 2004.
2. Барановская Т.П. и др. Архитектура компьютерных систем и сетей / Учеб. пособие. – М.: Наука, 2003.
3. Барановская Т.П. и др. Информационные системы и технологии в экономике / Учебник. - 2-е изд., доп. и перераб. – М.: Дело, 2005.
4. Экономическая информатика / Учебник / Под ред. В.П. Косарева - 2-е изд. перераб. и доп. – М.: Инфра-М, 2005.
5. Макарова Н.В. Информатика / Учебник. - 3-е издание, перераб. – М.: Финансы и статистика, 2006.
6. Фигурнов В.Э. IBM PC для пользователя. - М.: Инфра–М, 2003.

ПРИЛОЖЕНИЕ

Похожие материалы

Направления развития компьютерной техники .( тенденции)

На данный момент активно ведутся разработки молекулярных устройств, оптических и квантовых компьютеров, а также ДНК-компьютеров.

В основе молекулярных компьютеров лежат бистабильные молекулы, которые могут находится в двух устойчивых термодинамических состояниях. Каждое такое состояние характеризуется своими химическими и физическими свойствами. Переводить молекулы из одного состояния в другое можно с помощью света, тепла, химических агентов, электрических и магнитных полей. По сути, эти молекулы являются транзисторами размером в несколько нанометров.

Благодаря малым размерам бистабильных молекул можно увеличить количество элементов на единицу площади. Другим достоинством молекул является малое время отклика, которое составляет порядка 10 -15 с. Соединяют функциональные элементы нанотрубки или сопряженные полимеры.

Другой тип компьютеров нового поколения также основан на молекулах, но уже молекулах ДНК . Впервые ДНК–вычисления были проведены в 1994 г. Леонардом Эдлеманом, профессором Университета Южной Калифорнии, для решения задачи торгового агента. В ДНК-компьютерах роль логических вентилей играют подборки цепочек ДНК, которые образуют друг с другом прочные соединения. Для наблюдения состояния всей системы в последовательность внедрялись флуоресцирующие молекулы. При определенных сочетаниях свечения молекул подавляли друг друга, что соответствовало нулю в двоичной системе. Единице же соответствовало усиленное свечение флюоресцентов. Возможно строить последовательности цепочек, в которых выходной сигнал одной цепочки служит входным сигналом другой.

Главное достоинство такого компьютера - работоспособность внутри тела человека, что дает возможность, например, осуществлять подачу лекарства там, где это необходимо. Также такие компьютеры позволят моментально производить идентификацию заболеваний в организме.

Еще два варианта КОМПЬЮТЕРА БУДУЩЕГО - фотонный и квантовый компьютеры. Первый работает на оптических процессах, и все операции в нем выполняются посредством манипуляции оптическим потоком. Преимущества такого компьютера заключаются в свойствах световых потоков. Скорость их распространения выше, чем у электронов, к тому же взаимодействие световых потоков с нелинейными средами не локализовано, а распределено по всей среде, что дает новые степени свободы (по сравнению с электронными системами) в организации связей и создании параллельных архитектур. Производительность оптического процессора может составлять 10 13 -10 15 операций в секунду. На сегодняшний день есть прототипы оптических процессоров, способные выполнять элементарные операции, но полноценных и готовых к производству компьютеров нет.


Квантовый компьютер основан на законах квантовой механики. Для выполнения операций квантовый компьютер использует не биты, а кубиты - квантовые аналоги битов. В отличие от битов, кубиты могут одновременно находится в нескольких состояниях. Такое свойство кубитов позволяет квантовому компьютеру за единицу времени проводить больше вычислений. Область применения квантового компьютера – переборные задачи с большим числом итераций.

КВАНТОВЫЙ КОМПЬЮТЕР - проблема создания

Все прототипы компьютеров будущего – ДНК-компьютеры, молекулярные и фотонные - разные грани одного целого - идеи создания полнофункционального квантового компьютера. Все микрочастицы, будь то кванты, атомы или молекулы - могут быть описаны волновой функцией состояния и подчиняются единым законам квантовой механики. Таким образом, работы над каждым типом компьютеров базируются на одном фундаменте. Но у них есть и общие проблемы. Необходимо научиться объединять частицы в совокупности и работать как с каждой частицей в отдельности, так и с совокупностью в целом. К сожалению, на сегодняшний день технологии не позволяют производить такие манипуляции. К тому же система управления должна поддерживать масштабируемость системы частиц, благодаря которой можно наращивать мощность компьютера. Решение этой проблемы станет очередным прорывом в науке. Над созданием квантового компьютера работают в лабораториях всего мира, в том числе и российских. Например, с 2001 года в Казанском физико-техническом институте начали вести работы в области квантовой памяти и на сегодняшний день исследуют новые твердотельные материалы, пригодные для хранения кубитов. Также решается задача длительности хранения информации, но пока что это время составляет всего несколько миллисекунд. Сергей Моисеев - ведущий научный сотрудник Казанского физико-технического института прокомментировал ситуацию с созданием квантового компьютера так: «Насколько я себе представляю, дело в том, что сложность этой проблемы была не сразу осознана. После того как был проведен первый цикл исследований, были сформулированы проблемы, в том числе и физические, которые предстояло решить. На данный момент создание квантового компьютера напоминает своего рода современный Манхэттенский проект. Цель - создать квантовый компьютер, оперирующий 1000 кубитами, с возможностью его масштабируемости».

Однако развитие квантового компьютера тормозят не только технические проблемы, но и экономические. Долгое время на решение этой задачи выделялось крайне мало средств, особенно в России. Инновационный проект, в случае его успеха, начнет приносить доход лишь спустя длительное время, при этом на этапе старта потребуются крупные капиталовложения. Сейчас, когда преимущества квантового компьютера стали очевидны, начали появляться и инвестиции, но их доля относительно других отраслей по-прежнему невелика.

Что же касается текущей ситуации в мире, то уже есть модель, работающая на двух кубитах. Конечно это не 1000, к которым стремятся ученые, но он уже может найти множители, на которые разлагается число. Потенциал же килокубитного квантового компьютера огромен. Он сможет за минуты просчитывать данные, на которые у нынешних систем уйдут годы, а то и десятилетия. С точки зрения информационной безопасности, как только будет построен квантовый компьютер, все системы защиты данных с открытым ключом рухнут, так как квантовый алгоритм позволяет быстро взломать коды. Самый производительный современный компьютер, если и решит эту задачу, то за несколько лет. Сегодня криптозащита держится только по той причине, что квантовый компьютер находится в самом начале своего развития и 2-3-х кубитов не достаточно для взлома шифров.

Предвидя такое развитие событий, компании задумываются о квантовой криптографии, против которой компьютер нового поколения будет бессилен. Особенность квантовой криптозащиты в том, что при попытке «подслушать» информацию она разрушается по закону неопределенности Гейзенберга. Таким образом, при попытке получить доступ к зашифрованному потоку, информация в нем будет утеряна. Однако не стоит считать неуязвимость квантовой криптозащиты абсолютной, как и в любой системе, в ней есть свои слабые места.

Специалисты утверждают, что ближайшая реализация квантового компьютера - система finger printing в научном мире известная, как метод характеристических признаков. Она будет содержать примерно 20-30 кубитов и предназначена для выделения «струны» – последовательности данных из базы данных, содержащей небольшой бит информации с некими характерными признаками. И если сравнить эту «струну» со «струной» из другой базы, то с определенной долей вероятности можно определить, одинаковые эти базы данных или нет. В течение нескольких ближайших лет фирма HP собирается представить такой компьютер, работающий на квантовых точках. Нити с определенной вероятностью довольно точно описывают исходную базу. И если две выбранные последовательности признаков совпадают, то можно предположить, что и исходные базы данных одинаковы. Например, при сканировании сетчатки глаза в системе контроля доступа можно снимать информацию не обо всей сетчатке, а только определенные параметры. Совокупность таких параметров и будет «струной». Квантовый компьютер не будет конкурентом нынешним, скорее, он предназначен для решения задач с огромным количеством исходной информации и большим числом переменных. Такие задачи характерны для систем криптографии и безопасной передачи данных, биологии и медицины, моделирования квантовых систем, оптимизации различных процессов.

Классификация компьютеров

Номенклатура видов компьютеров в настоящее время огромна: машины различаются по назначению, мощности, размерам, используемой элементной базе, совместимости, устойчивости по отношению к воздействию неблагоприятных условий и т. д. Для наших целей наиболее интересно сгруппировать компьютеры по производительности, габаритным характеристикам (размеры, вес) и по назначению. Заметим сразу, что классификация в известной мере условна, так как границы между группами размыты и очень подвижны во времени: развитие этой отрасли науки и техники столь стремительно, что, например, сегодняшниеяя микро-компьютеры не уступаеят по мощности мини-компьютерам пятилетней давности.

Принятая на сегодня градация компьютеров представлена в табл. 2.1. Отдельно стоит класс персональных компьютеров

· массовый ПК (Consumer PC),

· переносной (портативный) ПК (Mobile PC),

· деловой ПК (Office PC),

· рабочая станция (Workstation PC)

· развлекательный (мультимедийный) ПК (Entertainment PC).

Категория массовых ПК является базовой, в нее попадает большинство из имеющихся в настоящее время ПК. Для категории переносных ПК предъявляется обязательное требование присутствия средств компьютерной связи. В категории деловых ПК понижены требования к работе с графикой и совсем нет требований по воспроизводству звука. В категории рабочих станций усилены требования к устройствам памяти. В категории мультимедийных ПК особые требования предъявляются к качеству изображений и звука.

Классы современных компьютеров. Таблица 2.1

Класс компьютера Основное назначение Основные технические данные Цена, $ (ориентировочно)
Супер-компьютеры Сложные научные расчеты Интегральное быстродействие до десятков миллиардов операций в секунду; число параллельно работающих процессоров до 100 до 10000000
Большие компьютеры (мэйн-фреймы) Обработка больших объемов информации крупных предприятий, банков Мультипроцессорная архитектура; подключение до 200 рабочих мест до 250000
Супер мини-компьютеры Системы управления предприятиями; многопультовые вычислительные системы Мультипроцессорная архитектура; подключение до 200 терминалов; дисковые запоминающие устройства, наращиваемые до сотен Гбайт до 180000
Мини-компьютеры Системы управления предприятиями среднего размера; многопультовые вычислительные системы Однопроцессорная архитектура, разветвленная периферия до 100000
Рабочие станции Системы автоматизированного проектирования, системы автоматизации экспериментов Однопроцессорная архитектура, высокое быстродействие процессора; специализированная периферия до 50000
Продолжение таблицы 2.1
Класс компьютера Основное назначение Основные технические данные Цена, $ (ориентировочно)
Микро-компьютеры до 5000
Микро-компьютеры Индивидуальное обслуживание пользователя (см. ПК); работа в локальных автоматизированных системах управления Однопроцессорная архитектура, гибкость конфигурации - возможность подключения разнообразных внешних устройств до 510000

Отдельно стоит класс персональных компьютеров (ПК), включающий машины, предназначенные для обслуживания одного рабочего места. Особенно широкое распространение этот класс получил в 1990-х г.г. вследствие бурного развития глобальной компьютерной сети Internet. В настоящее время в отношении ПК действует международный сертификационный стандарт – спецификация PC99. В нем представлены принципы классификации ПК и минимальные требования к каждой из следующих категорий:

·массовый ПК (Consumer PC),

·переносной (портативный) ПК (Mobile PC),

·деловой ПК (Office PC),

·рабочая станция (Workstation PC)

·развлекательный (мультимедийный) ПК (Entertainment PC).

Категория массовых ПК является базовой, в нее попадает большинство из имеющихся в настоящее время ПК. Для категории переносных ПК предъявляется обязательное требование присутствия средств компьютерной связи. В категории деловых ПК понижены требования к работе с графикой и совсем нет требований по воспроизводству звука. В категории рабочих станций усилены требования к устройствам памяти. В категории развлекательных мультимедийных ПК особые требования предъявляются к качеству изображений и звука.

Стоимость портативного ПК в два-пять раз выше, чем у массового, имеющего такие же основные параметры (размер оперативной памяти, тип процессора, емкость жесткого диска и т. д.).

Отнесение машин к той или иной категории весьма условно как из-за размытости границ между ними, так и вследствие широкого внедрения в жизнь практики заказной сборки машин, когда номенклатура узлов ПК и даже конкретные модели подгоняются под требования заказчика.

На протяжении недавней истории ЭВМ, то есть примерно с середины 60-х годов, когда полупроводники уже полностью вытеснили электронные лампы из элементной базы вычислительных машин, в развитии этой области техники произошло несколько драматических поворотов. Все они явились следствием, с одной стороны, бурного развития технологии микропроцессоров, с другой - интенсивного прогресса программного обеспечения компьютеров. Тот и другой процессы развивались параллельно, подстегивая друг друга, в какой-то мере конкурируя. Новые технические возможности, появлявшиеся с созданием новых элементов и устройств, позволили разработать более совершенные (и функционально и по производительности) программы; это, в свою очередь, порождало потребность в новых, более совершенных компонентах и т. д.

В 60-е годы, в эпоху машин третьего поколения, то есть машин на базе отдельных полупроводниковых элементов и интегральных схем, небольшой плотности (типичные представители - компьютеры семейства IBM 360), пользователи пришли к осознанию необходимости изменения организации использования компьютера. До этого компьютер предоставлялся в распоряжение одного человека (это был либо оператор, выполняющий готовую программу, либо программист, занятый разработкой новой программы). Такой порядок не позволял использовать весь потенциал машины. Поэтому возникла технология так называемой пакетной обработки заданий, характерная тем, что пользователь был отделен от машины. Он должен был заранее подготовить свое задание (чаще всего - в виде колоды перфокарт с управляющими кодами и исходными данными), и передать его в руки операторов, которые формировали очередь заданий. Таким образом, машина получала для обработки сразу несколько заданий и не простаивала в ожидании каждого нового задания или реакции пользователя на свои сообщения. Но и этого оказалось недостаточно: по быстродействию центральный процессор намного опережал внешние устройства, такие как считыватели перфокарт и перфолент, алфавитно-цифровые печатающие устройства, и потому его мощность оказывалась не полностью использованной. Возникла идея организации многозадачного использования процессора. Её суть состояла в том, что процессор как бы одновременно выполнял несколько программ («как бы» - потому, что на самом деле процессор работал по-прежнему последовательно). Но когда, например, в рамках какой-то программы очередь доходила до обмена с внешним устройством, эта операция перепоручалась недорогому специализированному устройству, а центральный процессор переключался на продолжение другой программы и т. д. Таким образом, коэффициент использования аппаратной части вычислительной установки резко возрос. В рамках одного из направлений развития идеи многозадачности появились и так называемые многопультовыесистемы. Они представляли собою комплексы, состоявшие из центрального компьютера и группы видеотерминалов (числом до нескольких десятков). Человек-оператор, работавший за пультом такого терминала, ощущал себя полным распорядителем машины, поскольку компьютер реагировал на его действия (в том числе команды) с минимальной задержкой. В действительности же центральный компьютер квазикак бы -одновременно работал со многими программами, переключаясь с одной на другую в соответствии с определенной дисциплиной (например, уделяя каждому терминалу по нескольку миллисекунд в течение секунды).

В 1971 г. был создан первый микропроцессор, то есть функционально законченное устройство, способное выполнять обязанности центрального процессора (правда, в то время, - весьма маломощного). Это имело значение поворотного момента в истории вычислительной техники. (И не только вычислительной: в дальнейшем прогресс микроэлектроники привел к существенным переменам и в других областях - в станкостроении, автомобилестроении, технике связи и т. д.). Совершенствование технологии, опиравшееся на достижения фундаментальных наук, на успехи оптики, точного машиностроения, металлургии, керамики и других отраслей, дало возможность получить микропроцессоры со всё большим количеством элементов размещенных на поверхности полупроводникового кристалла со всё большей плотностью, а, значит, - всё более мощные компьютеры. Одновременно, (что очень важно) , заметно падала и их себестоимость. Забота о возможно более полном использовании вычислительных ресурсов теряла свою остроту, и даже актуальность.

В 1979 г. появился первый персональный компьютер. Мировой лидер в производстве средств вычислительной техники, корпорация IBM, отреагировала на его появление с некоторым запаздыванием, но в 1980 г. выступила на рынке со своим PC IBM, самой важной особенностью которого была так называемая открытая архитектура . Это означает, во-первых, возможность реализации принципа взаимозаменяемости, то есть использования для сборки ПК узлов от разных производителей (лишь бы они соответствовали определенным соглашениям), и во-вторых - возможность доукомплектования ПК, наращивания его мощности уже в ходе его эксплуатации. Это смелое и дальновидное техническое решение дало мощный толчок всей индустрии ПК. Десятки и сотни фирм включились в разработку и производство отдельных блоков и целых ПК, создав всплеск большой спроса на элементы, новые материалы, новые идеи. Все последующие годы отмечены фантастически быстрым совершенствованием микропроцессоров (каждые пять лет плотность размещения элементов на полупроводниковом кристалле возрастала в десять раз!), запоминающих устройств (оперативных и накопительных), средств отображения и фиксации данных. И, как уже указывалось, очень существенно то, что одновременно снижались себестоимость и цены на ПК.

В конечном счете, последние два десятилетия ознаменованы широчайшим распространением ПК во всех сферах человеческой деятельности, (включая быт, досуг и домашнее хозяйство). Заметны и социальные последствия этого феномена (это -важный отдельный вопрос). . Стоит отметить, что ПК стали преобладать и как аппаратная база в системах управления, вытесняя оттуда большие компьютеры., чЭто привело к ряду негативных последствий (, в частности, к неприемлемому снижению уровня централизации и частичной потере управляемости, что, правда частично компенсировалось развитием новых сетевых технологий, например – сетей типа «тонкий клиент»).

Как и ранее, технологические достижения принесли не только удовлетворение, но и новые проблемы. Усилия по их разрешению приводят к новым интересным результатам как в аппаратной сфере, так и в создании новых программных средств и систем. Проиллюстрируем это положение несколькими примерами.

Увеличение емкости накопителей и снижение стоимости хранения данных дало толчок расширению применения баз данных в составе систем управления разного назначения, возросло осознание ценности баз данных. Отсюда возникла потребность предоставить доступ к информационным ресурсам многим пользователям (тем, кому это необходимо по роду службы). .Ответом на нее стало создание локальных вычислительных сетей. Такие сети позволяют решить и задачу повышения загрузки дорогостоящих аппаратных средств (, например, лазерных или светодиодных принтеров, плоттеров). Появление сетей, в свою очередь, обострило потребность в еще более мощных накопителях и процессорах и т. д.

Увеличение быстродействия процессоров и емкости ОЗУ создало предпосылки для перехода к графическому интерфейсу. Для IBM-подобных компьютеров это была сначала графическая оболочка Windows, а затем - полноценные операционные системы (Windows -95, -98, -2000, -XP). Но одновременно все более ощутимым стало и осознание неполного доиспользованностиния вычислительной мощности аппаратной части компьютера. Возродилась, правда уже нана новой основе, идея многозадачности. Она воплощена в тех же новых операционных системах. Так что, работая, например, под Windows 982000, можно одновременно выполнять обработку какого–то массива данных, распечатывать результаты предыдущей программы и принимать электронную почту.

Компьютеризация всех сфер жизни вызвала повышенное внимание масс рядовых пользователей к такой важной теме как воздействия компьютера на состояние здоровья. Этому способствуют и многочисленные публикации последнего времени в отечественной и зарубежной прессе. Так, по данным Министерства Труда США, “повторяющиеся травмирующие воздействия при работе с компьютером"” обходятся корпоративной Америке в 100 млрд. $ ежегодно. При этом пострадавшие иногда расплачиваются жестокими болями в течение всей жизни. Актуальность проблематики очевидна. Вместе с тем, уровень отечественных медицинских публикаций на эту тему либо сильно завышен и не доступен рядовому пользователю (статьи в изданиях для врачей) либо занижен, так как не предусматривает комплексного анализа ситуации. Обычно авторы популярных изданий сосредотачивают внимание на чем - то одном, и чаще всего это – тема влияния излучений от электронно-лучевого монитора.

Да, действительно, вокруг такого монитора присутствуют переменные электрическое и магнитное поля, имеется рентгеновское излучение. Однако технические характеристики мониторов и других частей компьютера в настоящее время жестко контролируются специальными международными стандартами, что исключает вредные воздействия при правильной эксплуатации. Любой уважающий себя производитель или поставщик компьютерного оборудования стремится получить на него сертификат по шведскому международному стандарту ТСО. Покупателю остается удостовериться в наличии такого сертификата и далее он может быть уверен в высоком качестве монитора. Кроме того, проблема влияния излучений полностью отсутствует у жидкокристаллических мониторов, доля которых на рынке превысила в настоящее время 50%. Таким образом, пользователь не должен испытывать своего рода фобии при постоянной работе с компьютером, необходимио лишь уделить должное внимание правильной организации своего рабочего места и соблюдению режима работы. Все необходимые для этого рекомендации содержатся в официальном документе Министерства Здравоохранения РФ “Санитарные правила и нормы. Сан ПиН 2.2.2.542-96.”

Обилие ПК в конторах и на предприятиях иногда создает ложное впечатление об уходе больших и средних машин из сферы управления, из систем обработки деловой информации. Однако это не так. Например, в крупных банках ПК используются в основном как устройства оформления первичных операций и средства общения с клиентами, то есть в качестве терминалов, а все проводки, проверки кредитоспособности и т. п. операции выполняются на больших компьютерах. И на промышленных предприятиях при построении автоматизированных информационных систем также может оказаться более рентабельным применение многопультовой системы на базе большого или среднего компьютера. Так, например, стоимость одного рабочего места в многопультовой системе на базе компьютера типа ЕС 1066 стоказываетсяановится ниже, чем при использовании ПК, начиная с числа терминалов, равного 200.

Подводя итоги, можно сказать, что основные наблюдаемые ныне тенденции развития компьютерной техники выражаются в следующем:

· Продолжается рост вычислительной мощности микропроцессоров. При дальнейшем увеличении плотности размещения элементов тактовая частота процессоров перевалила барьер 32 Ггц. Наиболее популярны модели Intel Pentium-4 2600-3200 (высокая скорость без мелких, но часто очень мешающих про­блем), AMD Athlon XP 2600-2800 (отличная произво­дительность по приемлемой цене).

· Повышение мощности микропроцессоров позволяет совмещать в одном элементе («на одном кристалле») все большее число устройств. Это, в свою очередь, дает возможность реализовать на одной печатной плате большее число функций и за счет этого сокращать число отдельных блоков компьютера;

· Расширяется набор функций, реализуемых в одном ПК, он становится все более «разносторонним» аппаратом. Особенно наглядно это проявляется в мультимедийном компьютере, который представляет собой, по существу, функциональный комбайн: помимо своих «прямых обязанностей» - обработки алфавитно–цифровой информации он способен работать со звуком (воспроизведение и запись; редактирование, включая создание специальных эффектов и др.); воспроизводить видеосигнал (прием телепередач; запись кадров и их обработка; воспроизведение аналоговых и цифровых видеозаписей, компьютерных анимаций и др.); эффективно работать в компьютерных сетях. Многообразие возможностей требует, в свою очередь, расширения номенклатуры компонентов и существенного повышения мощности базовых блоков.