Глава 1. Начинка компьютера. Особенности мобильных компьютеров
Глава 2. Мультимедиа
Глава 3. Компьютерные порты
Глава 4. Сменные носители
В мире первых персональных компьютеров, приблизительно до рубежа тысячелетия, было жить очень просто – существовало вполне счетное количество разновидностей процессоров, имевших четкие различия по характеристикам. Если «чайник» оказывался перед необходимостью выбора, то срабатывал простейший критерий тактовой частоты – понятно, что 486DX с частотой 33 МГц будет работать медленнее, чем 486DX4 с частотой 120 МГц. Мало кого волновали другие различия между этими моделями – в частности, производительность разных моделей 80486 могла различаться в разы даже при одной и той же тактовой частоте, но на практике никто особенно не обращал на это внимания – производительность всей системы оставалась примерно на том же уровне, и возможности тоже были примерно одинаковыми.
Где-то к середине 2000-х годов положение резко изменилось. Сейчас число одновременно выпускающихся только основными производителями (Intel и AMD) моделей процессоров со всеми модификациями – сотни разновидностей, и в них легко запутается даже знаток. Производители достигли физического порога увеличения тактовой частоты – она остановилась примерно на уровне 3-х с лишним гигагерц, и этот критерий перестал быть определяющим. Обратите внимание: при частоте 3 ГГц за время одного такта сигнал, скорость которого, между прочим, равна скорости света, проходит всего 10 сантиметров! Это вызывает определенные сложности при проектировании системных плат – при различной длине проводников сигналы по разным линиям будут «разъезжаться» по времени. Это заставило пересмотреть многие традиционные принципы построения компьютерных систем – в частности, повсеместный переход на последовательные интерфейсы взамен параллельных, из-за чего пришлось практически обновлять весь парк жестких дисков и видеокарт.
Множество достаточно производительных систем, предлагаемых сейчас торговлей, имеют тактовую частоту намного ниже практически достижимого порога. Скорость работы компьютеров, наконец, стала определяться не тактовой частотой, а организацией обмена информацией и различными нововведениями в этой области, подтягивающими узкие места. В результате компьютер производства 2003 года может отставать по производительности от компьютера производства 2010 года с той же тактовой частотой процессора (и даже с тем же по видимости типом процессора) в разы.
С другой стороны, производители обнаружили, что такая высокая производительность требуется вовсе не всегда – большинство практических задач совсем не предполагают никаких экстремальных расчетов, и с ними могут справиться вполне рядовые системы. Не то, чтобы задач, требующих повышенной производительности, вообще не существовало – просто ее повышение на 30 % и даже в два раза проблем не решает. Примером могут служить интеллектуальные функции машин – например, нет сомнений, что проблему машинного языкового перевода решить можно. Но вычислительную мощность, которая для этого потребуется, можно оценить на примере родственной задачи – компьютер «Ватсон», выигравший в 2011 году американскую телевикторину Jeopardy (в России эта программа называется «Своя игра»), по вычислительной мощности входит в сотню самых производительных суперкомпьютеров мира. Да, его научили «понимать» запросы на естественном языке практически без ограничений, распознавать юмор, учитывать социокультурный контекст, что очень важно как раз в случае перевода с одного языка на другой. Но даже довольно ограниченный интеллект в рамках такой определенной задачи потребовал почти трех тысяч процессорных ядер и 16 терабайт памяти – и, не забудем, четырех лет на разработку уникального программного обеспечения.
Возможности «Ватсон» в сотни раз превышают возможности современных настольных машин, и чтобы их расширить, производителям придется обойти еще не один технический порог, подобный уже возникшему физическому ограничению по тактовой частоте. Когда-нибудь они это, без сомнения, сделают или найдут другие пути решения проблемы экстремальных задач (например, «облачные вычисления»), а пока приходится обходиться тем, что имеется в наличии.
С уверенностью можно сказать, что в большинстве случаев для рядовых пользователей выбор центрального процессора сегодня решающего значения не имеет – мощность компьютера даже со слабым процессором все равно позволит выполнять почти любые практические задачи. Собственно, выбирать процессор сегодня приходится лишь в одном случае – при покупке нового настольного компьютера (десктопа). Ноутбуки и тем более другие мобильные устройства (нетбуки, планшеты или смартфоны) по критерию процессора, как и вообще аппаратной платформы в целом, выбирать бессмысленно – их выбирают по функциональности и цене. В крайнем случае можно озаботиться качеством дисплея.
А в случае десктопа действительно приходится начинать выбор именно с процессора. Как и когда-то, такой выбор обуславливает производительность компьютера в целом. Только теперь не столько потому, что такой-то процессор медленнее или быстрее другого, сколько из-за того, что выбор процессора влечет за собой выбор управляющего чипсета, а следовательно, и типа материнской платы, системы охлаждения и многих других мелочей, а именно от этого сегодня зависит функциональность и производительность компьютера в целом. Так, контроллер доступа к памяти в современных системах в ряде случаев встроен в процессор (обычно это процессоры, поддерживающие 64-разрядные вычисления), и потому, выбрав процессор, вы оказываетесь жестко привязаны к определенному типу памяти.
Особо следует поговорить о выборе между 32-разрядными и 64-разрядными системами. Большинство современных процессоров поддерживает 64-разрядные вычисления (включая даже почти все модификации самого простого и дешевого процессора Intel под названием Atom, предназначенного в основном для мобильных компьютеров). Названия таких процессоров и чипсетов к ним дополнительно включают в себя цифру 64: «Intel 64», «amd64», «x86-64», «x64», «EM64T» – разные названия одной и той же технологии.
На практике преимущество 64-разрядных систем заключается не в собственно разрядности вычислений (это может и не дать заметного эффекта), а в том, что системы с такой разрядностью могут поддерживать гораздо больший объем памяти. Сравните – обычная 32-разрядная Windows XP поддерживает физическую память максимум в 4 гигабайта, из которых реально работает около 3,5. 64-разрядная Windows XP поддерживает уже 16 Гбайт, а Windows 7 – до 192 Гбайт (в зависимости от редакции), что фактически равно объему современных жестких дисков.
Но также понятно, что для достижения реального эффекта в таких системах нужно еще много условий. Нужны не просто соответствующие драйверы, которые могут работать в 64-разрядной системе – они вместе с аппаратурой должны реально поддерживать 64-разрядный режим расчетов. Нужны соответствующие программы – обычные 32-битные, естественно, не дадут никакого прироста производительности, даже если их приспособить для работы в 64-разрядной среде. Наконец, нужны собственно задачи, для которых эффект будет значимым: включающие объемные вычисления и оперирование большими объемами данных. Таких задач, как уже говорилось, у обычного пользователя сегодня практически нет – даже с преобразованиями фотографий формата настенных календарей рядовая современная персоналка справляется, как говорится, «на раз».
Возможно, в скором времени все персональные компьютеры и системы для них станут 64-разрядными, и будет накоплено много соответствующего программного обеспечения. Но пока для всех практических случаев, включая даже самые «навороченные» компьютерные игры (одна из самых сложных задач для бытового компьютера), выбор 32-разрядной системы является необходимым и достаточным. Заодно вы гарантированы от несовместимости старых программ с 64-разрядной системой – хотя Microsoft обещает, что в большинстве случаев эти программы будут выполнятся, но все-таки не все. И довольно глупо покупать какой-нибудь новый антивирус только из любви к прогрессу, не получив таким способом ровным счетом никаких преимуществ.
Несколько иная, кстати, ситуация с количеством вычислительных ядер в процессоре. Несколько ядер – все равно, что несколько процессоров, работающих одновременно. Общеизвестно, что реальную отдачу от многих ядер можно получить лишь в случае, когда выполняющаяся программа эффективно делится на ряд параллельных потоков, и далеко не все компьютерные задачи соответствуют этому предположению. Кроме того, даже если такое деление и возможно, то оно очень трудоемко – «распараллеливание» программ почти не поддается автоматизации, и программистам его приходится проводить фактически вручную (именно так делаются программы для суперкомпьютеров).
Но в мире персональных компьютеров есть одна очень распространенная задача, которая уже сама по своей природе является распараллеленной. Более того, это самая часто встречающаяся задача на практике – выполнение одновременно многих задач в многозадачной операционной системе. Здесь ничего придумывать не приходится, и для запуска каждой задачи в своем отдельном процессоре нет никаких препятствий. В реальности, конечно, удвоение и учетверение количества ядер не дает такого же прироста производительности – как минимум, в таких системах процессорам приходится делить общую память и другие ресурсы компьютера, что сильно уменьшает выигрыш. Два ядра могут суммарно дать примерно 167 % увеличения производительности в сравнении с одноядерным процессором, четыре – примерно 250 %, а больше шести ядер (Intel Core i7 или AMD Phenom II X6) и вовсе ставить нецелесообразно – дальше производительность будет расти очень медленно. Но эффект от увеличения количества ядер все равно намного больший, чем от таких дорогих усовершенствований, как повышение быстродействия памяти, или даже от подгонки задач под 64-разрядные вычисления. Потому двухъядерные или четырехъядерные процессоры уже стали фактическим стандартом в отрасли.
Далее приводятся примерные рекомендации по выбору процессора в зависимости от задач, которые вам предстоит решать на настольном компьютере[2]. Расшифровка обозначений: Celeron 430 LGA775 1.8GHz/512Kb/800MHz означает процессор Intel Celeron модели 430; сокет (разъем) – LGA775; тактовая частота – 1,8 гигагерц; объём кэша второго уровня (L2) – 512 килобайт; частота системной шины процессора – 800 мегагерц. Отметим, что AMD и Intel считают частоту системной шины немного по-разному, оттого у них сильно различающиеся цифры (некоторые подробности см. в разд. 1.6 «Память»). Если подробности о кэше и системной шине не приводятся, это значит, что их разновидностей для данного типа процессоров немного, и они не имеют большого значения.
В скобках указаны условные оценки быстродействия соответствующей системы в процентах от идеализированной рекордной системы, принятой за 100 % (по данным компании «НИКС»). При проведении теста старались по максимуму задействовать и многоядерные, и 64-разрядные функции, а также всяческие дополнительные функции (например, аппаратное декодирование видео, если оно предусмотрено в конструкции). Потому на реальных задачах различие между моделями процессоров может быть и в разы выше, и в разы ниже, чем указанная величина. Единственное, о чем можно говорить с уверенностью – нет такой задачи, которая бы заставила Celeron работать быстрее, чем Core i5.
♦ Офисная/домашняя минимальная (бюджетная) конфигурация:
• Intel: Pentium Dual-Core E2160 LGA775 1.8 ГГц/1Мбайт/800МГц (14,6 %)
• или Celeron E3500 LGA775 2.7 ГГц/1Мбайт/800МГц (19 %)
• AMD: Sempron 140 AM3 2.7 ГГц/1 Мбайт/4000МГц (13 %)
Цена этих процессоров составляет около 1000–1500 рублей.
♦ Офисная/домашняя оптимальная конфигурация:
• Intel: Pentium E6800 LGA775 3.33 ГГц/2Мбайт/1066МГц (29,5 %)
• или Core 2 Duo E7500 LGA775 2.93 ГГц/3Мбайт/1066МГц (28,3 %)
• AMD: Athlon II X2 265 AM3 3.3 ГГц/2Мбайт/4000МГц (30,7 %)
Цена этих процессоров составляет 2–3 тыс. рублей.
♦ Игровой/медийный компьютер высокого класса:
• Intel: Core i5-2500 LGA1155 3.3 ГГц (66,6 %)
• AMD: Phenom II X6 1090T Black Edition AM3 3.2 ГГц (68,2 %)
Цена этих процессоров составляет —7–9 тыс. рублей.
Рекордный компьютер с производительностью, близкой к 100 %, мог бы получиться на основе CPU Intel Core i7-980X Extreme 3,33 ГГц. Но в реальности едва ли кто захочет иметь такую систему в частном пользовании – цена только одного процессора выше тысячи долларов, а реальный выигрыш может быть очень далек от указанных условных цифр.
Как мы уже говорили, выбор процессора обуславливает тип чипсета и, иногда, тип памяти. Чипсет (набор системной логики) – это набор микросхем, поддерживающий какие-то определенные типы процессоров. Но предлагаемое разнообразие чипсетов для одного и того же процессора все-таки достаточно велико, чтобы запутаться (хотя сделать роковую ошибку и трудно). Мало того, на практике на основе выбранного чипсета можно получить огромное количество самых разнообразных конфигураций материнских плат от разных производителей. И вот тут можно крупно промахнуться, сэкономив там, где экономить совсем не следует.
Чипсеты для процессоров Intel выпускает сама Intel, а также компании VIA, SIS и известный производитель видеокарт NVIDIA. Компания AMD сама довольно долго не выпускала чисеты для своих процессоров, но в 2006 году приобрела главного конкурента NVIDIA – компанию ATI, и также вышла на рынок чипсетов. Кроме самой AMD, чипсеты для ее процессоров выпускают те же NVIDIA, VIA и SIS. Для процессоров Intel и AMD требуются разные чипсеты, хотя иногда они могут носить почти одинаковые названия (например, у компании NVIDIA: nForce 750a для AMD, nForce 750i – для Intel). Соответственно, на материнскую плату, выпущенную для процессоров Intel, нельзя установить процессор от AMD, и наоборот.
Перечислить все возможные конфигурации материнских плат и дать конкретные рекомендации по их выбору еще труднее, чем в случае процессоров. В отличие от производства и разработки чипсетов – весьма сложного занятия, требующего высокой технологической культуры, опытных кадров и дорогих производств, – свои материнские платы может производить фактически каждый. Интернет-издание iXBT приводит список из почти полутора сотен компаний-производителей, включая и отечественные (например, компанию «Формоза»). Среди самых популярных в нашей стране можно назвать ASUS, Chaintech, Gigabyte, Microstar (MSI), Foxconn и саму Intel. В любом случае, выбирая плату, прежде всего стоит выяснить, есть ли у данного производителя в России достаточно развитая система фирменного обслуживания.
Для облегчения выбора кратко опишем, на что стоит обращать внимание при выборе материнской платы, кроме поддерживаемого типа процессора. Любой чипсет состоит из двух микросхем, иногда объединяемых в единый системный контроллер-концентратор, или, по-английски, System Controller Hub (SCH). Первая микросхема традиционно носит название северного моста (northbridge), официальное ее название – контроллер-концентратор памяти. Главная задача северного моста – связь с процессора с памятью и видеокартой. В него также обычно помещают встроенный графический контроллер (видеокарту), если она предусмотрена конструкцией чипсета. В некоторых случаях северный мост может отсутствовать – так, в процессоры Intel с разъемом (сокетом) LGA 1156 встроен и контроллер доступа к памяти, и видеоконтроллер (встроенная прямо в процессор видеосистема предусмотрена в ряде моделей современных процессоров Intel), потому чипсет для этого разъема состоит из одного южного моста.
Южный мост (southbridge) или контроллер-концентратор ввода/вывода – вторая обязательная составляющая чипсета. Южный мост, как можно понять из названия, обеспечивает взаимодействие между процессором и периферией: с жестким диском через интерфейсы IDE и SATA, с картами PCI, низкоскоростными (не для подключения видео) интерфейсами PCI Express, интерфейсами USB, FireWare и пр. Через отдельную микросхему, называемую Super I/O, южный мост также обеспечивает связь со старыми низкоскоростными портами RS232, LPT, PS/2.
Итак, последовательность выбора материнской платы следующая: сначала мы выбираем процессор, затем смотрим перечень чипсетов, которые его поддерживают. Как правило, на этом этапе уже оказывается задан и тип памяти (DDR2, DDR3 и т. п.). Учтите, что для максимальной производительности потребуется установить два или четыре модуля памяти (а не один и не три) одинакового объема в определенные разъемы для того, чтобы процессор имел доступ к памяти через два независимых канала (подробности см. в разд. 1.6 «Память»).
На основе выбранного чипсета (лучше выбирать, разумеется, наиболее современный из возможных) выстраиваем список доступных материнских плат, предпочтительно «брендового» производителя, имеющего развитую систему обслуживания в России. Далее тщательно просматриваем этот список, обращая внимание на следующие моменты:
♦ встроенная видеокарта – традиционно считается, что встроенная видеокарта медленная и убогая по функциональности, но во многих случаях это совсем не так. Если вы не собираетесь играть в современные графические игры (типовой такой случай – компьютер в офисе), то встроенная видеокарта подойдет вам стопроцентно. Единственное, на что следует обратить внимание, – будете ли вы подключать к ней более одного монитора. Современный плоский монитор лучше подключать не через VGA (D-Sub), а через цифровой интерфейс DVI (подробнее об этом в главе 2 «Мультимедиа»). Но встроенные видеокарты с двумя разъемами DVI встречаются очень редко – в этом случае лучше все-таки предусмотреть отдельную видеокарту. А вот для домашнего компьютера, вероятно, стоит предусмотреть отдельную видеокарту в любом случае. Может так случиться, что встроенная очень быстро перестанет удовлетворять вас или ваших домашних, и вы зря потратите деньги – все-таки встроенная видеокарта существенно добавляет к стоимости материнской платы. Для внешней видеокарты на плате должен быть разъем типа PCI Express x16 (см. рис. 1.1);
Рис. 1.1. Типовая современная материнская плата: 1 – разъемы PCI; 2 – разъемы PCI-Express x1; 3 – разъемы PCI-Express x16 (для видеокарты); 4 – процессорный разъем (сокет) с креплениями; 5 – радиатор для охлаждения микросхемы чипсета; 6 – пары разъемов DIMM для установки модулей памяти; 7 – разъемы SATA для подключения жестких дисков; 8 – устаревшие разъемы IDE (Parallel ATA) для той же цели
♦ все современные материнские платы имеют встроенные звуковой (Audio) и сетевой (Ethernet, LAN) контроллеры, но на всякий случай их наличие стоит проверить. Звуковой контроллер обычно соответствует весьма «продвинутому» стандарту High Definition Audio, что, с одной стороны, перекрывает потребности абсолютно всех категорий пользователей, с другой – для большинства это все-таки излишне «навороченное» решение, которое может вызвать ряд практических сложностей в настройке;
♦ на плате обязательно должны быть разъемы PCI или, как минимум, PCI Express x1 для подключения различных внешних интерфейсов на платах расширения. При этом обычный PCI предпочтителен, т. к. под него до сих пор выпускается большее разнообразие плат. Самый распространенный случай необходимости такого разъема – отсутствие какого-либо интерфейса в составе самой материнской платы (FireWare, LPT, RS-232 и пр), а следовательно, и нужда в использовании соответствующей платы расширения;
♦ в ряде материнских плат стоит посмотреть на параметр, который называется частота шины процессора (FSB). Если контроллер памяти не встроен в процессор, то FSB процессора должна совпадать с частотой шины, поддерживаемой чипсетом материнской платы. Например, процессор с частотой шины 1333 МГц не будет работать на плате, поддерживающей только процессоры с частотой шины 1066 МГц, даже если он подходит по типу и разъему (сокету). Но в ряде современных материнских плат, где северный мост попросту отсутствует, на этот параметр можно не обращать внимания;
♦ обратите внимание на возможность вывести на переднюю панель компьютера USB-разъемы, а также разъемы аудио. Отсутствие такой возможности ведет к крупным неудобствам в эксплуатации компьютера – иногда получить доступ к разъемам на задней панели корпуса бывает затруднительно;
♦ если у вас от старого компьютера имеется оптический привод с параллельным IDE-интерфейсом, то стоит проверить наличие такого интерфейса на плате. В отличие от жестких дисков, оптический привод менять только из-за перехода на новый интерфейс нецелесообразно. А вот жесткие диски стоит поменять на современные – во-первых, ваши наверняка работают уже долго, а ресурс их не бесконечен, во-вторых, вы замените их на значительно более емкие;
♦ форм-фактор материнской платы определяет ее размер и, соответственно, влияет на выбор корпуса. В настоящее время наиболее популярны форм-факторы типа ATX и mATX (microATX). Не следует стремиться к излишней миниатюризации – компактные корпуса, конечно, приятнее, но условия охлаждения в них гораздо хуже. Кроме того, на миниатюрных платах умещается меньше разъемов, и они стоят теснее, отчего платы расширения будут мешать друг другу (особенно это касается видеокарт, могущих занимать два или даже три слота в ширину);
♦ в последнюю очередь стоит ознакомиться с перечнем внешних интерфейсов. Есть материнские платы, которые до сих пор снабжаются портами и LPT, и COM (RS-232). Но заострять внимание на наличии таких портов не стоит – если у вас задержался LPT-принтер, или вы имеете программатор с интерфейсом RS-232, или прикупили внешний жесткий диск c портом FireWare, то всегда есть возможность обеспечить недостающие интерфейсы с помощью PCI-плат расширения (главное, были бы свободные разъемы под такие платы). Причем применение таких плат расширения предпочтительнее, чем альтернатива в виде кабелей-переходников, подключаемых к порту USB, – платы, как правило, устойчивее в работе. В некоторых случаях (как например, в случае COM-порта) такие платы даже надежнее, чем встроенные порты в материнскую плату, – в случае чего сгорит плата, и ее можно заменить. Единственный внешний интерфейс, который удобнее иметь прямо на материнской плате, – разъемы PS/2 для мыши и клавиатуры. Впрочем, соответствующие устройства вполне заменяемы на USB-варианты (переходник на PS/2 часто просто вкладывается в коробку), но нередко портов USB может просто не хватать. Причем активный (с дополнительным питанием) внешний USB-концентратор для увеличения количества портов совсем недешев и много неудобнее в обращении, чем разъемы PS/2 на плате (подробнее о этом см. главу 3 «Компьютерные порты»).
Для наглядности приведем снимки типовой материнской платы: на рис. 1.1 показан вид сверху, на рис. 1.2 – со стороны задней панели.
Рис. 1.2. Типичное расположение и внешний вид разъемов для подключения внешних устройств на задней панели компьютера: 1 – разъем PS/2 для мыши (бирюзовый); 2 – разъем PS/2 для клавиатуры (сиреневый); 3 – два разъема USB; 4 – разъем LPT для принтера (красный); 5 – последовательный порт COM (голубой); 6 – VGA-разъем для подключения монитора (синий); 7 – игровой порт (желтый); 8 – линейный выход (L-out, светло-зеленый); 9 – линейный вход (L-in, голубой); 10 – микрофонный вход (розовый); 11 – разъем сетевой карты (RJ-45); 12 – дополнительные USB-порты
Несколько слов о правилах подключения устройств к компьютеру. Неверно, что перед подсоединением какого-либо разъема компьютер следует обязательно выключать – зачем тогда придумывали такие вещи, как горячее подключение (Plug-and-Play, PnP)? В общем случае через любой компьютерный порт оборудование можно подключать «горячим способом», если соблюдать определенные меры предосторожности. Заметим, что эти меры одинаково существенны и для современных PnP-интерфейсов, и в случае старинного RS-232 – известны случаи, когда при несчастливом совпадении ряда обстоятельств выходил из строя даже супернадежный и «несгораемый» порт FireWare.
Самое главное требование к соединяемым устройствам: потенциалы «общего провода» («земли», корпуса) у обоих соединяемых устройств должны быть выровнены заранее. При подключении по любому интерфейсу это происходит автоматически в момент соединения, но беда наступает тогда, когда до подключения потенциалы разные. Тогда в момент подключения они выравниваются скачком, и хорошо, если это происходит через металлические обрамления разъемов и оплетку кабеля. По сути все современные интерфейсы и рассчитаны по своей конструкции на такой случай (обрамления разъемов входят в контакт первыми, затем контакты питания, затем только все остальные), но не факт, что до выравнивания потенциалов сигнальные контакты не успеют соприкоснуться. А это значит, что через них потечет большой ток, на который нежные микросхемы, изготовленные с технологическими нормами в десятки нанометров, совершенно не рассчитаны – в результате порт выгорает гарантированно.
Выровнять потенциалы корпусов у соединяемых устройств на самом деле очень просто – надо всегда их включать в сеть проводом, имеющим вилку с третьим заземляющим контактом (причем этот контакт должен не болтаться в воздухе, а быть надежно соединен с корпусом прибора). Но одного этого, конечно, недостаточно – еще надо, чтобы розетки, в которые включаются устройства, были также снабжены заземляющими контактами, надежно соединенными между собой. В идеале эти заземляющие контакты также должны быть подсоединены и к настоящему заземлению, но это необязательно – достаточно лишь, как это называют в официальной документации, потенциаловыравнивающего проводника. Такой проводник всегда связывает между собой розетки в офисных удлинителях типа «Пилот» (рис. 1.3).
Рис. 1.3. Удлинитель типа «Пилот» – надежный способ защиты от выгорания компьютерных портов
Если для подключения используются настенные стационарные розетки – то проверьте заранее тестером, имеется ли в них соединение заземляющих контактов между собой отдельным проводом. Если такового нет, его абсолютно необходимо протянуть. В идеале все розетки в помещении (офисе, доме, квартире) должны быть связаны между собой достаточно толстым заземляющим проводником («третьим» проводом).
Внимание!
Никогда не используйте для подключения к сети компьютеров, принтеров, сетевых устройств и прочей офисной техники самодельные удлинители!
Есть, впрочем, и исключение – некоторые устройства изначально снабжены простейшими сетевыми вилками с двумя контактами (часто это касается блоков питания ноутбуков или аппаратуры с внешним блоком питания, объединенным с сетевой вилкой). Все такие устройства обладают одним общим свойством – у них «общий» провод изолирован от «земли», поэтому выравнивания потенциалов не требуется. В аппаратуре с питанием от батареек или аккумуляторов это происходит естественным образом, а в остальных устройствах изоляция достигается питанием через изолированную обмотку трансформатора и отсутствием металлических деталей корпуса, находящихся под каким-то потенциалом, связанным с потенциалами схемы прибора.
В общем случае такие устройства тоже нужно защищать – они-то чаще всего и выходят из строя. В связи с этим второе правило:
Внимание!
Никогда не используйте для связи компьютерных устройств самодельные кабели!
В фирменных кабелях, как уже говорилось, металлическое обрамление разъемов всегда входит в соединение раньше основных контактов, и это служит дополнительным эшелоном защиты в случае, если потенциалы по какой-то причине не были выровнены заранее. Если соблюдать эти правила, то безопасно даже включать и выключать в «горячем режиме» совершенно для этого не предназначенные разъемы RS-232[3].
Одно из самых неприятных свойств современных настольных компьютеров и ноутбуков – сопровождающий их работу шум вентиляторов. У ноутбуков тут ничего сделать невозможно – разве только обратить внимание на «шумность» при покупке модели. А для настольных компьютеров (десктопов) правильно сформулированная задача по выбору корпуса, блока питания (который выбирается вместе с корпусом) и систем охлаждения звучит так – обеспечить минимальный шум при достаточном охлаждении.
И уровень шума, и эффективность охлаждения зависят от большого количества параметров: и от конструкции корпуса, и от его размеров, и от «фирменности» радиаторов и вентиляторов, и от времени (со временем разбалтываются опоры подшипников в вентиляторах, а каналы радиатора забиваются пылью), и от того, насколько греются тепловыделяющие компоненты. Скажем, в обычном режиме работы (без обработки трехмерной графики), вентилятор на современной видеокарте, если она не экстремальной мощности, оказывается не очень-то и нужен мне удавалось годами работать с видеокартой, у которой вентилятор был сознательно физически отключен. Но всем рекомендовать такой прием с целью снижения шума, конечно, было бы слишком смело – на всякий случай вентилятор должен работать.
При подборе блока питания учтите, что в первой половине 2000-х (примерно с появлением материнских плат с шиной PCI-Express) произошла смена стандартов, и блок питания от компьютера 2000 года с 20-контактным разъемом не подойдет к современной материнской плате, где контактов 24 (дополнительные четыре контакта от блока питания часто идут отдельным жгутом). Кроме того, были изменены требования по мощности отдельных линий (потому решить проблему простым размножением существующих линий не удастся), а с появлением SATA-дисков еще и изменена конструкция разъемов питания жестких дисков. Потому от старого компьютера при модернизации можно будет оставить разве что корпус, но блок питания придется сменить.
Начнем с расчета необходимой мощности блока питания. Грубая рекомендация звучит так – мощность блока питания среднего офисного или домашнего компьютера должна составлять 300–350 Вт. Не будет большим излишеством выбрать и 400-ваттный блок. Более мощные блоки – для экстремальных игровых конфигураций.
Для тех, кто привык все считать досконально, на множестве сайтов в Интернете есть специальные калькуляторы, как онлайновые, так и в виде отдельной программы. Чтобы их найти, достаточно в «Яндексе» или Google набрать запрос: расчет мощности блока питания. Посчитав с помощью такого калькулятора требуемую мощность для вашей системы, вы, возможно, будете удивлены – в типовом случае вы получите цифру на уровне примерно 120–150 Вт. Откуда тогда требование 350ваттного блока питания? Просто из принципа: «запас карман не тянет» – 300ваттный блок не отличается по габаритам от 200-ваттного и обойдется практически в ту же сумму. При этом надежность системы окажется намного выше, не придется думать о смене блока при модернизации, а если блок позволяет управлять оборотами вентилятора, то их можно еще дополнительно понизить, снизив тем самым и уровень шума.
Из практического опыта следует, что надежность блока питания мало зависит от степени его «фирменности» – если это только не совсем уж какой-нибудь корявый «но-нейм», спаянный на коленке «в трущобах Шанхая». А вот качество и долговечность установленного вентилятора, как и возможность управления им, как раз очень зависит от «брендовости» производителя.
Трудность состоит в том, что для получения заведомо гарантированного качества вам придется заплатить заметно больше среднего – так, блок питания Zalman на 400 Вт обойдется в сумму, приближающуюся к 2 тысячам рублей, тогда как цена «обычного» блока такой мощности, ничуть не хуже «залманского» по всем остальным параметрам, вряд ли будет более рублей 500–700.
Есть, однако, способ аккуратно обойти это требование – выбирать следует блоки питания с большим вентилятором во всю нижнюю сторону корпуса (а не обычным маленьким на задней панели). Пример блока питания с таким вентилятором показан на рис. 1.4. Вентилятор диаметром 120 мм, во-первых, имеет изначально меньше оборотов в минуту (чуть больше 1500, против почти 2500 у «обычных»), и потому шум от него на порядок ниже, во-вторых, из-за этого он меньше изнашивается со временем.
Рис. 1.4. Пример блока питания с вентилятором 120 мм
С мощностью блока питания связан выбор источника бесперебойного питания (ИБП, или, по-английски, UPS). Учтите, что мощность ИБП всегда указывается в вольт-амперах (ВА), и эта цифра примерно на четверть-треть выше реальной отдаваемой мощности в ваттах. То есть минимальная мощность ИБП для блока питания 400 Вт должна составлять 500 ВА. Наилучшим выбором для домашнего компьютера будет ИБП мощностью около 700 ВА – в него вы сможете воткнуть и монитор, и модем со сканером и принтером. Более мощные ИБП относятся уже к профессиональным, и стоят обычно заметно дороже.
Большинство ИБП предоставляют возможность дистанционного управления ими через USB-кабель (в старинных моделях это был СОМ-порт). На самом деле никакой специальной настройки ИБП не требуют, и вы получите лишь еще один собирающий пыль провод, который никогда на практике не понадобится – в крайнем случае, если вы очень захотите, настройки можно разок выполнить через собственный интерфейс ИБП с передней панели. Потому большинство пользователей предпочитает никуда разъем управления ИБП не подсоединять. На функциональность Windows это тоже не повлияет – разве что в случае, если ИБП подключен, вы получите лишний раз «последнее китайское предупреждение» о том, что компьютер вот-вот скончается. Но при отключении сети ИБП и без того изведет вас своими звуковыми сигналами, от которых очень захочется выключить всю систему, даже не дожидаясь полной разрядки аккумулятора.
Вентиляторы для процессоров, к сожалению, не предполагают такого выбора размеров, как в блоках питания – там размер задан конструкцией радиатора. Потому если вы особо чувствительны к шуму, то тут не обойтись без покупки фирменной конструкции, причем желательно сразу в сборе с радиатором. Здесь тоже применимо правило – чем больше размеры вентилятора, тем лучше. Хорошо, если материнская плата позволяет осуществлять регулировку числа оборотов – тогда, постепенно их снижая, можно найти оптимум, когда температура процессора еще не повышается до критической (примерно 50 градусов), а обороты уже достаточно малы. Размеры корпусного вентилятора обычно, к сожалению, нередко заданы еще более жестко (обычный размер: 92x92 мм), потому там тем более приходится выбирать самую фирменную конструкцию или изначально выбирать корпус с большим вентилятором 120 мм.
Программы для измерения температуры процессора и материнской платы и, если это возможно, для регулировки оборотов вентиляторов, должны найтись на диске, прилагаемом к материнской плате. Но опыт показал, что такие утилиты обычно избыточны по функциональности, слишком сложны и нестабильны. Потому лучше воспользоваться одной из сторонних программ. Есть много подобных продуктов, и платных и бесплатных, и их нужно тщательно выбирать. Из бесплатных для чистого контроля параметров я порекомендую HWMonitor – очень простую программу, состоящую из единственного исполняемого файла, и не требующую установки, но весьма информативную (рис. 1.5) – как видите, он показывает даже температуру жесткого диска (см. раздел под заголовком ST3500630AS), правда, только одного из двух, имеющихся в компьютере. Кроме того, программа показывает минимальное и максимальное значение за время, пока она запущена. При желании текущие показания можно сохранить в файл и сравнить их, например, с тем, что было до установки нового вентилятора. Скачать последнюю версию HWMonitor можно с сайта разработчиков cpuid.com.
Рис. 1.5. Контроль параметров настольного компьютера с помощью программы HWMonitor
Большинство программ, показывающих температуру, скорость вращения вентиляторов и прочие параметры компьютера, – англоязычные (включая и фирменные утилиты производителя материнской платы). Для того чтобы проще было разобраться, расшифруем ряд позиций, которые вы можете видеть на рис. 1.5:
• Fans – вентиляторы;
• AUX – сокращение от auxilary (дополнительный);
• CPU – центральное процессорное устройство (процессор);
• Core – ядро;
• соответственно, CPUFANN0 – процессорный вентилятор № 0;
• AUXFANN0 – дополнительный вентилятор, в данном случае корпусной;
• SYSTIN – внутренняя (IN) температура системной платы;
• CPUTIN – внутренняя температура процессора;
• AUXYIN – дополнительный вход измерителя температуры (в данном случае он не подключен никуда, потому показывает «погоду на Марсе»;
• для жесткого диска: Assembly – в сборке (т. е. температура внутри диска), Air Flow – расход воздуха (т. е. температура воздушной среды), в данном случае оба датчика, видимо, объединены.
Померив температуру материнской платы (она не должна превышать 45–50 градусов даже в жаркое летнее время – параметры, которые вы видите на рис. 1.5, были измерены при температуре в помещении 26 °C), вы можете сделать заключение о необходимости дополнительных вентиляторов, установленных на корпусе системного блока (корпусных). Вообще-то, для нормальной работы не слишком «навороченного» компьютера достаточно трех вентиляторов: в блоке питания, на процессоре и на видеокарте (причем последний, как мы видели, не всегда и не для всех пользователей обязателен). Если у вас имеются корпусные вентиляторы, то попробуйте их аккуратно отключить (отсоединив разъем вентилятора от материнской платы), и непрерывно контролируйте температуру материнской платы. Если в комнате жара, а температура через час после включения не превысила указанной ранее величины, то можете смело избавляться от лишних источников шума. Учтите, что имеющийся в некоторых корпусах воздуховод (в виде трубы к вентилятору процессора), снижает температуру процессора, но повышает ее для окружающих компонентов. Поэтому стоит проэкспериментировать, удалив эту трубу, – если температура материнской платы снизится, а процессора – не повысится вовсе или повысится не больше, чем на один-два градуса, то стоит обойтись без нее.
Тут тоже действует правило: «запас карман не тянет». Самые чувствительные к нагреву в современном компьютере компоненты – жесткие диски, которые к тому же охлаждаются хуже всех остальных компонентов. Долговечность жестких дисков напрямую зависит от температуры: 55–60 градусов – уже предельное критическое значение. При нормальной работе диска температура не должна превысить тех же 45–50 градусов (руке горячо, но терпимо), и производители утверждают, что долговечность сильно повысится, если температура будет ниже 40 градусов. Если у вас есть подозрение, что жесткие диски все время греются выше допустимого, то следует принять меры: возможно, подключить-таки корпусные вентиляторы или даже поставить отдельный вентилятор специально для обдува диска (они бывают самых разных конструкций и стоимости).
При выборе общей конфигурации корпуса следует исходить из следующих соображений. Как минимум, стоит рассчитывать на два отдельных жестких диска в стандарте 3,5 дюйма: как мы еще узнаем, так надежнее – на втором хранится резервная копия основного. 3,5-дюймовый диск будет греться гораздо меньше миниатюрного 2,5-дюймового и, к тому же, окажется заметно дешевле. Неплохо, если эти диски будут разнесены подальше друг от друга – с одним пустым отсеком между ними. Обязательно потребуется и оптический привод, притом достаточно больших габаритов (под пятидюймовый отсек) – они удобнее и надежнее миниатюрных, типа ноутбучных.
Наконец, не мешает иметь на месте бывшего флопии-привода кардридер – набор гнезд под различные типы флэш-карт. Если такое вам не требуется, то на этом месте удобно разместить панель с дополнительными аудиогнездами и USB-портами.
В свободный пятидюймовый или трехдюймовый отсек попробуйте установить панель с регуляторами скорости вращения вентиляторов – она может показаться выпендрежной игрушкой, но на самом деле это ужасно удобная штука, если вы чувствительны к уровню шума. С ней уже можно не обращать внимание на функциональность материнской платы в отношении регулировки оборотов вентиляторов – так, панель Scythe Kaze Master Pro 3.5 стоимостью меньше двух тыс. рублей позволяет управлять скоростью вращения до четырех вентиляторов (вплоть до полной их остановки), непрерывно контролируя на дисплее температуру в соответствующих точках.
Следующий прием здорово способствует установлению оптимальной температуры в корпусе: возьмите заглушку свободного пятидюймового отсека, аккуратно вырежьте в ней прямоугольное отверстие максимально возможного размера и заклейте его с обратной стороны кусочком прочной пластиковой сетки (можно отрезать от той, что вешают на окна от комаров, подобрав ее по желаемому цвету). Такая сетка на месте заглушки существенно улучшит циркуляцию воздуха в корпусе, не нарушив внешнего вида системного блока. Только не забывайте периодически очищать сетку от скапливающейся пыли.
В основном с температурными требованиями и связан выбор размеров корпуса, но может так случиться, сама компонуемая конфигурация уже установит достаточный размер. Очень заманчиво иметь миниатюрный корпус, вроде модного формата Mini-TTX (собственно корпус с размерами 215x230x65, а плата для него – 170x170), однако в такие габариты нормальный компьютер просто не влезет. Но даже если выбранные вами компоненты без натяга упаковываются в miniTower, то выберите все-таки корпус на размер больше – типоразмера midiTower. Там будет больше свободного места и лучше вентиляция, а значит, надежнее работа компонентов и больше возможностей для снижения шума.
Если стоимость вас не лимитирует, то предпочтительно выбрать алюминиевый корпус – охлаждение в нем будет гораздо лучше. И обратите внимание, чтобы достаточно легко снимались по отдельности обе боковые стенки – меньше мучений при необходимости что-то модернизировать.
За компьютером надо ухаживать, очищая материнскую плату и радиаторы от скапливающейся пыли. В обычной городской квартире это приходится делать как минимум раз в полгода, а в начале лета, когда летит тополиный пух, – ежемесячно, в противном случае эффективность охлаждения заметно снижается. Если у вас внезапно и без предупреждения компьютер выключился – значит, дело скорее всего в перегреве процессора или материнской платы (второй причиной может быть плохой контакт в соединении шнура питания с корпусом). При этом бытовой пылесос не всегда справляется с задачей очистки компьютерных внутренностей – между ребер процессорного радиатора и в вентиляторах пыль застревает очень прочно. Для преодоления этой трудности в продаже (например, в радиомагазинах) имеются специальные баллончики со сжатым воздухом для продувки узких мест.
С жесткими дисками пользователь напрямую практически не сталкивается – как правило, все диски всех производителей примерно одинаковы по своим характеристикам, и единственное, что пользователя «колышет», – это доступный ему объем дискового пространства. Тем не менее, уже из предыдущего текста видно, что диски за последние годы претерпели ряд изменений, и здесь мы кратко остановимся на особенностях современных моделей и их правильной эксплуатации.
В 2005–2006 годах компьютерная пресса радостно рапортовала о переходе производителей жестких дисков на новую технологию производства магнитных пластин – перпендикулярную запись. Эта технология позволила перейти порог максимальной плотности информации на пластине жесткого диска, который для старых дисков с параллельной записью составлял около 100–200 Гбит/кв. дюйм (здесь термины «параллельный» и «перпендикулярный» относятся к направлению магнитного поля относительно поверхности пластины диска). Перпендикулярная запись позволила достичь плотностей записи свыше 500 Гбит/кв. дюйм (рекорд пока, видимо, принадлежит Toshiba – 541 Гбит/кв. дюйм). Это привело в 2010 году к появлению винчестеров емкостью в 3 терабайта, а теоретическим пределом для перпендикулярной записи считается 1 Тбит/кв. дюйм, что должно, согласно обещаниям Hitachi, привести в конце 2011 – начале 2012 года к появлению 5-терабайтного «винта».
И на этом возможности перпендикулярной записи будут исчерпаны. Отметим, что именно необъятная единичная емкость устройства в сочетании с экстремально низкой ценой каждого гигабайта (в дисках емкостью 3 Тбайта – не более 5 центов за гигабайт) и позволяет капризным и сложным по устройству магнитным носителям не только выживать, но и продолжать доминировать в качестве устройства долговременной компьютерной памяти. И они имеют шанс сохранить это доминирование еще надолго: Toshiba, в частности, сообщила о скором открытии двух исследовательских центров, где вместе с TDK и Showa Denko будет разрабатывать новые технологии. Это может быть термомагнитная запись (HAMR, от Heat Assistant Magnetic Recording, магнитная запись с помощью тепла), когда к обычным головкам добавляется лазер, точечно прогревающий носитель со специальным покрытием в месте записи, или запись методом упорядоченного битового массива данных (bit-patterned media). Уже изготовленный прототип по последней из этих технологий имеет плотность записи 2,5 Тбит/кв. дюйм, т. е. 10-терабитовые диски уже не за горами.
Основное изменение, которым отмечены последние годы, кроме увеличения емкости дисков – практически все выпускаемые жесткие диски сегодня имеют интерфейс Serial ATA (SATA). Windows Vista и «семерка» распознают его «от рождения», а о том, как с ним справляться при установке Windows XP, мы поговорим в главе 8 «Установка Windows». Изменились и разъемы подключения – как интерфейсный, так и разъем питания, потому вставить новый диск в старый компьютер (выпуска примерно до 2006 года) не получится.
О надежности жестких дисков ходят разноречивые сведения, но истина заключается в том, что серьезных независимых исследований этого вопроса просто никто не проводил или, по крайней мере, не публиковал результаты в общедоступных СМИ. Единственное найденное мной квалифицированное исследование, результаты которого, кстати, серьезно расходятся с данными производителей дисков, проводилось в 2007 году учеными из университета Карнеги – Меллона. По их данным, среднее время наработки на отказ (mean-time before failure, MTBF), завышается производителями приблизительно в 15 раз, и в среднем (по всем исследованным моделям всех производителей) не превышает 5–7 лет. Причем ожидаемо ярко выражены два пика интенсивности отказов: в течение первого года работы, а также после седьмого. Как выяснилось, характер нагрузки, формируемой спецификой приложений, не оказывает заметного влияния на MTBF.
Более того, вопреки рекомендациям производителей, одинаковые показатели надежности наблюдаются как у дисков, обеспеченных хорошим охлаждением, так и у работающих при повышенных температурах (что, конечно же, не означает возможности греть диски до любой произвольной температуры, потому в этом вопросе лучше все-таки полагаться на рекомендации производителей). Еще одним неожиданным и неприятным для производителей результатом исследования было то, что и ориентированные на массовый рынок жесткие диски с интерфейсами PATA/SATA и позиционируемые как не только высокопроизводительные, но и как обладающие повышенной надежностью накопители с интерфейсами SCST, SAS или Fiber Channel, в действительности демонстрируют сходные показатели MTBF.
Какие практические выводы можно сделать из такого исследования? Во-первых, ничего катастрофического ученые не обнаружили: 5–7 лет вполне приемлемое время жизни для диска. Жесткий диск более этого срока в домашнем или офисном компьютере и не живет – либо устаревает и выбрасывается компьютер, либо, как минимум, переполняется и заменяется диск.
Во-вторых, диски следует для надежности дублировать – так можно застраховаться и от первого пика отказов (в начале эксплуатации), и от постепенного старения в конце срока службы. Самым надежным способом резервирования будет организация дискового массива (RATD1), о котором – во врезке Что такое RAID и зачем он нужен? далее. Однако совершенно необязательно строить дисковые массивы на каждом компьютере (к тому же, на ноутбуках их и не построишь). Чтобы уберечься от сбоя диска, достаточно иметь отдельный диск (обычный, не объединенный в массив) на том же или на другом компьютере, на который регулярно «сливается» архив рабочего диска. То, как это лучше сделать практически, мы обсудим в главе 11 «Ремонт Windows».
RAID (redundant array of independent disks, избыточный массив независимых жёстких дисков) – несколько дисков, соединенных друг с другом, управляемых специальным RAID-контроллером и воспринимаемых внешней системой как единое целое. Еще не так давно такой контроллер обошелся бы в приличные деньги, но сейчас большинство материнских плат с SATA-интерфейсом имеют встроенные функции RAID-контроллера.
Для домашнего пользователя имеет смысл лишь конфигурация RAID1 – так называемый зеркальный дисковый массив, когда данные дублируются на двух дисках параллельно. То есть, например, два диска по 500 Гбайт, объединенные в RAID1, будут выглядеть для системы, как один диск 500 Гбайт. Какой смысл в такой конфигурации? Вероятность выхода из строя сразу двух дисков равна произведению вероятностей отказа каждого диска. Таким образом, вдвое переплатив, вы во много раз увеличиваете надёжность – RAID1 работает до тех пор, пока функционирует хотя бы один диск в массиве. Неисправный диск при этом можно заменить, даже не выключая компьютера (хотя я бы не посоветовал заниматься такими экспериментами на домашнем ПК).
Другой распространенный вариант – RAID0, сам по себе большого смысла для домашнего пользователя он не имеет. Там диски просто объединяются, за счет чего увеличивается скорость записи, зато надежность, наоборот, резко падает. Можно объединить преимущества обоих способов (когда два RAID1 объединяются в RAID0), но это потребует четырех дисков, и в результате конфигурация получается чересчур дорогой и громоздкой – дешевле обойдется просто приобрести диски побольше.
Я настоятельно советую где-то в домашней сети обязательно иметь один RAID1 – для хранения резервных копий. Необязательно это должен быть настольный компьютер – куда удобнее иметь RAID в общем сетевом файловом хранилище (NAS). Они специально рассчитаны на создание именно дисковых массивов, и ничего специально настраивать вам не придется – просто попросить продавца прямо в магазине вставить туда диски и сразу отформатировать их (подробнее о NAS см. в разд. 11.2 «Создание резервных копий системы»).
Устанавливать диски лучше не вплотную друг к другу, а чтобы между ними в корзине оставался свободный отсек (поэтому мы и рекомендовали покупать корпуса на размер больше, чем надо). Крепить диски обязательно всеми четырьмя положенными винтами – в противном случае диск может в процессе работы вибрировать, входя в резонанс со стенкой корпуса. Следует следить и за качеством крепления CD-привода – он будет вибрировать неизбежно (из-за всегда имеющейся некоторой несбалансированности оптических дисков), и плохо, когда его вибрация передается на жесткие диски.
В настройках энергосбережения Windows среди прочих есть пункт «отключение дисков». Так вот, я был рад узнать из статьи одного специалиста по ремонту компьютеров, что ремонтники, оказывается, полностью поддерживают мою позицию по этому вопросу – диски лучше не отключать вовсе, чем отключать их каждые пятнадцать минут. Более того, в рекомендациях этого специалиста так и сказано: «если у Вас есть возможность – не выключайте Ваш ПК вообще». В главе 8 «Установка Windows», в разговоре о настройках Windows, мы еще вернемся к этому вопросу подробнее.
Десятилетие назад были распространены мобильные рэки – специальные корзины, вставляющиеся в стандартный пятидюймовый отсек, которые позволяли быстро подключать жесткие диски к компьютеру, используя их как переносное хранилище информации (по понятным причинам такие устройства были очень распространены среди тех, кто занимался обработкой видео). Сейчас имеется достаточный выбор мобильных носителей информации большой емкости, куда более удобных, компактных и надежных (например, упомянутые рэки редко когда удавалось запустить в режиме горячего подключения, а флэш-накопители это позволяли делать с самого начала). Так что жесткие диски в качестве мобильных носителей использовать ныне решительно не рекомендуется – как, собственно, не рекомендовалось и ранее, просто выбора не было. Жесткие диски, особенно десктопные (в форм-факторе 3,5 дюйма), очень не любят перемещений – от сотрясения, ударов и вибрации, сопровождающих перемещение, они быстро выйдут из строя. А механическое воздействие (даже резкий поворот) во время работы гарантированно портит жесткий диск.
И если средства вам позволяют, мой совет при первой же возможности перейти на твердотельные жесткие диски, о которых мы будем говорить в главе 4. Сменные носители. К сожалению, они не только принципиально дороже обычных, но и имеют примерно на порядок меньшую максимальную емкость – во всем остальном они решительно превосходят магнитные носители, история которых уже перевалила за полвека.
О различных типах памяти мы упоминали при разговоре о чипсетах, а здесь кратко обобщим сказанное и познакомимся с различными типами памяти. Выбирать тип памяти, вам, как правило, не приходится – он обуславливается чипсетом, а тот, в свою очередь, – типом процессора. Тем не менее, знать хотя бы в общих чертах, что же вам подсовывают, следует, и изучением этого вопроса мы сейчас займемся.
Как вы можете убедиться, взглянув на рис. 1.6, элементарная ячейка динамической памяти (DRAM) устроена крайне просто – схема состоит из одного транзистора и одного конденсатора. Конденсатор на схеме выглядит маленьким, но на самом деле занимает места раза в четыре больше транзистора, только, в основном, в глубине кристалла. Потому ячейки DRAM можно сделать очень малых размеров, а, следовательно, упаковать их много на один кристалл, не теряя быстродействия. Отсюда и распространенность DRAM в качестве компьютерных ОЗУ. За такую простоту и компактность приходится расплачиваться необходимостью постоянной регенерации содержимого – ввиду микроскопических размеров и, соответственно, емкости конденсатора, в ячейке DRAM записанная информация хранится всего лишь десятые-сотые доли секунды.
Рис. 1.6. Схема элементарной ячейки DRAM
В первых образцах персональных компьютеров регенерацией памяти ведал специальный служебный канал системного таймера, который подавал сигнал регенерации каждые 15 мкс на 1/256 часть массива памяти, примерно за 3,8 мс восстанавливая весь доступный объем. Такое решение неудобно и опасно – во-первых, регенерация всей памяти занимает много времени, в течение которого ПК неработоспособен; во-вторых, любая зловредная программа может попросту остановить системный таймер, отчего компьютер уже через несколько миллисекунд обязан впасть в полный ступор. И все современные микросхемы DRAM занимаются восстановлением данных самостоятельно, да еще и так, чтобы не мешать основной задаче, – процессам чтения/записи.
В настоящее время существует много усовершенствованных модификаций базового типа DRAM, показанного на рис. 1.6. Главное усовершенствование в динамическую память было внесено в начале 1990-х, когда появилась SDRAM (синхронная DRAM). В такой памяти ответ на поступившую команду появляется не сразу (точнее, с неопределенной задержкой, обусловленной быстродействием внутренних схем памяти, иными словами – асинхронно), а лишь с фронтом определенного тактового сигнала, отстоящего от начала команды на строго заданное число тактов. Это позволило точно синхронизировать работу памяти с работой процессора и упорядочить процесс обмена.
Следующим этапом было появление DDR SDRAM (Double Data Rate, с удвоенной скоростью передачи данных). При использовании DDR SDRAM достигается удвоенная скорость работы за счёт считывания команд и данных не только по фронту, как в SDRAM, но и по спаду тактового сигнала. Таким образом, при работе DDR на частоте 100 МГц мы получим эффективную частоту обмена данными 200 МГц. Для DDR SDRAM впервые появились чипсеты, которые позволяли использовать модули памяти в двухканальном, а некоторые чипсеты – и в четырёхканальном режиме. Для работы памяти в двухканальном режиме требуется 2 (или 4) модуля памяти – с тех пор это требование стало общим для всех материнских плат.
В настоящее время простая DDR SDRAM практически вытеснена следующими поколениями: DDR2 и DDR3. Как и DDR SDRAM, DDR2 SDRAM использует передачу данных по обоим срезам тактового сигнала, но отличается вдвое большей частотой работы шины, по которой данные передаются в буфер микросхемы памяти. DDR2 не является обратно совместимой с DDR, для нее нужны специальные контроллеры и число контактов модуля тоже отличается. Потому при покупке нового компьютера память от старого компьютера, скорее всего, придется выбросить (некоторые продавцы на рынках принимают или обменивают такую память на новые типы с доплатой).
Следующее поколение, DDR3 SDRAM, системотехнически не отличается от DDR2, но имеет иные электрические параметры (в частности, сниженное до 1,5 В напряжение питания, в сравнении с 1,8 В для DDR2 и 2,5 В для DDR). Поэтому они также несовместимы с предыдущими поколениями памяти. Иногда еще можно встретить материнские платы, в которых допускается установка либо DDR2, либо DDR3 – на выбор, для чего предусмотрены разные группы разъемов. С 2013 года ожидается появление следующего поколения – DDR4 SDRAM, которая будет поддерживать частоту работы от 2133 до 4266 МГц.
Кроме типа, модули памяти отличаются скоростью работы, и нередко в этом вопросе разобраться очень сложно. В начале главы мы уже отмечали разницу в обозначениях системной шины Intel и AMD, расскажем о ней подробнее. Быстродействие памяти может указываться в величинах эффективной тактовой частоты системной шины: DDR2-800, к примеру, имеет эффективную частоту 800 МГц, хотя сама по себе частота системной шины для нее 400 МГц, а частота, на которой работает память, – вообще 200 МГц. Иногда пользователя запутывают еще больше, указывая максимально возможную скорость передачи данных (такая маркировка начинается с букв PC) – например, модуль памяти на основе DDR2-800 тогда будет называться PC2-6400 (если последнее число поделить на 8, то как раз получится эффективная частота, – процессоры AMD и маркируются примерно таким же образом вместо частоты системной шины). Потому следует очень внимательно смотреть на тип, скорость работы и количество модулей памяти, рекомендуемые для данного процессора, и стараться в этом вопросе не экспериментировать. Один модуль DDR2 объемом 4 гигабайта не заменит двух модулей по 2 гигабайта каждый – может так случиться, что в этом случае материнская плата с данным процессором вовсе не заработает.
В заключение этого краткого обзора памяти приведем рекомендацию, которую часто повторяют специалисты: что лучше, 4 модуля по 1 Гбайт памяти или 2 модуля по 2 Гбайт? Второй вариант предпочтительнее (и, кстати, выгоднее по цене), потому что, чем меньше плат памяти, тем легче их синхронизировать, меньше нагрузка на контроллер памяти, и работа вашего ПК будет стабильнее.
В недалеком прошлом, всего лет пятнадцать назад, существовало всего две разновидности персональных компьютеров: настольные (десктопы) и переносные (ноутбуки или лэптопы, что в переводе значит «наколенные»). Слабые попытки (например, фирмы Apple в их карманном компьютере Newton) соорудить что-нибудь более компактное, чем ноутбук, разбивались о дороговизну комплектующих – дисплеев и памяти, об отсутствие малопотребляющих и емких накопителей долговременного хранения информации, о примитивность и малое быстродействие внешних интерфейсов, особенно беспроводных. И лишь с появлением устройств флэш-памяти, дешевых беспроводных интерфейсов Wi-Fi и Bluetooth, доступных технологий передачи данных по сотовым сетям, усовершенствованием дисплейных технологий и прочих «плодов прогресса», карманные ПК стали быстро развиваться и совершенствоваться.
Подешевели и ноутбуки – в США количество проданных ноутбуков обогнало количество настольных компьютеров еще в 2005 году, в России ноутбуки резко вырвались вперед в 2010 году, сразу заняв 62 % рынка среди всех «больших» компьютеров. Сейчас типовой компьютерный пользователь имеет настольный компьютер дома (обычно в коллективно-семейном пользовании) и к нему ноутбук для личных и рабочих нужд. Те, кто имеет стационарный компьютер на рабочем месте, обычно дополняют его коммуникатором или нетбуком для мобильности, а самые «продвинутые» – планшетом, вроде iPad или Samsung Galaxy Tab.
Автор этих строк знает одного довольно высокопоставленного менеджера (генерального директора областной компании-оператора сотовой связи), который в личном пользовании имеет лишь коммуникатор и нетбук, перекрывающие почти все его потребности по функциональности компьютерной техники и всегда находящиеся при нем. Коммуникатор служит для оперативной связи и быстрого доступа к электронной почте и мессенджерам, а нетбук – для обстоятельных ответов на послания, финансовых операций и интернет-серфинга. «Большие» компьютеры у этого господина тоже, конечно, имеются, но используются куда менее интенсивно – домашний стационарный предназначен для крупных работ, а в офисе с ним в основном управляется секретарша.
Основной выбор у пользователя в том, какие компьютеры предпочесть – условно говоря, громоздкий десктоп против компактного нетбука или планшета – проходит по водоразделу потребление/производство информации. Если у пользователя доминирует потребление, т. е. его основные занятия: серфинг по Интернету, просмотр видео, получение сообщений от партнеров по социальным сетям, то планшет для него – идеальный выбор. Компания DisplaySearch утверждает, что если в 2010 году во всем мире планшетных ПК было продано меньше, чем нетбуков, то по итогам 2011 года продажи планшетников превысят продажи нетбуков в два раза. Характерно, что, согласно опросу Mail.ru, еще в 2009 году лишь 11 % россиян вообще знали, что такое планшетный компьютер, но уже к концу 2010 года количество осведомленных выросло до 93 %. Причину такого успеха следует усматривать в появлении Apple iPad, который, по выражению представителя фирмы Acer Глеба Мишина, «появился в нужное время, когда распространение получили современные средства связи, прежде всего сотовая связь третьего поколения, т. е. когда у мобильного пользователя появилась возможность быстро получать большие объемы цифровой информации и обмениваться ею».