Выбрать главу

Дорогие (от $150) корпуса имеют эксклюзивный дизайн, у них больше возможностей по поддержанию комфортной температуры, а имеющиеся средства управления оборотами вентиляторов позволяют минимизировать шум, когда система работает не в полную силу. Если вы сторонник самостоятельной сборки и апгрейда, помните, что хороший корпус может прослужить вам более 10 лет, и даже излишние, на первый взгляд, расходы на него вполне могут оправдаться.

* Памятная ворчалка

Чем грозит покупателю покупка дешевого (до $50) корпуса?

1. При сборке компьютера повредить пальцы может даже мастер с большим опытом, так как края стальных листов часто не обработаны должным образом. Вооружитесь матерчатыми перчатками!

2. Шасси корпуса штампуется из тонкой стали (0,5–0,7 мм), которая легко мнется и теряет первоначальный вид. Установленные оптические диски, кулеры и винчестеры могут вибрировать, а панели корпуса резонировать (в наиболее «картонных» моделях панели вибрируют от работы процессорного кулера уже на средних оборотах).

3. Питания, поступающего на материнскую плату от блока питания, может быть недостаточно для надежной работы даже экономичной системы.

4. Любой день может стать последним для вашего ПК, когда дешевый БП подаст на материнскую плату напряжение, способное сжечь комплектующие. Стоимость восстановления данных сгоревшего винчестера доходит до $400, столько стоят 3–4 дорогих корпуса.

Вершки и Core’шки

Автор: Василий Глючевский.

Давненько компания Intel не радовала нас достойными продуктами! За избыточное тепловыделение в сочетании с невыдающейся производительностью последние модели Pentium 4/D не пинал только ленивый. И, казалось, только недостаточные производственные мощности AMD, да стойкие навыки Intel в умасливании бога торговли помогали последней делать вид, что все идет по плану.
Не было бы счастья, да несчастье помогло

Однако долго так продолжаться не могло, и к середине 2006 года рыночные аналитики зафиксировали рекордную затоваренность складов и цепочек поставок процессорами Intel. Неспроста это. В AMD, наконец, расколдовали царевну-лебедь и достроили красавец-завод. Впрочем, о том, что по-другому и быть не могло, стало ясно еще два года назад, когда процессоры с архитектурой Netburst фактически перестали меняться – увеличение производительности давалось ценой непропорционального роста тепловыделения. А введение каждой новой опции (например, поддержка того же 64-битного расширения) вносило в тонкий механизм «длинноконвейерного» ядра очередной разлад, приводящий к тому, что и достигнутое с таким трудом ускорение «съедалось» на корню.

В такой ситуации необходимо было что-то предпринимать, причем срочно. И разработка принципиально новой архитектуры никак не вписывалась во временные рамки, да и все основные «творческие силы», занятые много лет проектом Netburst и не менее «далекими от народа» процессорами Itanium, едва ли могли быстро составить выигрышную комбинацию.

Ответственную разработку поручили неизбалованной до сих пор вниманием лаборатории Intel в Израиле, на счету которой был лишь один убедительный успех – адаптация к мобильным условиям процессора Pentium III, точнее ядра P6. Линейка Pentium M – плод их труда – отличалась как раз теми свойствами: экономичностью и относительно высоким уровнем «производительности на мегагерц», которых так не доставало «настольной» линейке процессоров Intel. И вопрос: «Когда же мы увидим такие же настольные процессоры?» – задавался представителям Intel едва ли не чаще вопросов о возможных путях прогресса настольной архитектуры.

Что можно было сделать за отведенный срок? Взять старое, проверенное ядро P6 и, без особой оглядки на исключительно мобильное применение, нарастить его количественные параметры – от числа исполняемых за такт команд до объемов кэш-памяти и внутренних буферов, частоты системной шины и прочего. Причем некоторые изменения в структуре нельзя назвать только количественными, они требовали весьма глубокой переработки, и перед разработчиками стояли куда более сложные задачи, чем механическое добавление таких же блоков к уже имеющимся. Но как бы то ни было, с поставленной задачей они справились.

И этого, на первый взгляд, «приземленного» подхода оказалось достаточно, чтобы старшая модель в новой процессорной линейке (Core 2 Extreme) с ходу получила двукратное (!) превосходство по совокупности тестов по сравнению с младшей моделью из предыдущей линейки (Pentium D 805). А поскольку архитектура нового ядра оказалась идеологически близкой к используемой в Athlon 64, но при этом «шире», то есть способна прокачивать данные в более высоком темпе, тот же Core 2 Extreme обеспечил себе примерно 20-процентное преимущество перед Athlon 64 FX-62, старшим на момент выпуска процессором конкурента.

Обещанного три года ждут

Много ли это? На первый взгляд – ничего особенного. Если сравнить цены, то вдвое быстрее, вообще-то, следовало бы работать старшим процессорам по сравнению с младшими даже внутри одной линейки. Ведь разница в цене между ними даже не двукратная. А Core 2 Extreme стоит дороже Pentium D 805 и вовсе в 10 раз.

Но если учесть, что речь идет непосредственно о преимуществе, получаемом при смене одного лишь процессора, тогда как на результаты тестов влияет производительность и памяти, и винчестера, и остальных компонентов, то это – очень много. Такого отрыва мы не наблюдали уже давно. Разумеется, речь идет о процессорозависимых приложениях, то есть таких, в которых ограничивающим скорость выполнения задачи фактором является именно производительность процессора. Но в их число попадают и многие общепринятые тесты (архивация, медиакодирование и т. п.).

Опциональное наполнение новых процессоров также включает все актуальные на сегодня «фичи» – от впервые полноценно реализованной в настольных процессорах Intel возможности существенного снижения частоты в простое (аналог AMD Cool’n’Quiet), 64-битного расширения (EM64T) и мультимедийных инструкций (включая новый набор SSE4) до «антивирусного бита», позволяющего пресечь исполнение вирусоподобного кода, записанного в область данных. Есть и поддержка, пока малополезной в настольных компьютерах, но многообещающей технологии виртуализации, позволяющей запускать на компьютере несколько операционных систем одновременно. Таким образом, основную задачу – не уступить конкуренту по функциональности и получить неоспоримое преимущество в производительности – Intel выполнила.