BIOS Setup и разгонный потенциал
Достаточно богаты (особенно для плат от Intel) и настройки меню BIOS Setup D975XBX. Помимо типовых по конфигурированию периферии загрузки, power management и прочего здесь присутствует управление скоростью вращения двух вентиляторов (процессорного и системного) от температуры в нескольких зонах, мониторинг четырех вентиляторов, трех температур и пяти напряжений питания. Есть настройка четырех основных таймингов и частоты работы памяти в системе (причем возможна установка частоты 800 МГц для памяти при FSB 800 и 1067 МГц), а напряжение питания памяти можно поднимать до 2,2 В с шагом 0,1.
В отдельном пункте меню можно гибко разгонять систему - менять множитель процессора (если разблокирован) и напряжение его питания (от 1,275 до 1,600 В), независимо поднимать (или опускать) частоту FSB (базовые уровни - 533, 800, 1067 или 1333 МГц), шин PCI Express (100-110 МГц) и PCI (до 40 МГц), повышать напряжение питания северного моста чипсета (от 1,5 до 1,73 В) и системной шины (от 1,25 до 1,4 В).
Плата Intel разгоняется по частоте до 30% с шагом 1% через пункт Host Burn-In Mode Percentage в меню BIOS Setup. На практике с двухъядерным процессором Intel Pentium Extreme Edition 955 на новом 65-нм ядре Presler (со штатной системной шиной 1067 МГц) мне без труда удалось разогнать плату Intel D975XBX на 25% по FSB при штатном напряжении питания (FSB составила 1333 МГц), а с небольшим поднятием напряжения на шине FSB и северном мосте - и на все "дозволенные БИОСом" 30%, то есть до FSB=1382 МГц. К сожалению, настройка FSB=1333 МГц в пункте меню FSB Frequency Override на практике не заработала. И тем не менее плата Intel D975XBX продемонстрировала отличный разгонный потенциал - на уровне лучших продуктов ведущих тайваньских производителей.
За предоставленное оборудование редакция журнала "Экспресс-Электроника" благодарит представительство компании Intel.
Чипсет Intel 975X Express
Выпущенный Intel осенью 2005-го, этот чипсет, является по сути уже известным нам с весны того же года набором Intel 955X Express, в котором "узаконили" использование графической шины PCI Express x16 для подключения двух видеокарт, работающих в паре (Nvidia SLI и ATI CrossFire, правда, только при наличии поддержки со стороны драйверов от ATI и Nvidia). Причем на каждую карту электрически выделяется шина PCI Express x8.
Напомним, на момент выхода i955X у Intel тоже была плата (D955XBK) с двумя слотами PCI Express x16 для работы с парой видеокарт. Похожие платы на чипсетах Intel 955X и 945P имелись и у ведущих тайваньских производителей. Однако из-за "детских болезней" полноценную поддержку "парных" технологий Nvidia и ATI так и не удалось реализовать. i975X Express и призван исправить наконец этот недочет и стать полноценным конкурентом чипсету Nvidia nForce4 SLI (Intel Edition), фактически господствовавшему более полугода в нише сертифицированных "парных" графических платформ.
В остальном параметры чипсета Intel 975X Express полностью повторяют характеристики своего предшественника, поэтому углубляться в подробности не станем.
Диаграмма.Архитектура чипсета Intel 975X Express
Помимо "графической", у чипсета i975X есть еще одна цель - послужить "правильной" платформой выходящим в начале 2006 года процессорам Intel Pentium D на новых 65-нм ядрах Presler и CedarMill. Несмотря на техническую совместимость с прежними чипсетами серий 955/945 Express, процессоры на новых ядрах могут оказаться несовместимыми с некоторыми не очень дальновидно спроектированными материнскими платами на этих чипсетах, что было бы особенно обидно (когда речь идет о продуктах для высокопроизводительных платформ). К тому же i975X готовит почву для будущих процессоров Intel - в частности, имеет полуофициальную поддержку системной шины 1333 МГц и памяти DDR2-800. Кстати, еще одним отличием i975X является изначальная поддержка процессоров с Intel VT (Virtualization Technology), а также полезной технологии Intel Active Management.
Да и с мостом ICH7R чипсет получает возможность использовать до шести линий PCI Express x1 (вместо четырех у ICH7 и ICH6/6R). По сравнению с чипсетом Nvidia nForce4 SLI Intel Edition новый продукт Intel никаких заметных преимуществ не предоставляет и даже наоборот - у nForce4 вдвое больше объем поддерживаемой памяти, быстрее шина связи между мостами, шины PCI Express x1 обеспечиваются северным мостом (а не южным, как у Intel), южный мост Nvidia MCP04 имеет два порта UltraATA/133 (а не один UltraATA/100, подобно Intel), которые также можно задействовать для создания RAID-массивов, 10 вместо восьми портов USB 2.0 и, наконец, у чипсета Nvidia есть встроенный гигабитный сетевой контроллер с мощным брандмауэром ActiveArmor. Хотя, если сравнивать с nForce4 SLI IE, то среди достоинств i975X Express присутствует возможность организовать до шести линий PCI Express x1 (вместо четырех у Nvidia), более качественный аудиоконтроллер Intel High Definition Audio и технология Intel Matrix Storage, благодаря которой всего на паре SATA-дисков можно одновременно организовать массивы RAID 0 и RAID 1.
Intel D975XBX: i975X Express "глазами" разработчика
Алекс Карабуто
"Экспресс-электроника"
Признаться, писать статьи о материнских платах - занятие неблагодарное. Ведь большинство плат одного класса похожи друг на друга, как две капли воды. Иное дело, если выходит плата на очередном чипсете, тогда обзор в какой-то степени превращается в рассказ о возможностях нового набора системной логики.
Cегодня именно такой случай - топовая плата от Intel на новом чипсете. Плата Intel D975XBX и чипсет Intel 975X Express предназначены для самого верхнего сегмента рынка настольных ПК, а также для рабочих станций начального и среднего уровней, поскольку предназначены для двухъядерных процессоров, что вкупе с технологией HT образует до четырех логических процессоров в одной системе. Более того, чипсет и плата позволяют установить до двух мощных графических карт для шины PCI Express, и на такую же шину можно "усадить" еще и профессиональный RAID-контроллер, создав высокопроизводительную и надежную дисковую подсистему. То есть, несмотря на свою "однопроцессорность" (заявленную на уровне чипсета i975X), данная платформа отлично подойдет и для мощных графических рабочих станций, а не только топовых ПК.
Плата Intel D975XBX
Эта системная плата, безусловно, возглавляет существующий перечень плат Intel для настольных ПК и графических рабочих станций начального уровня. Среди привлекательных новшеств, которые и делают эту плату очень удобной для создания высокопроизводительных систем, стоит отметить сразу три (!) механических слота PCI Express x16. На первый из них разведены все 16 линий графической шины PCI Express x16, на второй - восемь линий этой же шины, автоматически отключающиеся от первого слота, если используются две видеокарты (что гораздо удобнее, нежели в платах на nForce4 SLI с механическим "слотом-переключателем"). Наконец, на третий слот PCI Express, расположенный между двумя слотами PCI32, заведено четыре линии PCI Express x1 от моста ICH7R. То есть данный слот с пиковым пропусканием шины до 1 Гбайт/с в обоих направлениях может использоваться для установки высокопроизводительных RAID-контроллеров Serial ATA или Serial Attached SCSI (они, как правило, имеют шину PCI Express x4 или x8), или для иной нужной периферии, включая карты PCI Express x1.
Впрочем, практически вся необходимая периферия уже предусмотрена на плате. Помимо высококлассного звука (8-канальный Intel High Definition Audio, аудиокодек SigmaTel 9221, шум - менее 90 дБ), восьми штатных портов USB 2.0, богатых Serial ATA RAID-возможностей моста ICH7R (четыре порта по 3 Гбит/с, NCQ, HotPlug, RAID 5, 10 и пр.) на плате присутствуют и дополнительные контроллеры. Так, на шине PCI установлен двухпортовый контроллер интерфейса IEEE 1394a (FireWire 400 Мбит/с), рядом есть еще один четырехпортовый SerialATA RAID SiI3114 от Silicon Image (RAID 0, 1, 10; в бета-версии возможен и программный RAID 5), а к оставшимся линиям PCI Express x1 подключен гигабитный Ethernet-контроллер Intel 82573. Все шины PCI Express и PCI оснащены также шиной SMBus. На плате имеется чип аппаратного мониторинга и коннекторы для подключения четырех вентиляторов (процессорный и Aux обеспечивают ток до 3 А, два других - до 1,5 А).
Плату выгодно отличает использование бесшумного пассивного охлаждения (радиаторы без вентиляторов на обоих мостах чипсета, а также на силовых ключах стабилизатора питания процессора; в работе все они едва теплые), импульсного стабилизатора напряжения на памяти и мощного пятифазного (судя по количеству катушек и блоков ключей) стабилизатора напряжения питания процессора.
За это, кстати, приходится "платить" необходимостью использования 8-контактного "серверного" разъема питания + 12 В. На задней панели платы помимо прочего присутствуют оптический и коаксиальный S/PDIF-выходы. Разъемы Serial ATA имеют обойму, защищающую от случайного излома. Из недостатков платы (и в качестве пожеланий на будущее) отметим использование низкоскоростного IEEE 1394a вместо вдвое более быстрого наследника 1394b, а также применение устаревшего PCI-контроллера SATA 1.0 SiI3114, тогда как уже более года назад выпущен его наследник SiI3124 с поддержкой SATA 2.5 (3 Гбит/с и NCQ). Кроме того, можно было бы использовать и SATA2-контроллер SiI3132 и вывести один-два SATA-порта на заднюю панель платы. Не помешал еще хотя бы один UATA-порт.
Плюсы: |
Отличный разгонный потенциал Бесшумное пассивное охлаждение Три механических слота PCI Express x16 |
Минусы: |
Использование низкоскоростного IEEE 1394a Устаревший PCI-контроллер SATA 1.0 SiI3114 |
Что мы уже знаем...
Для тех, кто не читал публикаций о новых чипсетах Alderwood, и Grantsdale, а также для всех остальных, кто успел подзабыть то, что читал когда-то, напомним, чем интересны новые чипсеты и чем они отличаются от старых.
Перечисляя все это, нельзя удержаться и не вспомнить о «цифровом доме» - концепции,которую так активно продвигает Intel. Действительно, настольный компьютер с такими характеристиками стоит считать полноценным медиацентром. Однако вернемся к вопросу производительности. Что же несет переход на более высокие частоты шины как процессорной, так и DMI (Direct Media Interface), соединяющей южный и северный мосты? К чему приводит использование DDR2? На эти вопросы поможет ответить только эксперимент.
Что тестируем?
Для начала давайте разберемся, что и с чем мы хотим сравнить? Во-первых, нас интересует, как будут работать новые процессоры на новой платформе и как поведут себя «старые» модели. Во-вторых, хотелось бы сравнить данные результаты с тем, что удалось сделать конкуренту — поэтому в тесте фигурируют платформы AMD. Ну и наконец, любопытно, как поведет себя память DDR2 с большей пропускной способностью, но и большими задержками. Итак, имеем семь тестовых стендов по одному для каждого из процессоров:
Intel Pentium 4 560 (LGA775); Intel Pentium 4 550 (LGA775); Intel Pentium 4 Extreme Edition 3,4 ГГц (LGA775); AMD Athlon 64 FX-53 (Socket 939); AMD Athlon 64 3700+ (Socket 754); Intel Pentium 4 3.4E ГГц (Socket 478, Prescott); Intel Pentium 4 Extreme Edition 3.4 ГГц (Socket 478).Южный мост ICH6RW
Процессоры AMD работали на платах ASUS A8V Deluxe (Socket 939, VIA K8T800 Pro) и ABIT KV8-MAX3 (Socket 754, VIA K8T800), которые отличаются главным образом тем, что на A8V реализована двухканальная память DDR400, а на KV8-MAX3 — нет. Что касается решений Intel, старшие модели работали на Intel D925XCV
Разъем Socket 775 реализует новый метод крепления процессора
(LGA775, i925X Express), а младшие модели - на ASUS P4C800-E Deluxe (Socket 478, i875P). Первая плата работает с DDR2, а вторая — с DDR SDRAM.
Intel 9xx: время тестов
Андрей Шуклин
Журнал "Экспресс электроника 09`04"
Громкий анонс новых платформ от компании Intel уже прошел, и сегодня мы можем оценить их реальную производительность. Что несут новые платы пользователю? Получит ли он реальный прирост мощности? Давайте попробуем в этом разобраться. Вообще, вопрос производительности вызывает отнюдь не праздный интерес: то, что новые платформы окажутся привлекательными с точки зрения возможностей, сомнений уже не вызывает. Реализация более качественного аудио, возможностей RAID и других функций, конечно, привлекает пользователя, но ведь всегда хочется знать, будет ли на новой платформе быстрее работать офисный пакет, удастся ли тратить меньше времени на архивацию и немного повысить уровень детализации в любимой игре?
Тесты
Первый тест — новый офисный пакет SysMark 2004. Он включает несколько отдельных категорий, в числе которых 3D Creation, 2D Creation, Web Publication, Communication, Document Creation и Data Analysis. В 3D Creation происходит рендеринг изображения и построение векторной анимации, а также создание веб-публикаций в Dreamweaver MX. Что касается 2D Creation, в данном случае моделируется работа пользователя в Premiere 6.5, который создает видеоролик из нескольких других роликов в сыром формате и отдельных звуковых треков. В тесте также используется Photoshop 7.01 и After Effects 5.5. Далее, Web Publication: тест на работу Flash MX, Windows Media Encoder 9 и VirusScan 7.0. В секции Communication происходит работа Internet Explorer 6.0 и Outlook 2002 с проверкой системы утилитой VirusScan 7.0. Название Document Creation говорит само за себя: скрипт редактирует текст в Word 2002, а также использует Dragon NaturallySpeaking 6 для преобразования аудиофайла в текстовый документ. После этого — преобразование в PDF при помощи Acrobat 5.0.5. и создание презентации в PowerPoint 2002. И наконец, Data Analysis — работа с базой данных в Access 2002 и таблицей Excel при попутном архивировании WinZip 8.1.
Вот такой тест. Пожалуй, он наиболее полно представляет все возможные сферы деятельности пользователя офисного компьютера (см. таблицу 1).
Таблица 1. Результаты теста SysMark 2004, баллы
Как видно, новые процессоры даже немного отстают от старых. Скорее всего, это объясняется большими задержками памяти DDR2, что мы и проверим в следующем тесте. Изделия компании AMD немного отстают, что можно объяснить отсутствием технологий, аналогичных Hyper-Threading. Надо сказать, в офисном тесте она очень полезна, поскольку симулятор запускает многие приложения параллельно.
Второй тест — SiSoft Sandra 2004, с помощью которой мы напрямую оценим возможности памяти DDR2 по сравнению с DDR400 (таблица 2). Итак, результаты этого теста показывают некоторую «заторможенность» памяти DDR2. То есть даже при большем значении пиковой пропускной способности память DDR2 533 МГц отстает от DDR400.
Вообще говоря, разрыв не так и велик, но все же определенное падение производительности подсистемы памяти налицо. Скорее всего, преимущества памяти DDR2 пока еще не слишком востребованы приложениями и, как следствие, не вполне реализованы алгоритмы, способные эффективно использовать DDR2.
Таблица 2. Результаты теста SiSoft Sandra 2004, баллы
Теперь оценим работу платформ при кодировании медиаданных с помощью DivX 5.1.1 в XMpeg 5.0 (таблица 3). Как вы можете видеть, особого прироста не наблюдается, даже наоборот - новые платформы работают чуть медленнее, но не настолько, чтобы это было действительно ощутимо. Похоже, с точки зрения вычислительной мощности новая платформа не выигрывает и не проигрывает старой.
Таблица З. Кодирование в DivX5.11,fps
И последний тест — игровой. Его сложность состоит в том, что платформы обладают различными шинами для видеоускорителя - PCI Express x16 и AGP x8. Чтобы выйти из положения, мы взяли две видеокарты на одинаковом ядре — NVIDIA GeForce FX 5900XT и NVIDIA GeForce PCX 5900, а также использовали показатели вклада процессора в рендеринг сцен (таблицы 4 и 5). Из этого видно, что переход на новую платформу также ничего не дает по части производительности. Впрочем, ничего иного и не приходилось ожидать.
Таблица 4. Результаты теста ЗВМагк 2003 SE (процессор), баллы
Таблица 5. Результаты теста ЗВМагк2003 SE, общий балл
Как мы могли убедиться, новая
Как мы могли убедиться, новая платформа хороша как концепт. Она, можно сказать, сделана навырост — это и DDR2, и PCI Express, и SATA RAID. Да, новинка хороша инфраструктурой, однако в производительности мы, увы, не выигрываем. К тому же на сегодняшних приложениях память DDR2 оказывается не столь эффективной, как DDR400. Таким образом, новый продукт порадует тех, кому нужен более функциональный компьютер, а не более производительный процессор.
Анализ результатов
В заключение попробуем проанализировать результаты тестирования.
Бенчмарки
С учётом позиционирования двухъядерных процессоров как процессоров для работы с 3D-графикой и обработки видео- и аудиоданных, а также для работы в многопоточной среде, для их сравнительного тестирования были отобраны тесты и приложения, направленные на обработку звуковых и видеофайлов, созданий Интернет-контента, а также стандартные офисные приложения. Использовались следующие тестовые пакеты и приложения:
офисные тесты: - VeriTest Business Winstone 2004,
- VeriTest Multimedia Content Creation Winstone 2004,
OCR-распознавание: - ABBYY FineReader 8.0 (распознавание pdf-документа);
Архивирование: - WinRAR 3.00 (архивирование файлов)
3D-приложения: - Discreet 3d Studio Max 7.0 (рендеринг 3D-сцен),
Обработка видео- и аудиоданных: - Lame 4.0 alpha 14 (конвертирование формата wav в mp3),
- iTunes 5.0.01.4 (конвертирование формата wav в mp3),
- MP3Gain v.1.2.5 (обработка mp3-файла),
- XMPEG 5.2+DivX 6.0 (конвертирование формата MPEG-2 в DivX),
- TMPGEnc 2.5.24 (конвертирование avi-файла в формат m2v),
- Windows Media Encoder 9.0 (конвертирование avi-файла в формат wmv),
- Adobe After Effects 6.5.
Двухъядерные процессоры Intel: выбираем лучший
Василий Леонов
Тестовая лаборатория Ferra
Выражаем благодарность компании ASBIS за предоставленные для обзора процессоры.
В апреле 2005 года корпорация Intel объявила о выходе двухъядерной платформы, включающей семейство двухъядерных процессоров Intel Pentium D 8xx и набор микросхем Intel 955X Express. На сегодняшний день в модельном ряде двухъядерных процессоров Intel для ПК насчитывается четыре модели, которые отличаются друг от друга тактовой частотой, набором поддерживаемых технологий и, конечно же, стоимостью. В этой статье мы сравним производительность всех двухъядерных процессоров Intel и выберем самый оптимальный по соотношению цена/производительность процессор.
Методика тестирования
Для тестирования процессоров семейства Intel Pentium D и Intel Pentium Processor Extreme Edition 840 использовалась абсолютно одинаковая конфигурация стенда, то есть одними и теми же были системная плата, память, дисковая подсистема, видеокарта и т.д. Стенд для тестирования имел следующую конфигурацию: материнская плата: Gigabyte 8I955X Royal (версия BIOS F7); чипсет материнской платы: Intel 955X Express (ICH7); память: Corsair 2 x 512 Мбайт DDR2-667 (PC5300); видеокарта: ATI RADEON X700 XT (256 Мбайт) (интерфейс PCI Express x16); дисковая подсистема: Seagate Barracuda ST3160827AS (ёмкость 160 Гбайт); файловая система: NTFS с размером кластера по умолчанию (4 Кбайт).
В качестве операционной системы использоваласьОС WindowsXP Professional (English) c SP2.
Из дополнительных утилит и драйверов применялись: Intel Chipset Software Utility Version 7.0.0.1019; версия видеодрайвера: ATI 6.14.10.6497.
Все тесты производились при глубине цвета 32 бит и частоте строчной развертки 60 Гц.
Многоядерность — следующий этап развития
Избежать конфликтных ситуаций, возникающих при использовании технологии Hyper-Threading, можно в том случае, если изолировать в пределах одного процессора выполнение различных потоков инструкций. Фактически для этого потребуется использовать не одно, а два и более ядер процессора. Тогда в идеальном варианте каждый поток инструкций утилизирует отведённое ему ядро процессора (и исполнительные блоки), что позволяет избежать конфликтных ситуаций и увеличить производительность процессора за счёт параллельного выполнения потоков инструкций.
В рассмотренном примере возникновения конфликтных ситуаций при использовании технологии Hyper-Threading применение двух независимых ядер для выполнения двух потоков инструкций позволило бы выполнить весь программный код не за семь (как в случае процессора с технологией Hyper-Threading), а за пять тактов (рис. 4).
Рисунок 4. Преимущество двухъядерной архитектуры процессора
Конечно, говорить о том, что двухъядерные процессоры в два раза производительнее одноядерных, не приходится. Причина заключается в том, что для реализации параллельного выполнения двух потоков необходимо, чтобы эти потоки были полностью или частично независимы друг от друга, а кроме того, чтобы операционная система и само приложение поддерживали на программном уровне возможность распараллеливания задач. И в связи с этим стоит подчеркнуть, что сегодня далеко не все приложения удовлетворяют этим требованиям и потому не смогут получить выигрыша от использования двухъядерных процессоров. Пройдет ещё немало времени до тех пор, пока написание параллельного кода приложений ни войдет в привычку у программистов, однако первый и самый важный камень в фундамент параллельных вычислений уже заложен. Впрочем, уже сегодня существует немало приложений, которые оптимизированы для выполнения в многопроцессорной среде, и такие приложения, несомненно, позволят использовать преимущества двухъядерного процессора. Кроме того, двухъядерная архитектура процессора позволяет выявить преимущества при одновременной работе с несколькими приложениями, что является типичной ситуацией на сегодняшний день.
Модельный ряд двухъядерных процессоров Intel
Модельный ряд двухъядерных процессоров Intel на сегодняшний день включает в себя 4 модели: процессор Intel Pentium Processor Extreme Edition 840 и три процессора семейства Intel Pentium D.
Процессор Intel Pentium Processor Extreme Edition 840 – флагман линейки десктопных двухъядерных процессоров Intel. Итак, процессор Intel Pentium Extreme Edition 840 – это процессор с двумя ядрами на одном кристалле и корпусировкой LGA775. Тактовая частота процессора составляет 3,2 Ггц.
Каждое ядро процессора имеет микроархитектуру NetBurst. Отметим, что среди семейства всех двухъядерных процессоров Intel процессор Intel Pentium Processor Extreme Edition 840 – единственный, который поддерживает технологию Hyper-Threading, что в совокупности обеспечивает обработку до четырёх потоков. Поэтому один такой физический процессор с точки зрения операционной системы определяется как четыре логических процессора.
Каждое ядро процессора имеет собственный кэш второго уровня L2 объёмом 1 Мбайт, соответственно, общий объём кэша L2 составляет 2 Мбайта. Процессор производится по 90-нанометровому технологическому процессу, при этом размер самого кристалла процессора составляет 206 мм2, а количество транзисторов внутри процессора – 230 млн. Казалось бы, такой мощный двухядерный процессор будет выделять чрезмерно много тепла и потребует эффективной системы охлаждения. Однако, процессор Intel Pentium Extreme Edition 840 поглощает всего 130 Вт, а максимальная температура поверхности кристалла не превосходит 70 градусов Цельсия. Напряжение питания ядра процессора составляет от 1,25 В до 1,388 В, а максимальный ток – 125 А
Кроме того, отметим, что данный процессор поддерживает технологии Intel Extended Memory 64 Technology, Execute Disable Bit, а также технологии тепловой защиты Thermal Monitor и Thermal Monitor 2. В то же время, данный процессор не поддерживает технологию энергосбережения Enhanced Intel SpeedStep.
Данный процессор ориентирован на использование в компьютерах и рабочих станциях, критичных к ресурсоёмким приложениям с многопоточной обработкой данных.
Настройки тестов
Первые два теста — традиционные бенчмарки, предназначенные для тестирования производительности системы в целом c использованием популярных офисных приложений. Результаты этих тестов определяются не только процессором, но и пропускной способностью памяти, а также производительностью дисковой подсистемы компьютера. При использовании данных тестов устанавливалось разрешение экрана 1024 х 768 точек при 32-битной глубине цвета.
Приложение ABBYY FineReader 8.0 использовалось для распознавания многостраничного pdf-документа, в процессе которого измерялось время выполнения задачи. Данный тест является многопоточным и оптимизирован под двухъядерные процессоры.
В тесте WinRAR 3.0 использовалась максимальная степень сжатия с размером словаря 4096 Кбайт. При этом отметим, что сам по себе тест является однопоточным, поэтому ожидать, что двухъядерные процессоры получат в этом тесте преимущество, не приходится.
Ещё одна группа тестов была ориентирована на измерение производительности процессора при обработке аудио- и видеоданных. Для конвертации аудиоданных из формата wav в формат mp3 использовались кодеки Lame 4.0 alpha 14 и iTunes 5.0.0.1.4. Кроме того, для обработки mp3-файла использовалась утилита MP3Gain v.1.2.5.
Отметим, что кодек iTunes 5.0.1.4 эффективно раскладывает аудиоданные на два потока и использует два ядра процессора. В то же время, использование технологии Hyper-Threading в процессоре серии Extreme Edition не приводит к распараллеливанию потока на четыре логических ядра процессора.
Отметим, что при конвертировании аудиофайла с использованием кодека iTunes 5.0.1.4 использовался файл размером 701,5 Мбайт (1411 kbps, 44 кГц, Stereo, 16 бит), а битрейт составлял 160 kbps.
При использовании для конвертирования кодека Lame 4.0 alpha 14 использовался тот же самый wav-файл, причём запуск процесса конвертирования производился из командной строки. При этом использовалась команда запуска с параметром -nores (команда c:\lame.exe –nores –mt mixTest.wav), что позволяет задействовать два ядра процессора.
В кодеке Lame 4. 0 alpha 14 скорость потока составляла 128 kbps, а скорость сэмплирования – 44 кГц. Для конвертирования видеофайла из формата MPEG-2 (расширение файла mpg) в формат DivX (контейнер avi) использовалась утилита XMPEG 5.2 с кодеком DivX 6.0. Размер исходного видеофайлафайла (в формате MPEG-2) составлял 110 Мбайт (разрешение 720 х 480), а размер сжатого файла в формате DivX – 88,8 Мбайт. При этом звук не подлежал компрессии (48 кГц, Stereo, 128 kbps), а скорость видеопотока составляла 6147 kbps. Отметим, что утилита XMPEG 5.2 с использованием кодека DivX 6.0 прекрасно раскладывает поток данных на два ядра процессора, равномерно загружая их. В то же время, разложение на четыре потока (с учётом технологии Hyper-Threading) малоэффективно. Для конвертирования avi-видеофайла в формат m2v использовалась утилита TMPGEnc 2.5.24. При этом устанавливались настройки DVD NTSC (4:3, 525 lines) (MPEG-2, 720x480, битрейт 7995 kbps). В итоге исходный видеофайл, который был создан кодеком DivX MPEG-4 Low Motion, с размером 51,9 Мбайт конвертировался в m2v файл размером 222 Мбайт и wav-файл размером 42,7 Мбайт. Отметим, что процесс конвертирования с помощью утилиты TMPGEnc 2.5.24 оптимизирован под двухъядерные процессоры. В процессе конвертирования в равной степени загружаются оба ядра процессора. Добавление технологии Hyper-Threading к каждому ядру процессора не способствует росту эффективности конвертирования. Для конвертирования того же avi-файла (кодек DivX MPEG-4 Low Motion) в формат wmv использовались программы Windows Media Encoder 9.0 (Advanced Profile). При использовании конвертора Windows Media Encoder 9.0 (Advanced Profile) размер результирующего файла составлял 7,82 Мбайт. Следующий тест – это популярное 3D-приложение Discreet 3d Studio Max 7.0, которое использовалось только для рендеринга трёхмерных сцен, поскольку именно в этом режиме на центральный процессор системы ложится наибольшая нагрузка. Во всех тестах, кроме пакта VeriTest Business Winstone 2004 и VeriTest Multimedia Content Creation Winstone 2004, измеряемой характеристикой являлось время выполнения задачи.
Поэтому чем меньше оказывалось время, то есть результат теста, тем лучше. Кроме того, для того, чтобы оценить преимущества двухъядерных процессоров при многопоточной обработке данных одновременно комбинировалось несколько тестов, запускавшихся одновременно. Так, процесс конвертирования формата wav в mp3 кодеком lame 4.0 мы сочетали с одновременной обработкой mp3-файла утилитой MP3Gain v.1.2.5. Для этого сначала запускался более длительный процесс конвертирования, и на фоне выполнения этой задачи запускалась более короткая задача обработки mp3-файла. В этом случае время выполнения задачи рассчитывалось как время выполнения более короткой задачи, то есть обработки mp3-файла. Аналогично процесс конвертирования одного видеофайла из формата mpg в DivX (XMPEG 5.2с кодеком DivX 6.0) сочетался с процессом конвертирования другого видеофайла из формата DivX в формат wmv (Windows Media Encoder 9.0). В этом случае фоновым процессом являлся более длительный процесс конвертирования DivX в wmv, а за результат теста принималось время конвертирования формата mpg в формат DivX. Результаты сравнительного тестирования процессоров представлены в таблице.
Тесты | Intel Pentium Extreme Edition 840 | Intel Pentium D 840 | Intel Pentium D 830 | Intel Pentium D 820 |
Business Winstone | 22.56±0.21 | 22.64±0.21 | 22.08±0.32 | 21.06±0.14 |
Mulitasking Test | 2.81±0.02 | 2.95±0.10 | 2.89±0.09 | 2.80±0.07 |
Multimedia Content Creation | 31.90±0.09 | 31.92±0.10 | 30.38±0.06 | 28.58±0.14 |
iTunes 5.0.01.4 (wav->mp3) | 133.60±7.38 | 119.50±0.51 | 126.40±0.68 | 134.60±0.68 |
lame 4.0 a14 (wav->mp3) 128 kbps | 163.40±1.11 | 164.00±1.52 | 174.60±0.68 | 187.00±0.00 |
MP3Gain v.1.2.5 | 72.20±0.56 | 71.80±0.56 | 77.00±0.88 | 83.00±0.88 |
WinRAR 3.0 | 162.40±6.51 | 165.60±1.11 | 170.60±1.42 | 175.60±1.88 |
WinRAR 3.0 (два потока) | 226.20±11.3 | 210.20±4.16 | 213.60±0.68 | 217.40±1.42 |
TMPGEnc 2.5.24 (avi -> m2v) | 238.86±6.68 | 221.20±1.36 | 233.80±2.54 | 250.40±1.88 |
XMPEG 5.2 (кодек DivX 6.0) (MPEG-2->DivX) | 140.60±1.42 | 137.80±2.39 | 146.00±1.96 | 155.00±1.52 |
Windows Media Encoder 9 (avi -> wmv) | 122.20±1.04 | 142.80±2.54 | 153.20±1.84 | 160.60±1.42 |
Adobe After Effects 6.5, с | 417.60±4.35 | 414.00±1.76 | 436.60±1.88 | 464.20±2.04 |
ABBYY FineReader 8.0, с | 111.00±1.52 | 110.80±1.04 | 117.00±1.52 | 125.80±1.04 |
3d Studio Max 7.0 Rendering | 250.59±1.27 | 301.08±0.61 | 320.60±0.54 | 343.26±0.58 |
Все тесты запускались как минимум по пять раз. Для некоторых тестов число прогонов увеличивалось до десяти раз, что позволило обеспечить требуемую точность измерения. В качестве результата тестирования использовалось среднее по выборке от всех прогонов, то есть: Кроме того, рассчитывалась дисперсия выборки среднего и доверительный интервал измерений с коэффициентом надёжности ? = 95%: Кроме того, рассчитывалась и относительная погрешность измерений: Не вникая в подробности этих математических премудростей, отметим лишь, что истинное значение любой измеряемой величины на практике можно определить лишь с заданной степенью точности, поскольку истинное значение определяется лишь при бесконечном числе измерений, что теоретически невозможно реализовать. Поэтому истинное значение измеряемой величины заменяется на некоторое усреднённое значение (среднее по выборке). Сам же доверительный интервал – это интервал, в котором с вероятностью, равной коэффициенту надёжности, будет находиться истинное значение измеряемой величины. Понятно, что чем больше проводится измерений, тем меньше будет и доверительный интервал. Особенно подчеркнём, что доверительный интервал – это не интервал, в который попадает с заданной вероятностью каждое отдельное измерение. То есть, если после определения доверительного интервала произвести измерение искомой величины ещё раз, то совсем не обязательно, что её значение попадёт в доверительный интервал. Доверительный интервал определяет лишь диапазон возможных значений истинного значения измеряемой величины. В наших тестах количество прогонов (измерений) выбиралось исходя из того, чтобы доверительные интервалы с коэффициентом надёжности 95% для одних и тех же измеряемых величин, но для разных процессоров, по возможности бы не перекрывались, а относительная погрешность измерения была бы менее 5%.
Обработка аудиоданных
Теперь обратимся к результатам тестирования процессоров в задачах по обработке аудиоданных. При использовании популярной утилиты iTunes 5.0.01.4 для конвертирования аудиофайла в формате wav в формат mp3 время конвертирования линейно уменьшается с ростом тактовой частоты процессора, что вполне естественно. Напомним, что при конвертировании с помощью утилиты iTunes 5.0.01.4 загружаются оба ядра процессора, то есть приложения оптимизированы под двухъядерную архитектуру. В то же время, технология Hyper-Threading в процессоре Intel Pentium Processor Extreme Edition 840 сводит на нет всё его преимущество по тактовой частоте, опуская его до уровня процессора Intel Pentium D 820. Ну что ж, к вредоносным последствиям Hyper-Threading в двухъядерных процессорах мы начинаем уже потихоньку привыкать.
Использование для конвертирования аудиофайлов популярного кодека Lame 4.0 приводит примерно к таким же результатам: наблюдается уменьшение времени конвертирования по мере роста тактовой частоты. Однако в данном случае последствия от активирования технологии Hyper-Threading не так катастрофичны. Если она и не способствует уменьшению времени конвертирования, так хоть не увеличивает его. При использовании утилиты MP3Gain v. 1.2.5 для обработки mp3-файлов наблюдаются аналогичные результаты: вреда от технологии Hyper-Threading нет (пользы, правда, тоже), а лидером в данном случае является процессор с более высокой тактовой частотой.
Рисунок 8. Результаты тестирования процессоров в задачах по обработке аудиофайлов
Обработка видеоданных
Теперь обратимся к рассмотрению результатов тестирования процессоров в задачах по обработке видеофайлов.
При использовании утилиты XMPEG 5.2 с кодеком DivX 6.0 для конвертирования видеофайла из формата MPEG-2 в DivX наилучшие результаты демонстрирует процессор Intel Pentium D 840. Технология Hyper-Threading в процессоре Intel Pentium Processor Extreme Edition 840 в данном случае не позволяет получить прироста производительности (более того, результаты при этом становятся немного хуже).
Примерно аналогичный результат получается и при конвертировании файла в формат m2v с помощью утилиты TMPGEnc 2.5.24. Разница заключается в том, что в данном случае негативное влияние технологии Нyper-Threading более существенно.
Собственно, мы уже имели возможность убедиться в том, что технология Hyper-Threading в двухъядерных процессорах в лучшем случае способна лишь не навредить. Однако, как выяснилось, есть и исключения из этого правила. Так, при конвертировании видеофайла в формат wmv утилитой Windows Media Encoder 9.0 в лидерах оказывается процессор Intel Pentium Processor Extreme Edition 840, который получает существенный прирост в производительности именно за счёт использования технологии Hyper-Threading.
А вот в таком пакете, как Adobe After Effects 6.5, всё достаточно традиционно. Результаты улучшаются по мере роста тактовой частоты, а использование технологии Huper-Threading несколько ухудшает результаты.
Рисунок 9. Результаты тестирования процессоров в задачах по обработке видеофайлов
В пакете Discreet 3ds Studio Max 7.0, который использовался для рендеринга трёхмерных сцен, результаты тестирования оказались довольно нетипичными. Фактически, это одно из немногих пользовательских приложений, которому технология Hyper-Threading идёт на пользу. То есть при рендеринге эффективно используются все четыре логических процессора, причём прирост производительности от использования технологии Hyper-Threading в данном случае даже выше, чем от увеличения тактовой частоты. К примеру, при увеличении тактовой частоты процессора на 200 МГц время рендеринга сокращается на 6%, а при использовании технологии Hyper-Threading – на 20%.
Вообще, можно ожидать, что использование технологии Hyper-Threading в двухъядерных процессорах принесёт выигрыш в производительности при рендеринге трёхмерных сцен и в других приложениях. Отсюда можно сделать вывод, что ниша, для которой предназначен процессор Intel Pentium Processor Extreme Edition 840 – это недорогие графические станции для дизайнеров.
Рисунок 10. Результаты тестирования в пакете 3ds Studio Max 7.0
Офисные приложения
Как видим, в офисных тестах (рис. 4) производительность всего семейства двухъядерных процессоров примерно одинакова и, конечно же, отличить «на глазок» один процессор от другого не представляется возможным. Более того, лидером в данном случае является процессор Intel Pentium D 840, а не Intel Pentium Processor Extreme Edition 840. Несмотря на одинаковую тактовую частоту, поддержка технологии Hyper-Threading в процессоре Intel Pentium Processor Extreme Edition 840 лишь ухудшает результаты, причём особенно негативно технология Hyper-Threading отражается именно на многозадачном тесте Business Winstone 2004 Multitasking test, где результаты процессора Intel Pentium Processor Extreme Edition 840 приблизительно равны результатам процессора Intel Pentium D 820.
Рисунок 5. Результаты тестирования в офисных приложениях
В тесте по скорости архивации с использованием утилиты WinRAR 3.00 технология Hyper-Threading позволяет получить незначительное преимущество при использовании процессора Intel Pentium Processor Extreme Edition 840. Собственно, это и понятно, ведь приложение является однопоточным, и технология Hyper-Threading позволяет более эффективно загрузить ресурсы процессора.
В то же время, если одновременно запустить две утилиты WinRAR 3.0, что позволяет выполнять параллельно два потока на отдельных ядрах процессора, то технология Hyper-Threading не только не способствует росту производительности, но и наоборот, фактически «убивает» процессор. Так, при одновременном выполнении двух утилит WinRAR 3.0 результаты процессора Intel Pentium Processor Extreme Edition 840 становятся хуже результатов процессора Intel Pentium D 820.
Рисунок 6. Сравнение времени архивации с использованием архиватора WinRAR 3.00
Ещё один пример реального офисного приложения, в котором двухъядерный процессор позволяет получить существенное преимущество – это программа распознавания текстов ABBYY FineReader 8.0. В общем-то, это и понятно, поскольку распознавание отдельных страниц текста – независимые друг от друга задачи, которые должны хорошо распараллеливаться.
Поэтому при использовании двухъядерного процессора одновременно распознаются две страницы текста (два потока с использованием двух ядер), а при использовании Intel Pentium Processor Extreme Edition 840 – четыре страницы (четыре потока с использованием четырёх логических процессоров), хотя стоит отметить, что технология Hyper-Threading в случае наличия двух ядер процессора не позволяет получить дополнительного преимущества в производительности.
Поиск золотой середины
Итак, давайте попробуем обобщить результаты тестирования двухъядерных процессоров Intel. В отношении технологии Hyper-Threading, реализованной в процессоре Intel Pentium Processor Extreme Edition, всё предельно ясно: вреда от неё больше чем пользы. Впрочем, вряд ли пользователю придётся рассуждать на тему блокировать или не блокировать данную технологию в BIOS, поскольку, как мы уже отмечали, данный процессор просто нельзя купить. Поэтому остаётся сделать выбор между тремя моделями. Если речь идёт о компьютере на базе двухъядерного процессора, который должен обладать максимальной производительностью, то выбор однозначен – это процессор Intel Pentium D 840. Однако сказать, что этот процессор оптимален, нельзя. Действительно, всё бы хорошо, но стоимость! А если при этом учесть, что в сравнении с процессором Intel Pentium D 820 прирост производительности в среднем составляет 10%, а стоимость отличается на 115%, то, согласитесь, есть о чём призадуматься. Если же сравнивать друг с другом процессоры Intel Pentium D 830 и Intel Pentium D 820, то окажется, что при усреднённой разнице в производительности на 5% их стоимость отличается всего на 30%. Согласитесь, что пара 5% и 30% куда лучше пары 10% и 115%.
Поэтому, если говорить об оптимальности, то выбор, конечно, следует делать между процессорами Intel Pentium D 830 и Intel Pentium D 820. И прежде чем вынести наш окончательный вердикт, напомним, что кроме производительности и стоимости эти два процессора отличаются ещё и тем, что модель Intel Pentium D 830 поддерживает технологию Intel Speed Step, а модель Intel Pentium D 820 – нет. Что это означает с точки зрения пользователя? Да хотя бы то, что данная технология снижает энергопотребление процессора Intel Pentium D 830 и позволяет, тем самым, создавать на его основе малошумные ПК. Впрочем, нужно отметить, что даже с использованием технологии Intel Speed Step энергопотребление процессора Intel Pentium D 830 остаётся выше, чем энергопотребление процессора Intel Pentium D 820.
Способы увеличения производительности процессора
Гонка тактовых частот, продолжавшаяся на протяжении многих лет, похоже, окончательно ушла в прошлое. За эти годы в умах пользователей укоренилось мнение, что именно тактовая частота процессора является показателем его производительности, однако планы компании Intel по наращиванию тактовых частот так и остались планами, и, скорее всего, увидеть процессор с тактовой частотой 10 ГГц нам предстоит весьма не скоро. По всей видимости, масштабирование процессоров по тактовой частоте оказалось не столь простой задачей, как предполагалось, и потому при сегодняшних технологических нормах производства процессоров и малоэффективных воздушных системах охлаждения добиться линейного масштабирования тактовой частоты процессоров не удаётся. Осознав, что увеличение прежними темпами тактовых частот процессоров не представляется невозможным, нужно было искать принципиально иные технологии увеличения производительности процессоров. Одновременно с этим необходимо было (по маркетинговым соображениям) убедить пользователей в том, что производительность процессора определяется не только и не столько его тактовой частотой. И первым шагом на пути к такому «перевоспитанию» пользователей стал отказ компании Intel от указания в названии процессора его тактовой частоты — на смену процессорам Intel Pentium 4 3,0 ГГц пришли загадочные обозначения вроде Intel Pentium 4 560 и т.п.
Давайте разберемся, от чего же в действительности зависит производительность процессора. Общепринято отождествлять производительность процессора со скоростью выполнения им инструкций программного кода. Производительность (Performance) — это отношение общего числа выполненных инструкций программного кода ко времени их выполнения:
В этом смысле производительность процессора отождествляется с количеством инструкций, выполняемых за секунду (Instructions rate). А поскольку одной из важных характеристик процессора является его тактовая частота, то желательно именно с ней связать производительность процессора. Это можно сделать, если количество инструкций, выполняемых за единицу времени, рассматривать как произведение количества инструкций, выполняемых за один такт процессора (Instruction Per Clock, IPC), на количество тактов процессора в единицу времени (тактовая частота процессора):
Количество тактов процессора в единицу времени – это и есть его тактовая частота (Frequency).
Таким образом, производительность процессора зависит в равной степени и от его тактовой частоты, и от количества инструкций, выполняемых за такт (IPC):
Впрочем, ожидать адекватного количеству процессоров роста производительности и в данном случае не приходится — многое зависит от типа решаемых задач, от реализации в серверной операционной системе поддержки SMP. Всегда можно найти такое приложение, которое в двухпроцессорной конфигурации будет показывать результаты ниже, чем в однопроцессорной, и потому любой «талантливый» программист вполне сможет свести на нет все преимущества многопроцессорной архитектуры. Между тем, кроме перечисленных способов увеличения общей производительности процессорной подсистемы, существуют технологии, позволяющие реализовать параллельное выполнение нескольких задач на одном процессоре. Такая многозадачность реализована в том или ином виде во всех современных процессорах. Отход от последовательного исполнения команд и использование нескольких исполняющих блоков в одном процессоре позволяют одновременно обрабатывать несколько процессорных микрокоманд, то есть организовывать параллелизм на уровне инструкций (Instruction Level Parallelism, ILP), что, разумеется, увеличивает общую производительность.
Технология Hyper-Threading – первый шаг к многоядерности
Анонсированная в 2002 году компанией Intel технология Hyper-Threading – пример многопоточной обработки команд. Данная технология является чем-то средним между многопоточной обработкой, реализованной в мультипроцессорных системах, и параллелизмом на уровне инструкций, реализованном в однопроцессорных системах. Фактически технология Hyper-Threading позволяет организовать два логических процессора в одном физическом. Таким образом, с точки зрения операционной системы и запущенного приложения в системе существует два процессора, что даёт возможность распределять загрузку задач между ними точно так же, как при SMP-мультипроцессорной конфигурации.
Посредством реализованного в технологии Hyper-Threading принципа параллельности можно обрабатывать инструкции в параллельном (а не в последовательном) режиме, то есть для обработки все инструкции разделяются на два параллельных потока. Это позволяет одновременно обрабатывать два различных приложения или два различных потока одного приложения и тем самым увеличить IPC процессора, что сказывается на росте его производительности.
В конструктивном плане процессор с поддержкой технологии Hyper-Threading состоит из двух логических процессоров, каждый из которых имеет свои регистры и контроллер прерываний (Architecture State, AS), а значит, две параллельно исполняемые задачи работают со своими собственными независимыми регистрами и прерываниями, но при этом используют одни и те же ресурсы процессора для выполнения своих задач. После активации каждый из логических процессоров может самостоятельно и независимо от другого процессора выполнять свою задачу, обрабатывать прерывания либо блокироваться. Таким образом, от реальной двухпроцессорной конфигурации новая технология отличается только тем, что оба логических процессора используют одни и те же исполняющие ресурсы, одну и ту же разделяемую между двумя потоками кэш-память и одну и ту же системную шину. Использование двух логических процессоров позволяет усилить процесс параллелизма на уровне потока, реализованный в современных операционных системах и высокоэффективных приложениях.
Команды от обоих исполняемых параллельно потоков одновременно посылаются для обработки ядру процессора. Используя технологию out-of-order (исполнение командных инструкций не в порядке их поступления), ядро процессора тоже способно параллельно обрабатывать оба потока за счёт использования нескольких исполнительных модулей. Идея технологии Hyper-Threading тесно связана с микроархитектурой NetBurst процессора Pentium 4 и является в каком-то смысле её логическим продолжением. Микроархитектура Intel NetBurst позволяет получить максимальный выигрыш в производительности при выполнении одиночного потока инструкций, то есть при выполнении одной задачи. Однако даже в случае специальной оптимизации программы не все исполнительные модули процессора оказываются задействованными на протяжении каждого тактового цикла. В среднем при выполнении кода, типичного для набора команд IA-32, реально используется только 35% исполнительных ресурсов процессора, а 65% исполнительных ресурсов процессора простаивают, что означает неэффективное использование возможностей процессора. Было бы вполне логично реализовать работу процессора таким образом, чтобы в каждом тактовом цикле максимально использовать его возможности. Именно эту идею и реализует технология Hyper-Threading, подключая незадействованные ресурсы процессора к выполнению параллельной задачи. Поясним всё вышесказанное на примере. Представьте себе гипотетический процессор, в котором имеется четыре исполнительных блока: два блока для работы с целыми числами (арифметико-логическое устройство, ALU), блок для работы с числами с плавающей точкой (FPU) и блок для записи и чтения данных из памяти (Store/Load, S/L). Пусть, кроме того, каждая операция осуществляется за один такт процессора. Далее предположим, что выполняется программа, состоящая из трёх инструкций: первые две — арифметические действия с целыми числами, а последняя — сохранение результата. В этом случае вся программа будет выполнена за два такта процессора: в первом такте задействуются два блока ALU процессора (красный квадрат на рис. 1), во втором — блок записи и чтения данных из памяти S/L.
Реализация параллелизма на уровне инструкций (Instruction Level Parallelism, ILP) В современных приложениях в любой момент времени, как правило, выполняется не одна, а несколько задач или несколько потоков (threads) одной задачи, называемых также нитями. Давайте посмотрим, как будет вести себя наш гипотетический процессор при выполнении двух разных потоков задач (рис. 2). Красные квадраты соответствуют использованию исполнительных блоков процессора одного потока, а синие квадраты — другого. Если бы оба потока исполнялись изолированно, то для выполнения первого и второго потока потребовалось бы по пять тактов процессора. При одновременном исполнении обоих потоков процессор будет постоянно переключаться между обоими потоками, следовательно, за один такт процессора выполняются только инструкции какого-либо одного из потоков. Для исполнения обоих потоков всего потребуется десять процессорных тактов. Рисунок 2. Выполнение двух потоков на процессоре без реализации и с реализацией технологии Hyper-Threading Теперь давайте подумаем над тем, как можно повысить скорость выполнения задачи в рассмотренном примере. Как видно из рис. 2, на каждом такте процессора используются далеко не все исполнительные блоки процессора, поэтому имеется возможность частично совместить выполнение инструкций отдельных потоков на каждом такте процессора. В нашем примере выполнение двух арифметических операций с целыми числами первого потока можно совместить с загрузкой данных из памяти второго потока и выполнить все три операции за один такт процессора. Аналогично на втором такте процессора можно совместить операцию сохранения результатов первого потока с двумя операциями второго потока и т.д. Собственно, в таком параллельном выполнении двух потоков и заключается основная идея технологии Hyper-Threading. Конечно, описанная ситуация является довольно идеализированной, и на практике выигрыш от использования технологии Hyper-Threading куда более скромен. Дело в том, что возможность одновременного выполнения на одном такте процессора инструкций от разных потоков ограничивается тем, что эти инструкции могут задействовать одни и те же исполнительные блоки процессора. Рассмотрим ещё один типичный пример работы нашего гипотетического процессора.
Пусть имеется два потока команд, каждый из которых по отдельности выполняется за пять тактов процессора. Без использования технологии Hyper-Threading для выполнения обоих потоков потребовалось бы десять тактов процессора. А теперь выясним, что произойдет при использовании технологии Hyper-Threading (рис. 3). На первом такте процессора каждый из потоков задействует различные блоки процессора, поэтому выполнение инструкций легко совместить. Аналогичное положение вещей наличествует и на втором такте, а вот на третьем такте инструкции обоих потоков пытаются задействовать один и тот же исполнительный блок процессора, а именно блок S/L. В результате возникает конфликтная ситуация, и один из потоков должен ждать освобождения требуемого ресурса процессора. То же самое происходит и на пятом такте. В итоге оба потока выполняются не за пять тактов (как в идеале), а за семь. Рисунок 3. Возникновение конфликтных ситуаций при использовании технологии Hyper-Threading Продолжение
Conroe
На основе Intel Core Microarchitecture для рынка настольных компьютеров корпорация недавно выпустила ряд моделей двухъядерных процессоров, получивших наименование Intel Core 2 Duo (ранее известных как Conroe). Основные компоненты ядер процессора Intel Core 2 Duo представлены на рис. 3.
Рис. 3. Основные компоненты ядер процессора Intel Core 2 Duo
Intel Core 2 Duo — уже третье поколение двухъядерных процессоров Intel для ПК (напомним, что к первому поколению относятся модели Intel Pentium D, разработанные для настольных решений, а ко второму — Intel Core Duo для мобильных ПК).
Все выпущенные в настоящее время процессоры Intel Core 2 Duo, ориентированные на рынок настольных систем, созданы по технологии 65 нм и работают с процессорной шиной, унаследованной от своих предшественников. Для новых процессоров тактовая частота шины составляет 266 МГц, что обеспечивает передачу данных с частотой 1066 МГц и пиковый поток 8,5 Гбайт/с.
За исключением процессоров начального уровня, все модели оснащены 4 Мбайт кэш-памяти второго уровня (L2). Весь объем памяти доступен обоим ядрам, интегрированным в состав каждого из процессоров. Кэш-память первого уровня (L1) у всех моделей одинакова и составляет 32 Кбайт для инструкций (L1 Code) и 32 Кбайт для данных (L1 Data). Все модели поддерживают 64-битные расширения Intel Enhanced Memory 64 Technology (EM64T), SIMD инструкции SSE, SSE2 и SSE3, технологию виртуализации — Intel Virtualization Technology (VT) и бит Execute Disable, участвующий в системе информационной защиты. И, кроме того, поддерживают технологии управления энергопотреблением Enhanced Intel SpeedStep, Thermal Monitor 2. Основные параметры недавно выпущенных моделей для настольных систем представлены в таблице 2.
Intel Core 2 Extreme X6800 | 2,93 | 1066 | 4 |
Intel Core 2 Duo E6700 | 2,66 | 1066 | 4 |
Intel Core 2 Duo E6600 | 2,40 | 1066 | 4 |
Intel Core 2 Duo E6400 | 2,13 | 1066 | 2 |
Intel Core 2 Duo E6300 | 1,86 | 1066 | 2 |
Таблица 2. Процессоры архитектуры Intel Core Microarchitecture для настольных ПК
Процессоры Intel Core 2 Duo, разработанные для настольных ПК, поддерживаются рядом наборов микросхем системной логики (чипсетами), среди которых семейство Intel 965 и Intel 975X.
Семейство наборов микросхем Intel 965 Express, ориентированное на массовые компьютеры (Mainstream Desktop), включает в себя варианты с графическим решением GMA3000, поддерживающим технологию Intel Clear Video.
Чипсет Intel 975X, разработанный для высокопроизводительных систем (Performance Desktop), поддерживает частоту передачи данных 1066 МГц, технологии повышения производительности подсистемы оперативной памяти и две видеокарты PCI Express x8/x16, способные работать параллельно. Данные наборы микросхем соответствуют требованиям ОС Microsoft Windows Vista Premium.
Intel Core 2 Extreme в действии
Евгений Рудометов, Виктор Рудометов
"IT News"
С развитием полупроводниковых технологий и совершенствованием внутренней архитектуры вычислительные возможности процессоров в сравнительно короткий срок возросли в десятки тысяч раз. Важнейшая же их характеристика — производительность — зависит от тактовой частоты, на которой работает ядро.
Intel Core Microarchitecture
Специалисты Intel предложили новую архитектуру, обеспечивающую эффективное снижение показателя Energy per Instruction (энергии, затраченной на выполнение одной инструкции). Данная архитектура, предоставляющая возможность реализации производительных экономичных многоядерных процессоров, получила наименование Intel Core Microarchitecture. Создана она группой конструкторов, ранее разработавших архитектуру ядра Banias. И хотя новинка, по мнению многих специалистов, ведет свою родословную от архитектуры P6, реализованной в Intel Pentium Pro и Pentium II/III, она является отдельной разработкой (рис. 2).
Рис. 2.Эволюция архитектуры x86
В продуктах, созданных на основе Intel Core Microarchitecture, нашли свое воплощение многие инновационные технологии, в частности Intel Wide Dynamic Execution, Intel Advanced Smart Cache, Intel Smart Memory Access, Intel Advanced Digital Media Boost, Intel 64 Technology, Intel Intelligent Power Capability. Данная архитектура стала основой для двухъядерных процессоров всех сегментов рынка ПК — настольных (Conroe), ноутбуков (Merom) и серверов (Woodcrest).
Ограничения частотного роста
С точки зрения пользователя, быстродействие процессора характеризуется временем выполнения определенного набора команд, последовательность которых образует компьютерную программу. Чем оно меньше, тем выше производительность. Иными словами:
производительность= (количество микрокоманд за такт) ×(тактовая частота)
Модели процессоров одного семейства, имеющие более высокие показатели тактовых частот, обладают и большей производительностью. Именно поэтому на протяжении сравнительно длительного времени повышение производительности процессора достигалось путем увеличения тактовых частот, на которых работают полупроводниковые ядра процессоров.
Однако безудержному росту тактовых частот препятствуют объективные физические законы, определяющие работу элементов уже нанометровых размеров. В ряду таких элементов нужно назвать прежде всего полупроводниковые транзисторы, изготовленные по технологии КМОП (CMOS). Параметры этих транзисторов (десятки миллионов которых составляют основу ядер процессоров) в значительной степени зависят от типоразмеров.
Изменение размеров определяется эволюцией технологических процессов, в соответствии с которыми осуществляется выпуск процессоров. Среди параметров, характеризующих техпроцесс, одним из основных выступают габариты полупроводниковых элементов (уменьшаемые каждые два года).
Совершенствование технологии и постепенное уменьшение размеров транзисторов способствуют улучшению их параметров, важнейшими из которых являются скоростные свойства. Благодаря уменьшению длины затвора в М раз пропорциональным образом возрастают частотные параметры и плотность размещения транзисторов.
Длина затвора (X) | 1/M |
Ширина затвора (Y) | 1/M |
Толщина затвора (Z) | 1/M |
Плотность размещения | M*M |
Частота работы | M |
Напряжение | 1/M |
Таблица 1.Масштабирование транзисторов
Однако работающие на высоких частотах транзисторы, десятки миллионов которых расположены на очень малой площади полупроводникового кристалла, оказывают друг на друга негативное влияние.
Это влияние можно легко проиллюстрировать на примере расположенных рядом проводников, соединяющих элементы в ядре процессора (рис. 1).
Входящие же в состав транзисторов p-n- переходы способны осуществлять непредусмотренное детектирование наведенных токов, их усиление и последующую передачу. Общая картина многократно усложняется, если учесть, что размеры транзисторов уже достигли тех значений, когда все большее влияние начинают оказывать квантовые эффекты. Миниатюризация полупроводниковых элементов, работающих на сверхвысоких частотах в условиях значительных электромагнитных помех, обусловливает стремительный рост неуправляемой составляющей токов в электронных схемах. Здесь следует напомнить, что для сохранения устойчивости работы электронных схем токи, контролируемые работающими элементами, должны быть больше неуправляемых токов утечки. В результате негативных явлений, порождаемых процессами миниатюризации, неуправляемые токи, основу которых составляют токи утечки, а также паразитные токи, связанные с ростом частоты переключения транзисторов, препятствуют снижению теплообразования процессоров за счет миниатюризации элементов. Это означает, что ожидаемого существенного снижения теплообразования не происходит, несмотря на уменьшение напряжения питания, достигнутое благодаря уменьшению типоразмеров транзисторов. Доля указанной неконтролируемой части электрического тока, и без того довольно значительная, еще более увеличивается с ростом частоты. Однако обратная сторона частотного роста — опять же сравнительно быстрое увеличение теплообразования процессоров. Учитывая же тот факт, что площадь кристалла процессора практически остается постоянной, рост теплообразования способствует увеличению плотности энергии. Высокая же мощность теплообразования сопровождается перегревом внутренних структур процессора, что негативно сказывается на работоспособности, а также усиливает и ускоряет процессы деградации полупроводников.
Производительность
Новая процессорная архитектура, реализующая перечисленные выше технологии, обеспечивает двухъядерным процессорам высокий уровень производительности при значительном сокращении энергопотребления, а следовательно, и теплообразования. В материалах, представленных на весенних сессиях Intel Developer Forum, фигурирует 40-процентное повышение производительности при таком же снижении теплообразования.
Теплообразование, как известно, определяется показателем TDP (Thermal Design Power — максимальная мощность теплообразования микросхемы). Для верхней модели в настоящее время он соответствует 75 Вт, для остальных — 60 Вт. Эти значения существенно ниже аналогичных показателей двухъядерных предшественников, в которых TDP достигал 130 Вт.
Что же касается производительности, обеспечиваемой процессорами с новой архитектурой, то ее оценку целесообразно осуществить в процессе тестирования. В качестве объекта тестирования была использована модель Intel Core 2 Extreme X6800, обеспечивающая наивысший уровень производительности среди процессоров Intel, выпущенных в настоящее время для сектора настольных компьютеров.
В роли эталона в исследовании выступил Intel Pentium D 820 на базе архитектуры NetBurst, относящийся к предыдущему поколению двухъядерных процессоров, разработанных для настольных компьютеров. Эта модель входит в группу продуктов с кодовым именем Smithfield и создана по технологии 90 нм. Тактовая частота работы ядер — 2,8 ГГц, кэш-память L1 Data имеет объем 16 Кбайт, L1 Trace — 12 Kuops, L2 — 1024 Кбайт.
В качестве основы тестовой системы использована материнская плата Intel D975XBX, созданная на основе «топового» чипсета Intel 975X. Основные параметры данной платы приведены в таблице 3.
Процессор | Intel Core 2 Extreme / Duo, Pentium Extreme Edition / D / 4 c LGA775 и шиной 1066/800 МГц |
Чипсет | Northbridge: Intel 82975X (MCH); Southbridge: Intel 82801GR (ICH7R) |
Оперативная память | Два канала, четыре DIMM DDR2 667/533 SDRAM, ECC/non-ECC. Максимальный объем — до 8 Гбайт |
Видео | 1–3 видеоадаптера в слотах стандарта PCI Express x16 (электрические — x16/x8, x8, x4), поддержка ATI CrossFire |
Аудио | HD Audio, до восьми каналов |
IDE | Один порт IDE (два устройства) с UltraDMA 100/66/33 |
Serial ATA | Четыре порта Serial ATA II (300 Мбайт/с) c поддержкой RAID; четыре порта Serial ATA (150 Мбайт/с) c поддержкой RAID |
USB 2.0 | Восемь портов USB 2.0/1.1 (четыре — через кабель) |
IEEE1394 | Два порта IEEE1394a (один — через кабель) |
LAN | Gigabit (10/100/1000 Mбит/c) LAN с реализацией посредством Intel 82573L Gigabit Ethernet Controller |
Порты задней панели | Порты PS/2 клавиатуры и мыши; один параллельный порт LPT; один последовательный порт COM; четыре порта USB 2.0/1.1; один порт IEEE 1394a; один порт RJ45; один Coaxial Digital Line Out; один Optical Digital Line Out; пять разъемов аудио |
Слоты | Три слота конструктива PCI Express x16; два слота PCI |
Форм-фактор | ATX, размеры платы: 305×244 мм |
Таблица 3. Основные параметры материнской платы Intel D975XBX В ходе тестирования оба процессора — исследуемый Intel Core 2 Extreme X6800 и эталонный Intel Pentium D 820 — корректно опознавались как двухъядерные процессоры. Результаты выполнения теста 3DMark06 (CPU score) представлены в таблице 4 и на рис. 4.
Intel Pentium D 820 | 1326 |
Intel Core 2 Extreme X6800 | 2468 |
Рис. 4. Результаты тестов 3DMark06 (CPU score) Одно из важных достоинств систем с двухъядерными процессорами — возможность одновременной работы с несколькими программами. В преимуществах новой архитектуры и созданных на ее основе моделей процессоров можно убедиться на примере теста CPUmark99. Это исследование позволяет запустить несколько копий и загрузить оба ядра каждого из применяемых процессоров. Результаты выполнения нескольких копий теста CPUmark99 процессором Intel Core 2 Extreme X6800 приведены в таблице 5, процессором Intel Pentium D 820 — в таблице 6.
1×CPUmark99 | 403 | 403 | |||
2×CPUmark99 | 375 | 407 | 782 | ||
3×CPUmark99 | 220 | 378 | 212 | 810 | |
4×CPUmark99 | 210 | 221 | 190 | 195 | 816 |
1×CPUmark99 | 154 | 154 | |||
2×CPUmark99 | 135 | 165 | 300 | ||
3×CPUmark99 | 165 | 71,3 | 72,7 | 309 | |
4×CPUmark99 | 135 | 66,8 | 58,7 | 57,5 | 318 |
Действительно, модель Intel Core 2 Extreme X6800 при превышении на 4,6 % внутренней тактовой частоты по сравнению с Intel Pentium D 820 в тесте 3DMark06 (CPU score) демонстрирует на 86 % большую производительность в сравнении с предшественником. Не менее интересны результаты одновременного выполнения нескольких копий CPUmark99. В случае запуска одной копии превышение составляет 162%, при двух — 161%. С ростом числа копий теста CPUmark99 преимущество в производительности процессора новой архитектуры сохраняется. В заключение необходимо напомнить, что в тестах использовался инженерный сэмпл модели Intel Core 2 Extreme X6800, а, как показывает опыт, по мере совершенствования технологии и внутренней архитектуры параметры процессоров улучшаются. Остается добавить, что процессоры, созданные по новой архитектуре, характеризуются весьма низким теплообразованием, что позволяет создавать на их базе компьютеры с низким уровнем акустического шума. Процессор Intel Core 2 Extreme X6800
и материнская плата Intel D975XBX
предоставлены московским офисом корпорации Intel
Регулирование энергопотребления
В попытках решить проблему снижения энергопотребления своих изделий, конструкторы принялись встраивать в ядра специальные цепи (их функционирование поддержано системным программным обеспечением), которые регулируют работу процессоров и обеспечивают, в зависимости от вычислительной нагрузки и условий эксплуатации, установку оптимальных электрических и частотных режимов. То есть в случае снижения вычислительной нагрузки происходит уменьшение тактовой частоты работы ядра.
Кстати, при снижении тактовой частоты процессора ниже штатной величины напряжение питания его ядра может быть соответствующим образом снижено без нарушения устойчивости работы системы, и это позволяет снизить теплообразование процессора. Будучи стандартными для портативных компьютеров, такие операции, выполняемые в автоматическом режиме аппаратно-программным обеспечением, предназначены для экономии энергии батарей. Однако понижение напряжения и частоты уже используется и для моделей серверного сектора, и сектора настольных компьютеров, что позволяет не только уменьшить энергопотребление, но и существенно снизить тепловую нагрузку на полупроводниковые кристаллы ядер процессоров.
Для оценки эффективности подобных технологий для снижения тепловой нагрузки на ядро процессора целесообразно воспользоваться следующей формулой:
P ≈ C × V2 × F,
где P — тепловая мощность процессора, С — коэффициент, учитывающий взаимную емкость элементов ядра процессора и зависящий от архитектуры его ядра (обычно возрастает с увеличением плотности размещения элементов на кристалле микросхемы), V — напряжение питания ядра, F — тактовая частота.
Данное выражение легко приводится к следующему виду:
В этом уравнении, связывающем основные характеристики теплообразования, переменные с индексом k обозначают соответствующие параметры изменяемых режимов, а переменные с нулевым индексом — параметры штатного режима.
Приведенная формула показывает, что уменьшение тактовой частоты и, как следствие, возможность уменьшения напряжения питания обеспечивают значительное снижение мощности теплообразования.
Так, например, 20%-ное уменьшение тактовой частоты и напряжения уменьшает теплообразование в два раза. Снижение же производительности можно компенсировать использованием нескольких ядер.
В результате, как показывают расчеты и практическая реализация, замена верхних моделей на процессоры с несколькими ядрами способна обеспечить существенный прирост производительности при приемлемом теплообразовании. (Первые такие процессоры, ориентированные на сектор настольных компьютеров и созданные на основе архитектуры NetBurst, вывела на рынок Intel.)
Дальнейшего снижения энергопотребления можно достичь простым переходом на архитектуру процессоров Intel Pentium M или более совершенную Intel Core Duo с соответствующим увеличением тактовых частот до уровня производительности Intel Pentium 4.
Но конструкторы корпорации Intel пошли другим путем.
Celeron M
Если Pentium M уже явно доживают свой век, то от процессоров Celeron M компания Intel пока отказываться не собирается. Более того, уже в этом году данное семейство пополнилось четырьмя совершенно новыми моделями, производимыми по технологическому процессу 65 нм. Правда, оба основных минуса Celeron M (кэш второго уровня объёмом 1 Мбайт и отсутствие поддержки SpeedStep), к сожалению, никуда не делись.
Модель |
ТП |
Кол-во ядер |
Частота |
FSB |
Кэш L2 |
VT |
EIST |
EM64T |
XD |
TDP |
Celeron M 430 |
65 нм |
1 |
1,73 ГГц |
533 МГц |
1 Мбайт |
– |
– |
+ |
27 Вт | |
Celeron M 420 |
65 нм |
1 |
1,60 ГГц |
533 МГц |
1 Мбайт |
– |
– |
– |
+ |
27 Вт |
Celeron M 410 |
65 нм |
1 |
1,46 ГГц |
533 МГц |
1 Мбайт |
– |
– |
– |
+ |
27 Вт |
Celeron M 390 |
90 нм |
1 |
1,70 ГГц |
400 МГц |
1 Мбайт |
– |
– |
– |
+ |
21 Вт |
Celeron M 380 |
90 нм |
1 |
1,60 ГГц |
400 МГц |
1 Мбайт |
– |
– |
– |
+ |
21 Вт |
Celeron M 370 |
90 нм |
1 |
1,50 ГГц |
400 МГц |
1 Мбайт |
– |
– |
– |
+ |
21 Вт |
Celeron M 360J |
90 нм |
1 |
1,40 ГГц |
400 МГц |
1 Мбайт |
– |
– |
– |
+ |
21 Вт |
Celeron M 360 |
90 нм |
1 |
1,40 ГГц |
400 МГц |
1 Мбайт |
– |
– |
– |
– |
21 Вт |
Celeron M 350J |
90 нм |
1 |
1,30 ГГц |
400 МГц |
1 Мбайт |
– |
– |
– |
+ |
21 Вт |
Celeron M 350 |
90 нм |
1 |
1,30 ГГц |
400 МГц |
1 Мбайт |
– |
– |
– |
– |
21 Вт |
Celeron M ULV 423 |
65 нм |
1 |
1,06 ГГц |
533 МГц |
1 Мбайт |
– |
– |
– |
+ |
5,5 Вт |
Celeron M ULV 383 |
90 нм |
1 |
1,00 ГГц |
400 МГц |
1 Мбайт |
– |
– |
– |
+ |
7 Вт |
Celeron M ULV 373 |
90 нм |
1 |
1,00 ГГц |
400 МГц |
512 Кбайт |
– |
– |
– |
– |
7 Вт |
Учитывая, что технологическое отставание этой линейки от более производительной части модельного ряда в очередной раз увеличилось, можно предположить, что к следующему году Intel откажется-таки от этого семейства. Как минимум в следующем поколении аналога Celeron M очень хотелось бы видеть технологию SpeedStep, а уж на характеристики, влияющие на производительность, можно закрыть глаза.
Далее
Оригинал статьи на "www.ferra.ru"
P2.shtml
Pentium M
Начнём с самого, пожалуй, известного и заслуженного мобильного процессора в мире – Pentium M. С момента публикации статьи «Процессоры для ноутбуков», состоявшейся почти полтора года назад, модельный ряд этого семейства CPU Intel изменился не слишком сильно. Добавились топовые модели во всех трёх подсемействах – «обычном», LV и ULV, – и исчезли модификации, основанные на устаревшем ядре Banias.
Модель |
ТП |
Кол-во ядер |
Частота |
FSB |
Кэш L2 |
VT |
EIST |
EM64T |
XD |
TDP |
Pentium M 780 |
90 нм |
1 |
2,26 ГГц |
533 МГц |
2 Мбайт |
+ |
– |
+ |
27 Вт | |
Pentium M 770 |
90 нм |
1 |
2,13 ГГц |
533 МГц |
2 Мбайт |
– |
+ |
– |
+ |
27 Вт |
Pentium M 765 |
90 нм |
1 |
2,10 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
– |
27 Вт |
Pentium M 760 |
90 нм |
1 |
2,00 ГГц |
533 МГц |
2 Мбайт |
– |
+ |
– |
+ |
27 Вт |
Pentium M 755 |
90 нм |
1 |
2,00 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
– |
27 Вт |
Pentium M 750 |
90 нм |
1 |
1,86 ГГц |
533 МГц |
2 Мбайт |
– |
+ |
– |
+ |
27 Вт |
Pentium M 745 |
90 нм |
1 |
1,80 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
– |
27 Вт |
Pentium M 740 |
90 нм |
1 |
1,73 ГГц |
533 МГц |
2 Мбайт |
– |
+ |
– |
+ |
27 Вт |
Pentium M 735 |
90 нм |
1 |
1,70 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
– |
27 Вт |
Pentium M 730 |
90 нм |
1 |
1,60 ГГц |
533 МГц |
2 Мбайт |
– |
+ |
– |
+ |
27 Вт |
Pentium M 725 |
90 нм |
1 |
1,60 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
– |
27 Вт |
Pentium M LV 778 |
90 нм |
1 |
1,60 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
+ |
10 Вт |
Pentium M LV 758 |
90 нм |
1 |
1,50 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
+ |
10 Вт |
Pentium M LV 738 |
90 нм |
1 |
1,40 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
– |
10 Вт |
Pentium M ULV 753 |
90 нм |
1 |
1,20 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
+ |
5 Вт |
Pentium M ULV 733J |
90 нм |
1 |
1,10 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
+ |
5 Вт |
Pentium M ULV 733 |
90 нм |
1 |
1,10 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
– |
5 Вт |
Pentium M ULV 723 |
90 нм |
1 |
1,00 ГГц |
400 МГц |
2 Мбайт |
– |
+ |
– |
– |
5 Вт |
Уже сейчас понятно, что Pentium M продержится на рынке недолго, ведь новые процессоры, основанные на архитектуре Core, стоят почти тех же денег и обеспечивают более высокий уровень производительности при близком энергопотреблении. Конечно, пока это справедливо, лишь если говорить о перспективе. На данный момент и в ближайшие пару месяцев ноутбук на Pentium M станет оптимальным выбором для тех, кто хочет получить устройство действительно высокого уровня за относительно небольшие деньги, цены на «старые» модели с Pentium M сейчас сильно снижены.
Процессоры Intel для ноутбуков
Алексей Дрожжин, Тестовая лабораторияFerra
Данная статья представляет собой справочный материал, призванный помочь читателям разобраться в модельном ряду процессоров Intel, предназначенных для использования в портативных компьютерах. Здесь рассмотрены три поколения: Celeron M и Pentium M, Core Solo и Core Duo и новейшее Core 2 Duo.Модельный ряд мобильных процессоров Intel претерпел значительные изменения с начала 2006 года и на данный момент представлен тремя поколениями, в которых ко всему прочему имеются отдельные подсемейства. Всего же на данный момент линейка процессоров Intel для ноутбуков состоит из 50 (!) с лишним моделей, каждая из которых имеет свои нюансы. К тому же у обоих ведущих производителей вошло в моду именовать процессоры абстрактными модельными номерами, нередко присвоенными отдельным CPU не вполне логично. Более того, оба чипмейкера употребляют для мобильных процессоров сразу две существенно отличающихся системы нумерации. Сравните, например, Intel Pentium M 755 и Core Duo T2300 или AMD Sempron 3100+ и Turion MT-37.
Естественно, что неподготовленному пользователю разобраться во всём этом разнообразии нелегко. Поэтому мы решили собрать всю информацию по процессорам Intel, так сказать, «в одном месте» и впоследствии будем ссылаться на данный материал при рассмотрении попадающих к нам на тестирование ноутбуков. Итак, приступим.
Что позволяет делать iPAT?
iPAT включает несколько компонентов: материнскую плату с поддержкой iPAT (который представляет собой расширенный BIOS), клиентское и серверное ПО. Причем, как мы уже говорили, при покупке платы с поддержкой iPAT пользователь получает комплект ПО Intel Platform Administrator. То есть для развертывания сети с iPAT достаточно приобрести компьютеры с материнскими платами, поддерживающими iPAT, и развернуть входящее в комплект ПО.
Схема.Архитектура решения
Главная особенность плат с поддержкой iPAT в том, что расширенный BIOS позволяет задать параметры IP рабочей станции, указав их вручную или с помощью DHCP, и активировать работу сетевого интерфейса, благодаря чему уже на этапе загрузки система может подключиться к серверу с административной частью iPAT и автоматически выполнить назначенные задания. Самое интересное, что задания могут быть не только такие, как развертывание образа системы, но и развертывание пакетов программ или их удаление. Вся работа ведется еще до загрузки ОС, средствами BIOS. Благодаря этому iPAT способен защитить ПК как от недобросовестных пользователей, так и от вирусов, которые могут нарушить работоспособность системы. Для этого администратору достаточно перезагрузить ПК и восстановить изначальное состояние системы. При этом все изменения, сделанные недобросовестным пользователем или вирусом, исчезнут.
Технология позволяет удаленно включать, выключать и перезагружать клиентские ПК. Причем независимо от текущего состояния рабочей станции. Эта функция также реализована средствами iPAT BIOS. Еще одной возможностью iPAT можно считать физическую защиту ПК. Конечно, речь не идет о замках и цепях, скорее о сигнализации. Так, все изменения конфигурации ПК немедленно отображаются на сервере. Это касается не только аппаратной части, но и программного обеспечения, в том числе драйверов. Администратор всегда будет знать об изменениях в аппаратной части, будь то извлечение флэш-диска или замена видеокарты, а также об установке или удалении программ.
Другими словами, iPAT помогает централизованно выполнять и автоматизировать рутинные задачи администраторов, что сокращает время обслуживания компьютерного парка организации, а значит, повышает эффективность использования IT.
Intel PAT — еще один способ продавать материнские платы
Андрей Пировских, Андрей Шуклин
"Экспресс Электроника"
Летом 2006 года компания Intel представила технологию iPAT, которую сначала применили в Китае, потом в Малайзии и Турции, а затем - и в России. Действительно ли данная технология надежна и полезна или это удобный маркетинговый трюк для продажи материнских плат? Попытаемся разобраться.
Существует немало методик и технологий управления компьютерным парком, что совершенно неудивительно. Вопросы управления и контроля работы решались еще со времен мейнфреймов — ведь каждая критически важная система должна быть максимально управляема. Однако информационные технологии проникают во все сферы нашей жизни, и управлять сегодня надо практически всем, поскольку любая система или сеть со временем насчитывает все большее количество элементов. Так или иначе тема управления ресурсами, оперативного контроля, обеспечения работоспособности и безопасности весьма горячая. В этом смысле новое решение от Intel, позволяющее управлять компьютерными системами, оказалось кстати.
Кому это не нужно?
iPAT позволяет выполнять достаточно широкий спектр задач по администрированию платформ, что, с одной стороны, является плюсом. Но если речь идет о компании, в которой уже установлена система управления компьютерным парком, надо ли этой компании задумываться о приобретении нового поколения компьютеров с поддержкой iPAT? Пожалуй, нет. Ведь если в компании уже применяется одна система управления, зачем без лишней надобности интегрировать ее со второй системой и создавать себе ненужные трудности? Логичнее установить новые компьютеры с поддержкой технологии, подобной AMT, а с операционной системой общаться на уровне того программного обеспечения, которое уже используется в компании.
Впрочем, и учебным учреждениям имеет смысл закупать компьютеры с поддержкой iPAT, только если речь идет о построении целого или нескольких компьютерных классов — в противном случае администрирование окажется столь же затруднительным, и администратору придется появляться в классе, чтобы настроить часть компьютеров, работающих без поддержки iPAT.
Кому это нужно?
Для начала уточним, что платформы с поддержкой iPAT (Intel Platform Administration Technology) поставляются не во все страны, а лишь в развивающиеся — для прочих потребителей предусмотрена более полная технология vPro, которая позволяет не только контролировать состояние ПК и восстанавливать ПО, но и пользоваться технологиями виртуализации и многими другими наработками Intel. Что касается iPAT, новая технология нашла себе применение в китайских интернет-кафе, а не так давно и в российских образовательных учреждениях. На самом деле эти применения можно считать вполне предсказуемыми. Специфика многих структур, в том числе учебные заведения и компьютерные клубы, такова, что зачастую бывает необходимо давать конечным пользователям ПК административные права, например для обучения администрированию или системному программированию, а также для работы игр.
Вполне естественно, что подобная «раздача» может обернуться не только нарушением работы отдельных программ, но и невозможностью запуска системы вообще, что, в свою очередь, потребует времени, усилий, а иногда и дополнительных финансовых затрат на восстановление. Не важно, будет это переустановка системы «с нуля» или восстановление из образа, но администратору придется как минимум дойти до ПК и выполнить какие-то действия. А что если таких ПК одновременно окажется не один или два, а полсотни, и расположены они будут в разных зданиях, на разных этажах?
Вообще говоря, такие вопросы уже решаются программными пакетами с обширным функционалом, в частности LANDesk Management Suite или CA Unicenter. А не так давно на аппаратном уровне была объявлена специальная технология Intel AMT, которая позволяет контролировать состояние рабочей станции и управлять ею, даже если последняя выключена.
Что касается iPAT, главная ее прелесть в том, что вместе с аппаратным решением поставляется программная платформа, разрешающая производить контроль и администрирование рабочих станций. Это, безусловно, выгодно для образовательных учреждений, у которых просто нет денег на покупку специализированного ПО для управления сетью, а также для компаний, основной потребностью которых является удаленное развертывание ПО (Software Distribution), к ним, кстати, относятся и интернет-клубы. Ну и, конечно, это нужно компании Intel. Ведь это хороший способ продавать новые платформы тем же компьютерным клубам или образовательным учреждениям! Только в китайских интернет-кафе оборудовано более 110 тысяч игровых зон. Что касается России, ни для кого не секрет, что большинство заказов размещает государство, и продавать такие платформы для федеральных программ должно быть весьма интересно.
Intel Platform Administration Technology, безусловно,
Intel Platform Administration Technology, безусловно, является одним из самых доступных решений на рынке, служащих для управления парком компьютеров на уровне дистрибуции программного обеспечения, инвентаризации оборудования и возможностей быстрого восстановления после сбоев. Однако сферы применения этой технологии достаточно скромны, тем более, что работает она только в том случае, если компьютеры основаны на специальных материнских платах (их на данный момент всего восемь: четыре модели производства Intel, три — ECS и одна — ASUS).
Серверные платформы Intel
Евгений Патий
"Экспресс Электроника"
Расстановка сил на рынке серверов с архитектурой x86 в последнее время остается неизменной. Легкие сотрясения рынка после появления инновационных продуктов AMD не смогли выбить из колеи крупнейшего игрока, компанию Intel. Это и неудивительно, ведь финансовые и производственные возможности последней позволяют ей не только допустить временные послабления без особого ущерба для доходов, но и провести настоящий блицкриг, выпустив платформы и процессоры, поднимающие собственный рейтинг.
Будем откровенны: хотя AMD и не смогла существенно потеснить «царя горы», урок не прошел для Intel даром. Компания убедилась, что в лице Advanced Micro Devices она имеет достойного противника, который использует для рыночной борьбы как маркетинговые средства, так и важнейшие потребительские качества своих продуктов — производительность и стабильность. Сегодня многие крупные производители серверов принимают продукты AMD как основу для своих изделий, так что для Intel это серьезный стимул сделать собственные платформы лучше.
В свое время много шума наделал тот факт, что компания Dell, являвшаяся приверженцем платформ Intel, не устояла перед соблазном выпустить новые продукты и на базе компонентов AMD. На действия AMD и Dell рынок отреагировал положительно — их акции выросли в цене на 13% и более 4% соответственно, тогда как акции Intel упали более чем на 5%.
Но сейчас Intel удалось вернуть казалось утраченные позиции и, как следствие, прежнее расположение ведущих игроков рынка серверов. Выпустив продукты на основе архитектуры Intel Core, уходящей корнями в легендарную P6, компания смогла восстановить статус производителя, изготавливающего самые быстрые и надежные процессоры. Это был настоящий триумф. Между прочим, не так давно AMD не упускала случая вызвать Intel на честную дуэль, в ходе которой предлагала сравнить производительность изделий обеих компаний. Теперь она этого не делает, что наводит на самые разные мысли: то ли противопоставить ничего не может, то ли занята покупкой ATI.
Совершенно очевидно, что в целях увеличения производительности с одновременным понижением потребляемой мощности Intel концентрируется на создании двухъядерных процессоров для ПК и многоядерных — для серверов. Разумеется, это определяет ситуацию на рынке серверных платформ, где ключевую роль играет набор системной логики. А здесь Intel есть что предложить сборщикам, а значит, и покупателям — в настоящее время актуальными для Intel являются шестнадцать чипсетов и различных их модификаций. Нынешняя рыночная ситуация благоприятна для компании: по данным IDC, в I квартале 2006 года объемы поставок на мировом рынке серверов архитектуры x86 выросли на 12,1%, а продажи систем на базе архитектуры Intel Itanium 2 — на 41,8%.
В статье мы рассмотрим наборы логики Intel, выступающие как часть серверных платформ.
Начнем с Intel 3000 и Intel 3010. Оба набора системной логики разработаны для использования с линейкой двухъядерных процессоров Xeon 3000, линейками Pentium 4 600, Pentium D 800 и Pentium D 900, а также с процессорами Celeron D в форм-факторе LGA775 (серверы начального уровня). Традиционно эти чипсеты включают два компонента (контроллера-концентратора) — MCH и ICH7. В данном случае MCH содержит интерфейсы процессора, основной оперативной памяти, шины PCI Express и соединительной шины с ICH7. ICH7 («южный мост», хотя Intel упорно отказывается от подобного жаргонного наименования компонентов чипсетов) — контроллер-концентратор ввода-вывода. Различия между Intel 3000 и Intel 3010 незначительны — первый поддерживает один порт PCI Express x8, а второй — два PCI Express x8 либо один PCI Express x16.
Intel 5000P и Intel 5000V — наиболее современные наборы, предназначенные для обслуживания двухъядерной линейки процессоров Xeon 5000, причем в двухпроцессорных конфигурациях. Разумеется, в этих чипсетах реализован весь спектр соответствующих технологий, разработанных Intel к нынешнему дню: независимые системные шины с частотой 1066/1333 МГц, работа с модулями FB DIMM 533/667 МГц (полностью буферизованные модули DIMM), шиной PCI Express и множество других новых и проверенных временем разработок.
Отличия 5000P от 5000V невелики: 5000P поддерживает четыре канала памяти (максимальный объем 64 Гбайт), три шины PCIЕ x8; 5000V — два канала памяти (максимальный объем 16 Гбайт), две шины PCI-Е x4.
Intel E8870 — набор логики для высокопроизводительных двух- или четырехпроцессорных серверов на базе Itanium 2. Поддерживается 128-битная системная шина с тактовой частотой 400 МГц, восемь слотов для модулей памяти DDR (максимальный объем 128 Гбайт) и такие специфические новинки, как модуль предвыборки данных ввода-вывода и встроенная кэш-память. Itanium 2 занимает достаточно узкий сегмент рынка, вот почему ни сам процессор, ни платформы для его работы нельзя назвать массовыми — это нишевые продукты.
Intel E8870 + E8870SP — модификация предыдущего набора системной логики; от своего «родителя» отличается так называемым снуп-фильтром (snoop-filter), микросхемой E8870SP — это дополнительная кэш-память L3. Такая комбинация позволила получить набор логики, хорошо подходящий для использования в высоконагруженных серверах, например ERP-системах, серверах баз данных и т. д.
Intel E8500 предназначен для работы с 64-разрядными процессорами Xeon. Шестое поколение мультипроцессорных платформ от Intel оптимизировано для работы с двухъядерными процессорами, хотя допускает использование и с одноядерными чипами. E8500 работает с модулями памяти DDR 266, DDR 300 и DDR2 400 и поддерживает до 8 Мбайт кэш-памяти второго уровня у процессоров. Из прочих инноваций необходимо отметить Demand-Based Switching (DBS) совместно с технологией Enhanced SpeedStep, поддержку набора инструкций SSE3, EMT64 и PCI Express (три x8 и один x4). С позиций сегодняшнего дня этот набор логики выглядит как основа для серверов корпоративного уровня, которым по плечу практически любые вычислительные задачи.
Intel E8501 — один из наиболее мощных серверных чипсетов, используется для работы с линейкой двухъядерных процессоров Xeon 7000. E8501 работает с EMT64, шиной PCI Express, а также памятью DDR2 400. Имеется поддержка энергосберегающих технологий DBS и Enhanced SpeedStep, что делает данный набор микросхем пригодным как для серверов телекоммуникационного сектора, так и для систем корпоративного уровня.
Об этом также свидетельствует применение специальных термальных датчиков, позволяющих выполнить определенные действия (например, остановить сервер) при обнаружения несоответствий допустимым значениям.
Intel E7500 — первый набор логики во всей линейке современных чипсетов Intel. Предназначен для работы с двумя процессорами Xeon (шина 533 МГц, кэш-память второго уровня 512 кбайт) и модулями памяти DDR 200 в двухканальной конфигурации. Несмотря на свою неактуальность по нынешним меркам, чипсет обладает поддержкой 64-битной шины PCI/PCI-X и по-прежнему может быть использован в современных приложениях, правда, в достаточно узком их кругу.
Чипсет Intel E7501 оптимизирован для работы с процессором Xeon (шина 533 МГц) в двухпроцессорных системах. Модули памяти — DDR 266. Это один из старейших серверных наборов логики Intel, который можно с некоторой долей условности назвать по-прежнему актуальным. Сегодня системы на базе E7501 стоят достаточно дешево и вполне подходят для определенного круга задач, например для организации файловых хранилищ.
Intel E7505 замыкает линейку серверных наборов логики E75xx. Отличия от E7501 незначительны, ключевое из них — поддержка интерфейса AGP 8X, поэтому Intel рекомендует данный чипсет скорее для рабочих станций, хотя использование в серверах не возбраняется.
Intel E7520 и E7320 — наборы логики для работы с процессорами Xeon (системная шина 800 МГц) в двухпроцессорных конфигурациях. Производитель позиционирует эти чипсеты для применения в среднем и малом бизнесе, корпоративного использования, а также для высокопроизводительных вычислений (кластеры). Присутствует поддержка шины PCI Express (x8), памяти DDR2 400, кроме того, возможна конфигурация с дополнительной микросхемой Intel 6700PXH, которая обеспечивает работу с двумя независимыми 64-битными сегментами PCI-X (133 МГц).
Intel E7230 — один из типичных представителей серверных чипсетов Intel, предназначенных для использования в серверах начального уровня. Поддерживает процессоры Pentium D и Pentium 4 (с технологией HyperThreading), системную шину с тактовой частотой 800/1066 МГц и 64-разрядные расширения EMT64.
Примечательна работа с технологией Intel Enhanced SpeedStep, что позволяет рекомендовать набор логики для применения в телекоммуникационных серверах, где крайне важен минимальный уровень потребляемой энергии и, как следствие, рассеиваемого тепла. E7230 работает с двухканальной памятью DDR2 667/533, а также реализует технологии Intel Matrix Storage и Intel Active Management Technology.
Набор Intel E7221 выглядит как разумный компромисс между поддержкой новых технологий и старых, проверенных разработок, что позволяет Intel позиционировать этот чипсет для применения в серверах для малого бизнеса. E7221 поддерживает процессор Pentium 4 с 64-разрядными расширениями, шину PCI Express (один x8 и четыре x1 порта), а также двухканальную память DDR2 533. Помимо этого можно выделить четыре порта SerialATA. В целом чипсет производит впечатление рабочей лошадки, способной справиться с широким кругом задач, характерных для малого бизнеса.
Intel E7210 — один из наиболее «долгоиграющих» наборов логики на рынке серверов. Предназначен для работы с процессорами Pentium 4 (с технологией Hyper-Threading). В настоящее время чипсет позиционируется как один из компонентов систем бюджетного/начального уровня, что и неудивительно, ведь актуальность процессоров Pentium 4 уже под большим сомнением. Intel 7210 обеспечивает поддержку памяти DDR 400, пропускная способность шины памяти составляет 6,4 Гбайт/с. С точки зрения сегодняшнего дня данная связка (E7210 + Pentium 4 HT) выглядит устаревшей, но для определенного круга серверных приложений ее производительности вполне достаточно, что не позволяет списывать со счетов Intel E7210.
С отказом Intel от лозунга «Покупают мегагерцы» подверглась полному пересмотру парадигма вычислений. Если в сегменте серверного оборудования среди решений на базе x86 основную роль до последнего времени играла платформа Intel 7520/7525/7320, которая полностью соответствовала течениям «гоночномегагерцевого» периода, то теперь фаворит — наборы микросхем 5000P/5000V.
Заинтересованные в развитии серверного рынка компании весьма тепло встретили результаты тестирования, продемонстрированные двухъядерными процессорами Intel на платформах 5000P/V. Так, процессор Intel Xeon 5100 превзошел на 125% по производительности двухъядерные процессоры Intel Xeon предыдущего поколения и почти на 60% опередил конкурирующие процессоры архитектуры x86, при этом он непобедим и с точки зрения отношения «производительность на ватт».
Результаты тестирования четырехпроцессорной системы на основе двухъядерных процессоров Intel Itanium 2 (Montecito), которая на 60% превзошла по производительности лучшую четырехпроцессорную систему с архитектурой RISC, также внушают оптимизм. В авторитетном тесте LINPACK, оценивающем эффективность выполнения операций над числами с плавающей запятой, был достигнут результат, превышающий 45 гигафлопс (прежний рекорд составлял 27,5 гигафлопс).
По словам представителей компаний, работающих на рынке решений масштаба предприятия, выход на отечественный рынок новых платформ Intel на базе двухъядерных процессоров семейства Xeon и Itanium 2 и соответствующих наборов логики открывает заманчивые перспективы для всех участников отраслевой экосистемы российского IT-рынка: производителей серверов, разработчиков ПО и корпоративных пользователей.
Терафлоповое будущее Intel
Евгений Патий
"Экспресс Электроника"
Область высокопроизводительных вычислений всегда находилась в стороне от мейнстрима. Рынок компьютеров, серверов и рабочих станций переживал взлеты и падения, развиваясь по четко очерченной траектории, однако серьезные системы выглядели на фоне привычных компьютеров, словно пришельцы с другой планеты: все знали о неслыханной производительности, однако не задумывались, за счет чего она достигается и как может быть задействована с бытовой точки зрения. Разумеется, HPC-системы (HPC — High Performance Computing) созданы не из академического интереса, а для решения довольно широкого круга задач — гидродинамики, макроэкономических экспериментов, ядерной отрасли и т. д. По определению компании Intel, HPC — это совокупность аппаратных и программных средств и языков программирования, которая позволяет решать задачи, ранее считавшиеся невыполнимыми. Причем подчеркивается: «и все это по приемлемой цене». Как правило, современные высокопроизводительные вычислительные комплексы построены с применением кластерного подхода — ведь отдельно взятый компьютер не всегда способен продемонстрировать требуемое быстродействие. Иными словами, в таком случае поставленная задача все-таки будет решена, однако для этого потребуется в десятки и сотни раз больше времени. На сегодня приемлемыми считаются следующие показатели: обработка 60 тыс. транзакций в секунду, средняя латентность отклика системы на уровне 30 мс и возможность оперирования 32-Гбайт базой данных в реальном времени.
Замечено, что производительность вчерашних суперкомпьютеров сегодня соответствует уровню рядовых ПК. Примем за единицу производительности пресловутый «терафлоп» — триллион вычислительных операций в секунду, и вспомним, что первый по-настоящему успешный суперкомпьютер (CDC 6600, эксплуатировавшийся в 1965–1977 гг.) демонстрировал производительность на уровне 9 мегафлоп, а быстрейший представитель рейтинга Top 500 до 2000 года, компьютер ASCI Red, — уже 1 терафлоп (эксплуатировался в 1997–2006 годах).
Наш современник Intel Endeavor в 2006 году показал результат 6,85 терафлоп, и при этом он был только на 68-м месте в Top 500.
Интересно, что ASCI Red построен на основе 9298 процессоров Pentium II Xeon, а Intel Endeavor — на базе «всего лишь» 464 чипов Xeon 5100: это говорит о существенном росте производительности отдельно взятого процессора. Таким образом, «терафлоп» не такая уж неосязаемая категория, а в чем-то даже вчерашний день. Однако подобного уровня производительности от одного процессора еще никому не удавалось достичь до недавнего времени.
Совершенно очевидно, что сегодняшний уровень развития технологий не позволяет получить вожделенный терафлоп на одном ядре одного процессора. Но мы прекрасно знаем, что в настоящее время понятия «один процессор» и «одно ядро» вовсе не означают одно и то же, поэтому теоретически есть возможность достичь фантастической производительности — для этого нужен процессор с достаточным количеством ядер. Как отмечалось выше, суперкомпьютер, состоящий из 464 двухъядерных процессоров Intel Xeon 5100, преодолел отметку 6,85 терафлоп, то есть можно предположить, что каждый процессор внес свою небольшую лепту — примерно 0,015 терафлоп. Нетрудно подсчитать, сколько потребуется подобных процессоров и ядер, чтобы достичь производительности в 1 терафлоп. Скажем лишь, сегодня для этой цели Intel хватило 80 ядер — в создании этого устройства ключевые роли сыграли индийский исследовательский центр Intel, находящийся в Бангалоре, и лаборатория в Орегоне. Экспериментальный 80-ядерный процессор достиг одного терафлопа. Не исключено, что когда-нибудь подобной производительностью будет обладать и отдельно взятое процессорное ядро, но это произойдет не завтра, и даже не послезавтра: сегодня мы имеем возможность ознакомиться с инициативой Intel Tera-scale Computing Research Program, в рамках которой корпорация экспериментирует с высокопроизводительными вычислениями. Специальная исследовательская группа Intel занимается работами в области энергоэффективного дизайна для грядущих многоядерных процессоров, а также разработками в области межъядерных коммуникаций.
На IDF Fall ‘ 2006 компания Intel продемонстрировала определенные результаты в данной области — это и был тот самый процессор с восемью десятками ядер. Каждое ядро содержит два программируемых блока вычислений с плавающей точкой, которые могут быть использованы для точных вычислений в области компьютерной графики, научного или финансового моделирования и т. д. С точки зрения дизайна, такие блоки гораздо сложнее модулей целочисленной арифметики, в которых, по сути, реализованы достаточно простые алгоритмы.
Как утверждает Intel, в ближайшее десятилетие интерактивные программные сервисы, обслуживаемые глобальными центрами обработки данных с миллионами серверов, позволят пользователям получать доступ к персональной информации, мультимедиа и приложениям с любого высокопроизводительного устройства, запускать фотореалистичные игры, совместно просматривать видео в режиме реального времени и вести поиск мультимедийной информации. Для решения подобных задач требуется невероятная по нынешним меркам вычислительная мощность, в то же время каждое ядро у продемонстрированного 80-ядерного процессора работает на рядовой частоте 3,1 ГГц.
Следует отметить, что созданная инженерами Intel 80-ядерная микросхема была необходима вовсе не для того, чтобы побить какие-либо рекорды: на этом экспериментальном процессоре (который, кстати, по своему набору инструкций несовместим с x86) отрабатываются технологии межкомпонентных соединений на участках «ядро-ядро» и «ядро-память». Конструктивно процессор представляет собой матрицу ядер 8×10, причем каждое ядро содержит пятипортовый маршрутизатор, отвечающий за взаимодействие ядер. Как утверждают специалисты Intel, такая схема позволяет добиться более слаженной работы всех ядер, нежели те подходы, что применяются в современных массовых процессорах.
Этого удалось достигнуть за счет того, что каждое процессорное ядро и закрепленный за ним маршрутизатор могут быть «погружены в сон», если нет необходимости в максимальной производительности. Отключение определенного числа ядер и маршрутизаторов (в зависимости от нагрузки) сегодня еще выглядит достаточно экзотично, однако вскоре такой подход будет восприниматься как норма.
Не менее значимой инновацией является микросхема статической памяти (SRAM) объемом 20 Мбайт, пакетированная с процессором и размещенная на одном кристалле с ним. Пакетирование в процессоре позволяет создать тысячи межкомпонентных соединений и обеспечивает полосу пропускания канала между памятью и ядрами шириной более 1 Тбайт/с.
Intel располагает некоторыми прогнозами относительно дальнейшего увеличения производительности экспериментального процессора — за счет хорошо знакомого наращивания тактовой частоты ядер (см. таблицу).
3,16 | 0,95 | 62 | 1,62 | 1,01 |
5,1 | 1,2 | 175 | 2,61 | 1,63 |
5,7 | 1,65 | 265 | 2,92 | 1,81 |
В настоящее время корпорация ведет около сотни различных исследовательских проектов, так или иначе связанных с инициативой Terascale computing. Приставка «Tera» в данном случае указывает на оперирование терабайтами данных при «терафлоповой» производительности.
С обывательской точки зрения, где не нужны дата-центры или моделирование погодных условий, выдвигаются прежние аргументы: обработка трехмерной графики и мультимедиаданных, но уже в реальном времени. В качестве примера Intel приводит возможность значительного повышения качества видеоролика, полученного с обычной любительской видеокамеры. При этом можно будет накладывать различные эффекты, изменять параметры изображения, разрешение — и все это в реальном времени, не утруждаясь промежуточной обработкой.
На сегодня работа по созданию терапроцессоров и платформ идет в следующих направлениях: программируемость, адаптивность, надежность и масштабируемость. Как уже не раз отмечалось, все преимущества многоядерной архитектуры легко сводятся на нет неоптимизированным программным обеспечением. И если в том, что программа не способна работать, например, с набором инструкций SSE на одноядерном процессоре, большой беды не было, то в случае ее изначальной однопоточности никакого преимущества не будет — ни на двухъядерном, ни на 80-ядерном процессоре. Intel прекрасно понимает последствия упорного нежелания программистов проектировать свои продукты без учета современных тенденций микроэлектроники и всячески пытается наставить программистскую братию на путь истинный — проводит тренинги и курсы, предлагает специальные средства разработчика и т. п.
Под адаптивностью компания понимает следующее: платформа должна быть способна самостоятельно динамически менять собственную конфигурацию в соответствии с актуальными потребностями приложения в производительности. Кроме того, должны отслеживаться и изменения в конфигурации аппаратуры, например, учитываться энергетические и термальные факторы. Увеличение комплексности всего решения (значительное наращивание числа ядер и соответствующих им маршрутизаторов) предъявляет весьма высокие требования к надежности: при всей привлекательности концепции Terascale computing нельзя допустить понижения процента выхода годных чипов. Кроме того, Intel уделяет большое внимание масштабируемости — при простом добавлении определенного количества процессорных ядер требуется, чтобы аппаратное и программное обеспечение пережили эти изменения совершенно безболезненно, будучи изначально подготовленными с учетом определенного «запаса».
Возможности наращивания количества микропроцессорных ядер напрямую зависят от возможностей технологических норм — сейчас инженеры компании выясняют пределы этого количества для техпроцессов 45, 32 и 22 нм. Кроме того, определяется технологический набор компонентов для отдельно взятого ядра, с целью создания конечных продуктов, ориентированных на удовлетворение различных потребностей рынка: обработка видеоконтента высокого разрешения, криптография, DSP или графика. Зачастую нет нужды создавать один универсальный процессор, гораздо разумнее разработать несколько специализированных.
В заключение хотелось бы отметить: в качестве даты коммерческого запуска терапродуктов компания Intel указывает 2010 год. Не исключено, что нынешний 80-ядерный чип и коммерческие образцы будутсовершенно непохожи, однако очевидно, что концепция «сеть из ядер» останется неизменной. Не исключено, что нынешний 80-ядерный чип и коммерческие образцы будут совершенно непохожи, однако очевидно, что концепция «сеть из ядер» останется неизменной
Кризис не помеха
Рольф Ричардсон, «Экспресс-Электроника», #12/2004
Не секрет, что помимо научно-исследовательского энтузиазма балом полупроводниковых достижений правят инвестиционные проекты, а также трезвый экономический расчет. Поэтому связь между количеством новых открытий и объемом инвестированных в их разработку средств зачастую носит прямо пропорциональный характер. Что же мы имеем сегодня, когда большинство аналитиков пророчит полупроводниковой индустрии спад? На этот вопрос мы и попытаемся ответить.
Что касается прогнозируемого кризиса, на самом деле нынешняя ситуация далека от этого – у большинства ведущих игроков рынка, за малым исключением, стабильный рост доходов. Тем не менее начиная с конца лета многие аналитики предрекают заметный спад полупроводниковой промышленности. Для того чтобы понять, что ими движет, достаточно обратиться к опубликованному в октябре отчету SIA (Semiconductor Industry Association) о состоянии рынка полупроводников за август. Согласно отчету объем продаж микросхем в конце лета превысил прогнозируемый. Всего за август было продано полупроводниковой продукции на $18,2 млрд, что пусть не на много, но все же больше ожидавшейся суммы в $18 млрд, и на 34,2% выше показателей прошлого года. По предварительным оценкам аналитиков, это связано с высоким спросом на ПК и устройства беспроводной связи, а также снижением уровня запасов готовой продукции (попросту говоря, из-за распродаж).
На основании статистики за последние три месяца SIA приходит к выводу, что резкого изменения показателей не произойдет. И можно предположить, что даже в случае резкого падения спроса осенние результаты едва ли будут сильно отличаться от итогов лета.
Кроме того, в связи с закончившимся недавно «школьным» периодом спрос на процессоры увеличился на 3,5% (по сравнению с июлем). В данной ситуации любопытно следующее. Изменение уровня продаж по сравнению с предыдущим месяцем в Юго-Восточной Азии, традиционно демонстрирующей самый большой рост, составило всего 0,1%.
Так что ожидать резкого падения спроса пока не приходится — самое интересное, говорят аналитики, начнется лишь в следующем году. Дело в том, что несмотря на предпринимаемые вендорами распродажи, количество готовой продукции — показатель, к которому в последнее время уделяется повышенное внимание, — в августе было достаточно высоким, из-за чего, по данным SIA, загруженность производственных мощностей снизилась с 99 до 95%. Соответственно, объем капиталовложений в расширение производства также остается невысоким и держится на уровне 23% от объема продаж.
Тем не менее Gartner продолжает бить тревогу, то и дело сообщая об ожидаемом снижении роста капиталовложений в отрасль, Все это должно произойти в будущем году из-за высокого уровня капзатрат. До конца текущего года ожидается вложение до $45,7 млрд в полупроводниковую отрасль, что на 53,9% больше показателей прошлого года ($29,7 млн). По прогнозу аналитиков, в будущем году капитальные затраты могут достичь 45,8%, что составит прирост 0,4% по сравнению с 2004 годом. Следующий год должен стать переломным, и в 2006-м объем капиталовложений в индустрию снизится на 0,6%.
Поскольку в июле Gartner уже публиковала аналогичный прогноз, у нас есть возможность сравнить старые и новые оценки. Так, в этом году аналитики Gartner ожидали роста капиталовложений на 50,9%, а в будущем – на 13,4%. Предполагалось, что в 2004-м затраты на приобретение оборудования возрастут на 63,5%, а в 2005-м — на 15%. В отчете Gartner отмечается, что средняя загруженность производственных мощностей к концу II квартала 2004 года составила 94,8%, что даже больше, чем в I квартале (93,2%). Легко подсчитать: если загруженность производственных линий не снизится в I квартале 2005 года до уровня менее 90%, то ожидаемый кризис перепроизводства начнется уже во второй половине будущего года.
Так или иначе, но сегодня уже заметны некоторые отрицательные тенденции. Например, крупнейшие тайваньские контрактные производители недавно опубликовали неутешительные данные о финансовых результатах своей деятельности за октябрь.
Объем продаж лидера этого рынка, компании TSMC, достиг уровня в $698,1 млн, что на 13% лучше показателя аналогичного периода прошлого года ($617 млн), но одновременно на 0,9% меньше $703,9 млн в сентябре. Еще ощутимее рыночный спад сказался на основном конкуренте TSMC, компании UMC. Ее доход в октябре исчисляется суммой $305,75 млн. Для сравнения: в сентябре компания заработала на 15,2% больше (!). Хотя в ежегодном исчислении здесь также отмечен значительный рост в размере 31% (в октябре 2003 года на счету UMC было лишь $233,02 млн). Вероятно, в ближайшие месяцы (пока основные заказчики основательно не опустошат свои склады) мы еще не раз будем свидетелями снижения доходов обеих компаний.
Впрочем, повторимся, весь 2004 год прошел под знаменем роста доходов, капиталовложений и инвестиций в научные разработки, а потому технологических достижений было немало. Наиболее оптимальный способ совершенствования полупроводниковых технологий – уменьшение производственных норм – идет в прежнем темпе, и сегодня компании рапортуют не только о готовности перехода на нормы 0,65 нм, но и на более совершенные. Как всегда это направление возглавляет Intel, еще в августе заявившая о создании первой в мире полнофункциональной микросхемы памяти SRAM объемом 70 Мбит, изготовленной по 65-нм техпроцессу. Тем самым производитель продемонстрировал свою готовность к промышленному внедрению новейшего техпроцесса P1264 с нормами 65 нм и высокой степенью интеграции элементов на кристалле. Для того чтобы представить себе возможности данной технологии достаточно сказать, что кремниевый кристалл этой памяти площадью около 110 кв. мм содержит более полумиллиарда транзисторов.
Что касается самого процесса P1264, он характеризуется эффективной длиной затвора транзисторов 35 нм, использованием оксида кремния в качестве затворного диэлектрика, применением напряженного кремния, восьми слоев медных соединений и диэлектрика с низкой диэлектрической проницаемостью. При производственных процессах используется ультрафиолетовая литография с длиной волны 193 нм, маски со смещением фазы и оптическая коррекция создаваемого рисунка.
Казалось бы, все перечисленные характеристики уже хорошо известны, но почти все они в той или иной степени улучшены. Например, увеличена толщина оксида под затвором — одного из главных параметров, влияющих на утечки в транзисторах. Если прежде для 65-нм техпроцесса предлагалось использовать оксид толщиной около 0,8 нм, то теперь это 1,2 нм — столько же, сколько в нынешних 90-нм процессорах Intel. За счет чего удалось не только уменьшить утечки в расчете на один транзистор (поскольку примерно вдвое уменьшилась его площадь), но и в конечном итоге повысить быстродействие, ведь балластная емкость транзисторов снизилась на 20%.
Претерпела изменения и технология напряженного кремния. В новой интерпретации она позволила улучшить рабочий ток транзисторов на 30%, тогда как ранее речь шла о 10-20%. Таким образом, утечки новых 65-нм транзисторов при том же рабочем токе уменьшены вчетверо, а значит, можно смело ожидать улучшенного показателя TDP для новых процессоров. Нельзя оставить без внимания и такое нововведение техпроцесса P1264, как спящие транзисторы, которые отключают питание отдельных блоков памяти при их бездействии. Результат их внедрения – троекратное уменьшение утечки кристалла SRAM, что само по себе является величиной весьма немалой, особенно если учесть, что кэши будущих процессоров будут существенно увеличиваться.
Не отстают от Intel и другие компании, причем некоторые из них даже пытаются идти с опережающим отрывом. Так, например, японские компании Sony и Toshiba, долгое время сотрудничающие в области разработки новых технологических процессов, с прошлого года наладили массовый выпуск чипов с применением 90-нм технологических норм. Уже в первой половине этого года увидели свет 65-нм сэмплы, а недавно Sony и Toshiba начали новый совместный проект, направленный на разработку 45-нм полупроводниковых структур. Сейчас известны две его особенности. Первая – новый высокопроизводительный MOSFET-транзистор, в затворе которого применяется сверхтонкая оксидная пленка.
Благодаря ей удалось добиться весьма впечатляющих рабочих характеристик: в частности, плотность управляющего тока равняется 820 мкА/мк, а для PMOSFET – 300 мкА/мк (при напряжении 0,85 В). Вторая – это технология многоуровневых соединений, шаг которых равняется 130 нм (на 72% меньше, чем для полупроводниковых компонентов с уровнем детализации 65 нм).
Не менее интересна идея перехода к 45-нм технологическому процессу, предложенная компанией AMD. В ее основе лежат любопытные методы борьбы с токами утечки. Ранее в AMD уже сообщали о создании двухзатворного транзистора, а около года назад компания Intel продемонстрировала транзистор с тремя затворами. Теперь свою версию трехзатворного транзистора представила и AMD. В новой разработке компании объединено несколько перспективных технологий. Во-первых, для создания токопроводящего канала транзистора используется технология полностью обедненного кремния на изоляторе (Fully Depleted SOI). Во-вторых, новые транзисторы будут использовать металлические затворы (изготовленные из силицида никеля (NiSi), вместо поликристаллического кремния) и иметь "локально напряженный" канал. Такой канал с трех сторон окружен затворами, выполненными из силицида никеля. Этот металлосодержащий материал обеспечивает лучшие характеристики по сравнению с традиционным кремнием. Отмечается также, что подобный подход обеспечивает более чем двукратное увеличение быстродействия. Стоит сказать, что особенностью SOI-технологий AMD является малая диэлектрическая проницаемость изолирующих пленок, в то время как многие производители работают с пленками с высокой диэлектрической проницаемостью.
Использование силицида никеля для создания затворов приводит к возникновению дефектов в кристаллической решетке кремния в токопроводящем канале. Наличие таких дефектов позволяет электронам быстрее перемещаться по каналу, повышая быстродействие транзистора. Таким образом, технология напряженного кремния компании AMD основана на использовании дефектов кристаллической решетки, которые и применяются для ускорения движения электронов.
Сочетание вышеперечисленных технологий предоставляет возможность значительно улучшить характеристики транзистора: увеличить ток в открытом состоянии и уменьшить — в закрытом; повысить скорость переключения транзистора и в конечном итоге увеличить производительность всей интегральной схемы. В AMD подчеркивают, что по своим характеристикам новая технология превосходит требования Международного плана развития полупроводниковых технологий на 2009 год. Однако в компании полагают, что производство схем на базе новой технологии можно будет развернуть уже в 2007-м.
Упомянутый проект создания 45-нм техпроцесса не единственная новация компании Toshiba. В уходящем году ее исследователям удалось разработать технологию создания чипов, содержащих значительно большее количество слоев, чем используется сегодня. Речь идет о разработке девятислойных чипов, которые можно поместить в корпус высотой 1,4 мм. По сравнению с производимыми сегодня шестислойными чипами (а точнее — мультичиповыми компонентами) новая технология позволяет добавить еще три слоя.
Для того чтобы сделать возможным создание таких элементов, инженерам Toshiba пришлось уменьшить толщину каждого слоя (чипа) до 70 мк, что на 15 мк тоньше стандартных чипов. В качестве образца был представлен компонент, состоящий из SRAM, SDRAM, трех NOR и одного NAND-чипа вкупе с тремя промежуточными слоями. Общая емкость полученного мультичипа составила 776 Мбайт, размер - 11x14x1,4 мм, количество контактов - 225 при рабочем напряжении в 1,8 В. Для передачи данных между микросхемой и процессором используется разработанная компанией трехшинная система (быстрая шина - для SDRAM и NOR, средней скорости - для SRAM и медленная - для NAND). Ожидается, что вскоре Toshiba приступит к производству микросхем, содержащих выбранную заказчиком комбинацию различных типов памяти. В будущем данная разработка позволит создать не только более емкие, но и более функциональные устройства (в одной упаковке можно будет разместить разнофункциональную подсистему памяти).
Большие перспективы сулит технология, разработанная Шанхайским институтом оптики и точной механики. Как известно, в настоящее время при создании трехмерных электронных чипов производители применяют сложную и дорогостоящую технологию послойного наращивания плоских микросхем. Такая методика существенно ограничивает свободу выбора конструктивных решений и поэтому не позволяет выпускать объемные элементы в массовом порядке, однако в ближайшие несколько лет ситуация может измениться. В ходе экспериментов шанхайские ученые добавили оксид золота в состав стекла в концентрации один к десяти тысячам. Далее, фокусируя короткий лазерный импульс на определенных частях стеклянного блока, исследователи сместили атомы драгоценного металла с их начальных позиций. На завершающем этапе весь блок был нагрет до 550 градусов Цельсия, что привело к образованию крошечных золотых шариков, сформировавших сложную пространственную структуру. Внешне такая структура напоминает газетные фотографии, состоящие из тысяч отдельных чернильных капель. Пока предложенная методика может применяться лишь для создания небольших рисунков. Китайские ученые, к примеру, продемонстрировали изображение бабочки, состоящее из миллионов крошечных золотых гранул диаметром 7 нм каждая. Однако в перспективе технология могла бы использоваться для формирования проводников, электрических цепей и даже модулей памяти. Впрочем, о сроках практического применения системы исследователи пока умалчивают.
Достижения в области совершенствования производственных технологий были далеко не единственными громкими открытиями уходящего года. Немало компаний и научных лабораторий представило ряд весьма интересных результатов в области фундаментальных открытий, способных существенно изменить представления об основах полупроводниковой технологии. К примеру, компания Intel на IDF ‘2004 в Сан-Хосе рассказала о создании первого высокоскоростного оптического канала передачи данных, все компоненты которого объединены в одном кремниевом чипе.
Здесь стоит заметить, что по определению Intel, фотоника – это наука, которая изучает возможности использования света в области передачи информации. Давно известно, что оптические волокна способны нести множество каналов данных, отличающихся частотой. Теоретический предел передачи информации по одному оптическому волокну – более 100 трлн бит в секунду. Этого достаточно, например, чтобы обеспечить одновременно все телефонные разговоры на нашей планете. До сих пор наиболее существенным ограничением для использования кремния в оптических схемах была низкая скорость работы оптических приборов, реализованных на основе этого материала. Модуляторы на полупроводниковых соединениях и ниобате лития обладали лучшими скоростными характеристиками, чем их кремниевые аналоги, которые могли реально функционировать на частотах до 20 МГц. Достижение исследователей Intel состоит в том, что им удалось создать новый модулятор, основанный на структуре конденсатора из металл-оксидного полупроводника ( MO П), внедренного в кремниевый волновод, способный производить высокоскоростную оптическую модуляцию на частоте около 1 ГГц. Важно, что эта технология полностью совместима с традиционным техпроцессом создания комплиментарных полупроводников и делает возможным интеграцию кремниевых модуляторов в существующую электронику. Таким образом, экспериментально подтверждено: свет и электроника работают вместе. В итоге можно говорить о возможности достаточно быстро довести эту технологию до промышленного производства и, как следствие, ожидать существенного повышения скорости работы микросхем.
Сразу же после представления разработки Intel многие компании и исследовательские лаборатории продемонстрировали свои разработки, которые могли бы стать сопутствующими при внедрении оптических элементов в цепи процессоров. Пример — разработка исследователей из университета штата Иллинойс, создавших принципиально новое полупроводниковое устройство – светоизлучающий транзистор. Группа исследователей во главе с Ником Холоньяком-младшим (Nick Holonyak Jr.) и Милтоном Фенгом (Milton Feng) создала излучающий свет биполярный транзистор, который можно использовать в устройствах для обработки сигналов.
Ученые полагают, что в перспективе на основе подобных устройств возможно создание интегральных микросхем, где в качестве среды для передачи информации применяются кванты света – фотоны. Светоизлучающий транзистор изготовлен из фосфида индия и галлия (indium gallium phosphide) и арсенида галлия (gallium arsenide). Свет излучается при рекомбинации электронов и дыр в базовом слое биполярного транзистора, а его интенсивность зависит от тока базы и легко поддается управлению и модуляции. Эффект рекомбинации электронов и дыр известен с первых дней существования полупроводниковых технологий, но поскольку ранее фотоны излучались лишь в инфракрасном диапазоне, этот эффект считался паразитным, и использовать его пока никому не удавалось.
Ученые также сообщают, что с помощью таких светоизлучающих транзисторов можно получать модулированный свет с фазой, совпадающей с фазой электрического сигнала, на частотах до 1 МГц. Предстоит еще ответить на вопрос, насколько хорошо будут работать светоизлучающие транзисторы на более высоких частотах. И по всей вероятности, появятся новые способы их применения (например, гибридные фотон-электронные устройства).
А раз уж зашел разговор о технологиях завтрашнего дня, нельзя не упомянуть о долгосрочных планах компании Intel (до 2020 года), о которых стало известно в ходе одного из недавних брифингов. Начиная с 2013 года Intel планирует интеграцию принципиально новых технологий, в том числе углеродных нанотрубок и кремниевых нанопроводников. В списке инновационных технологий-кандидатов на внедрение значатся уже не раз описанные нами транзисторы с тремя затворами, интерференционные и оптические, а также менее привычные спинтронные устройства. По данным компании Intel, ей уже удалось интегрировать углеродные нанотрубки в кремний и создать полевой транзистор на их основе. Длина такого транзистора составляет всего 5 нм. Следующий шаг — создание транзисторов на полупроводниковых нанотрубках, диаметр которых составляет лишь 1,4 нм. Так что с 2011 по 2019 год, если верить Intel, транзисторы будут создаваться на основе нанотрубок из кремния и углерода.Японская NEC, являющаяся, между прочим, владельцем патента на коммерческое использование углеродных нанотрубок, также собирается представить первый чип на нанотрубках к 2010 году. Так что готовимся к большим переменам!
Аппаратная защита
Так как в области программной защиты данных пока не удается предложить эффективных методов защиты, то вполне очевидным кажется переход на аппаратные методы. Причем новые технологии актуальны как для отдельного домашнего ПК, так и для серверов и рабочих станций. Именно такой стала технология LaGrande, представленная компанией Intel на IDF Fall 2003. Ее цель - защитить компьютер от программных атак без ущерба для производительности и управляемости. Эта технология представляет собой комплекс аппаратных средств, которые позволяют обезопасить возможные источники атак.
Для начала давайте разберемся, от атак на какие элементы компьютера следует защищаться. Итак, программные атаки как правило используют возможности других программ в процессе их работы для доступа к конфиденциальным данным. Любая запускаемая программа помещает свою часть в оперативную память, а при обращении к ней с периферийных устройств результаты обработки запросов передает в память или буферы этих устройств. Это могут быть оперативная память, каналы DMA, буферы устройств ввода-вывода, буферы видеоадаптеров. Через контроллер DMA можно получить доступ напрямую к защищенной памяти, через оперативную память доступно нулевое кольцо защиты системы, в том числе все пароли, ключи, реестр. Через буфер клавиатуры и кадровый буфер видеокарты можно отслеживать ввод паролей пользователем. Причем, резидентные программы могут не только считывать информацию из памяти, буферов, но и отслеживать ввод-вывод и передачу данных (keyloggers, trackers, trojans, malware) и к тому же подменять и эмулировать запросы на получение информации, менять содержание памяти.
Давайте рассмотрим, как в общем случае действуют трояны и вирусы. Для получения пароля от приложения первым шагом подменяется экран для ввода пароля. Далее введенный пароль считывается из буфера клавиатуры. После этого пароль считывается из памяти, а обрабатывающее его приложение подменяется для игнорирования ввода пароля. Для решения этой проблемы необходимо применить комплекс мер по аппаратной защите компонентов системы. Все эти вопросы и решает технология LaGrande.
Аппаратные компоненты LT
Новая технология представляет собой набор нововведений, которые будут интегрироваться на уровне контроллеров и микрокода в аппаратные компоненты системы. LaGrande состоит из следующих составных частей: процессора с поддержкой LT, набора микросхем с интегрированной на уровне контроллеров поддержкой LT, модуля TPM и защищенного ввода/вывода.
Первый процессор с поддержкой технологии LT выйдет совсем скоро - это будет настольный Prescott на ядре Pentium 4, выполненный по 0,09-мкм техпроцессу. Теперь для процессора будет действовать новая политика обращения к памяти: он будет управлять доменами и определять доступ к защищенной памяти. В микросхему (G)MCH будут интегрированы контроллеры памяти и графического адаптера, которые поддерживают LT. Причем, будут поддерживаться как внешние видеоадаптеры, так и встроенная графика. В ICH интегрированы контроллеры USB с защищенным вводом/выводом и шина LPC, на которую будет "вешаться" модуль TPM. DMA Bus Master также не имеет доступа к защищенным приложениям. Из обычных приложений защищенные приложения не видны, также как и не видна передача защищенных данных.
Работает эта технология следующим образом. Устройство управления доменом (DM) обеспечивает изоляцию доменов. Отныне распределение обращения к ядру системы может осуществлять не любое приложение. Точнее, ядро ОС теперь представляет собой набор независимых сервисов, каждый из которых может обращаться через LT к ядру. LT организует доступ приложений ко всем ресурсам, таким как защищенная память. Следовательно, в основе управления системой безопасности LT лежит настройка DM, которую пользователь может настраивать и легко управлять из ОС.
LT можно включать и выключать без перезагрузки компьютера. После включения проверяется правильность конфигурирования устройств - для этого исполняется модуль SINIT. Здесь возникает проблема с оперативной памятью, так как существует большое количество модулей памяти с разными частотами и разной плотности и емкости, а настройки BIOS поддерживают несколько вариантов конфигурации одних и тех же модулей.
Несоответствие между настройками контроллера памяти и характеристиками DIMM может вызвать "свертывание" адреса памяти (привязывание двух адресов системной шины к одной области в памяти). Выход из этого положения очевиден - тестирование кода аутентификации самих модулей. SINIT блокирует настройки контроллера памяти, считывает характеристики модулей DIMM и контроллера и проверяет их на предмет "сворачивания" адресов. Код аутентификации имеет цифровую подпись, присвоенную набору микросхем их производителем. Для защиты код имеет ассиметричные ключи и исполняется в специальной защищенной области. Далее запускается процесс SENTER, который регистрирует DM и обеспечивает безопасность загрузки. Он гарантирует отсутствие вмешательства при загрузке. Для регистрации DM процесс SENTER использует информацию из TPM. Во время загрузки инструкции SENTER останавливается любая активность процессора. После окончания загрузки SENTER управление передается уже загруженному ранее SINIT-AC, который после проверки кода аутентификации инициализирует домены DM. SENTER определяет подлинность кода SINIT и хранит его в TCM PCR1 (Platform Configuration Register). Код SINIT определяет подлинность DM и хранит информацию о ней в TCM PCR2. Для этого SINIT использует свой специальный набор аппаратных команд и специальные циклы системной шины. После этого все защищенные операции осуществляются через защищенный домен. Защищенный домен запускается в несколько этапов: сначала устройство управления доменом идентифицируется (DM), затем создает в памяти защищенное адресное пространство, после этого по запросу домен получает управление защищенным приложением на уровне ядра ОС. Для каждого из таких приложений в памяти создается свое защищенное адресное пространство. Питание на DM подается только по требованию, так что она особых требований на питание не налагает.
Дополнительная защита
В технологии LaGrande предусмотрена защита и при особенных обстоятельствах. Первое - это защита от перегрузок. При неожиданной перезагрузке системы память становится незащищенной, так как сбрасывается защита компонентов LT (CPU, чипсет), но в массиве памяти может остаться информация. Защиту нельзя переустановить, так как может быть попорчена таблица страниц памяти. Разработчики нашли оригинальное решение: при перезагрузке блокируется доступ к памяти. Если там остались защищенные данные, то запускается модуль SCLEAN AC. Он устанавливает значения в каждый байт памяти. Только после завершения работы этого модуля память разблокируется.
При переходе компьютера в спящий режим зачастую на памяти остается напряжение питания, при этом оно не подается на другие компоненты LT. В таком случае защита памяти при выходе из спящего режима может не восстановиться. Это удалось обойти шифрованием содержимого памяти. ОС должна послать сигнал о спящем режиме устройству управления доменами, тот шифрует данные из защищенной памяти, и питание отводится от памяти. При выходе из спящего режима все происходит в обратном порядке: при подаче питания запускается DM, и данные дешифрируются.
LaGrande допускает использование нескольких DM на одной платформе. Для защиты данных одного DM от другого используется так называемое опечатанное хранение данных. В каждый момент времени может исполняться только один DM. Каждый из них опечатывает все данные, используя TPM и определяя среду идентификации. Среда идентификации состоит из модуля SINIT и загруженного на платформе DM. DM может распечатать данные для новой среды после обновления данных.
Ну и важнейшим вопросом для любой системы безопасности всегда является система установления начального доверия. Возникает вопрос, когда же следует начинать "доверять" системе, следует ли доверять ей, когда она впервые выдает запрос на пароль, можно ли доверять загруженной в текущий момент среде, если еще нет доступа к опечатанной информации? Это можно проверить с помощью любого портативного устройства: USB-устройства, сотового телефона, смарт-карты. Они должны содержать информацию о подтвержденных конфигурациях, осуществлять аттестацию системы и показывать, пройдена она или нет. Чтобы установить начальное доверие с удаленной службой (например, веб-сайт), последняя проводит аттестацию и возвращает результат по иному каналу, чем был послан запрос. Этим каналом может быть другой компьютер, электронная почта, телефонный номер 800 и многие другие. Это уберегает платформу от атаки на оба конца проверки.
Ну что же, можно констатировать,
Ну что же, можно констатировать, что на данный момент это уникальная разработка, не имеющая себе равных. Возможно, она еще сыровата и достаточно сложна для привыкания, но имеет весьма неплохие перспективы для развития и применения. Может быть, она станет будущим поколением защиты информации, так как программных методик уже недостаточно. LaGrande - это универсальный комплекс защиты, состоящий из аппаратных компонентов, который будет интегрироваться во все будущие платформы Intel, включая процессоры и чипсеты. В дальнейшем предполагается расширить валидацию устройств, полностью поддерживающих LT. По этому поводу проводятся консультации с Trusted Computing Group, которая собственно и разрабатывает спецификации TPM. Отличительной особенностью этой технологии является ее кросс-платформенность, независимость от используемого программного обеспечения. Причем, она найдет применение как в настольных компьютерах и рабочих станциях, так и в мобильных системах и сетях широкополосного доступа. Особое применение элементы этой системы найдут в ближайшем будущем в беспроводных сетях Wi-Fi и Wi-Max для защиты передачи данных. Так что какой бы нам эта технология не казалась сейча
Принципы LaGrande
Для корректной работы технологии, во-первых, требуется защищенное исполнение всех компонентов системы, причем все компоненты должны друг друга узнавать. Защищенное исполнение на основе LaGrande (LT) базируется на принципе разделения доменов. Оно не позволяет злоумышленнику получить ресурсы приложения в памяти. Защищенное исполнение позволяет отделить ресурсы, используемые одним приложением: исполнительную часть, страницы в памяти и устройства, к которым обращается приложение. Чтобы различить платформы с защищенным исполнением и без него, необходима надежная идентификация платформы.
Во-вторых, эта идентификация должна поддерживать аттестацию и автоматическую реконфигурацию платформы. Таким образом, можно реализовать совместимость с любой платформой. Кроме того, информация об идентификации должна надежно храниться, легко проверяться. Все эти функции в технологии LaGrande выполняет модуль TPM (Trusted Platform Module), который также имеет защищенное исполнение. Информация о конфигурации системы в TPM легко обновляется, и позволяет судить о том, какие элементы системы имеют защищенное исполнение, и, соответственно, какие части приложения защищены. Мы создаем своеобразную "кирпичную стену", которая отделяет защищенные ресурсы приложения от остальных ресурсов. Аттестационному устройству необходима гарантия, что сами блоки идентификации и хранения конфигурации защищены должным образом. Об этом можно судить по тому, как создавалась "кирпичная стена".
В платформе LaGrande (LT) модуль TPM как раз и представляет собой аттестационное устройство. Для его реализации в современных платформах должен использоваться TPM версии 1.2 или более новый. TPM содержит информацию о том, каким образом создавалась "защитная стена", то есть информацию об идентификации платформы. Далее при выполнении операций информация в ТРМ сравнивается с конфигурацией платформы, и, если они не совпадают, то защищенная информация оказывается недоступной. К примеру, если кто-либо придет со своим накопителем и подключит его к вашему компьютеру, то считать определенных данных он не сможет.
Для хранения информации используется генератор случайных чисел и уникальные сообщения. Питание не требуется, что обеспечивает надежность хранения. Третьей составляющей является само опечатанное хранение информации. Опечатанное хранение состоит из процесса идентификации и шифрования. Опечатанные данные могут быть доступны, только если необходимая для этого информация присутствует в ТРМ. Таким образом, данные "за кирпичной стеной" доступны только TPM и никому более. Чтобы иметь доступ к опечатанным данным, но при том быть уверенным в их защите, то для связи двух сред необходимо создать доверительный канал. Он состоит из двух обязательных участков между двумя вычислительными устройствами и между устройством и пользователем. При использовании даже обыкновенных устройств ввода-вывода в "кирпичной стене" создается точка монтирования для защищенного приложения, которая создает канал между двумя контроллерами, между которыми передается информация (к примеру, между памятью и контроллером клавиатуры). Путь между вычислительным устройством и человеком наименее защищен и поэтому он требует активного участия пользователя в процессе защиты. Например, пользователь должен работать, только когда доступен защищенный канал, о чем поступает звуковое или визуальное сообщение. Также необходимо создать доверительный канал ввода между устройством управления клавиатурой и мышью и самими этими устройствами. Для обеспечения безопасности LT генерирует аппаратные "ловушки", необходимые для создания доверительного канала. Для использования устройства управления ввода-вывода в режиме защищенного исполнения необходима соответствующая поддержка со стороны ОС. В будущем предполагается и использование специальных устройств ввода-вывода, поддерживающих доверительный канал. То же самое касается и доверительного канала между графическим адаптером и устройством отображения информации. Также требуется поддержка со стороны ОС, а графический адаптер должен поддерживать использование доверительного канала.
Технология LaGrande: аппаратная защита будущего
Александр Дудкин
«Экспресс-Электроника», #1/2004
Вопросы защиты данных важны не только для владельцев ПК. Понятно, что не существует программ, которые нельзя взломать. Доступ к информации определяется лишь временем, необходимым для взлома защиты. Пользователи же, в основном, страдают из-за кражи их важной личной информации, паролей, банковских счетов. Причем, техники нападения становятся с каждым днем все изощреннее, а технологии защиты не делают значительного прогресса в своем развитии.
Наиболее уязвимой средой, атакуемой хакерами является программная область. Эта среда, как правило, предоставляет доступ к сетевым возможностям компьютера, его накопителям и памяти. Основную опасность несут локальные сети, подключенные к Интернету, и сами пользователи. Именно их неквалифицированные действия чаще всего ставят под угрозу безопасность ПК. Достоверно известно, что большая часть взломов является следствием разглашения паролей или сохранения их в ненадежных источниках.
Требования к ОС
Проблема внедрения этой технологии, прежде всего, состоит в том, что современные операционные системы не совместимы с технологией LT, вернее не удовлетворяют ее требованиям. Они используют низкоуровневые драйвера, которые работают напрямую с аппаратным обеспечением в нулевом кольце системы, поэтому драйверы, используемые в одном приложении, могут использоваться и в другом и обращаться друг к другу. Выход один - разработать новую операционную систему с нуля. Правда здесь возникает проблема с совместимостью старых приложений и драйверов с новой ОС - кто же ее согласится использовать? Но сейчас Microsoft уже разрабатывает новую ОС NGSCB, которая способна использовать свойства LT для разделения доменов и поддерживать обратную совместимость. В эту ОС должен быть интегрирован ключ для шифрования опечатанных данных, который также должен защищаться.
Гладко было на бумаге, да забыли про овраги...
Как мы помним, новая платформа поддерживает несколько ключевых нововведений: разъем LGA775, шину PCI Express, память DDR2, а также приятные дополнения, которые, не меняя платформу принципиально, расширяют ее возможности, — High Definition Audio, семейство новых южных мостов ICH6x, новое графическое ядро серии 900. Это разнообразие обещает покупателю невиданное ранее улучшение потребительских качеств. Посмотрим, так ли это на самом деле.
Для начала определимся, в каком случае платформу можно считать успешной. С точки зрения бизнеса критерий всего один: стала эта платформа популярной у покупателей или нет. Если мы имеем потребительский хит, все нововведения удачны и на своем месте. Если нет — то платформа была запущена преждевременно. Проанализируем нововведения. Начнем с нового разъема LGA775 и сопутствующей ему ситуации. Прежде всего, для чего понадобился новый разъем? Корпорация Intel считает, что необходимо иметь некоторый запас, прежде всего, по питанию. Действительно, токи питания современных процессоров доходят до 90 А, что уже совсем не мало. Разъем LGA775 содержит большее количество контактных площадок и теоретически способен пропустить ток большей величины, нежели Socket 478. В этом смысле переход на новый форм-фактор полезнее, так как дает определенный запас.
С другой стороны, теперь пользователь имеет потенциально опасную для него ситуацию. Поскольку на процессоре теперь расположены только контактные площадки, «ножки» процессора перекочевали с процессора на сам разъем. И это приводит к определенным последствиям:
Стоимость разъема LGA775 заметно увеличивается. Если пластиковый Socket 478 стоил для производителей примерно $1, то за металлический LGA775 просят больше $6 (!). И предпосылок для снижения цены менее $5 пока не видно, — действительно, этот разъем заметно сложнее и дороже в изготовлении. Мы не станет пересказывать так и не подтвержденные слухи о низкой прочности LGA775, отметим другой факт. Ранее операция «корпусировки» процессоров (грубо говоря, упаковки ядра в корпус с ножками) производилась корпорацией Intel.Теперь же данная операция будет целиком на совести производителей материнских плат. Но даже самые известные из них не имеют столь разветвленной сети сервисного обслуживания, как у Intel. Кроме того, поскольку теперь повреждение разъема будет однозначно классифицироваться как механическое повреждение (!), возникают большие сомнения, что пользователям удастся что-либо доказать в случае, например, производственного брака. Естественно, подобная ситуация приведет к тому, что многие бренды второго эшелона начнут экономить на качестве разъема. К чему это приведет, объяснять не надо — хорошо известно, на какие «чудеса» способны производители в погоне за низкой себестоимостью. В самом деле, сэкономленный на качественном разъеме доллар при уровне продажи 200000 плат в месяц (уровень бренда второго эшелона) превратится в $200000 прибыли. Ну а то, что после второй или третьей установки процессора удешевленный разъем сломается или погнется, данного производителя не слишком волнует. Дескать, не его проблемы. Невзирая на то что ядро процессора Pentium 4 не изменялось, появление нового форм-фактора для этого процессора приводит к необходимости вкладывать значительные средства и в обновление процессора. Это хорошо для Intel, но плохо для покупателя — ведь модернизацией только материнской платы дело не обойдется. Нужно приобретать новый процессор. Перейдем к шине PCI Express. Безусловно, сама по себе новая периферийная шина — весьма полезное решение. Однако отсутствие поддержки шины AGP, для которой выпущено огромное число видеокарт самого разного уровня, удручает. Хотя и понятно, что решение было скорее политическим, нежели технологическим. Раз уж поддерживается шина PCI, то вполне возможна поддержка AGP (напомним, что шина AGP есть подмножество шины PCI). Более того, некоторые производители самостоятельно организовывают AGP-разъем на плате. Но поскольку прямой поддержки нет, фактически AGP работает в режиме PCI, то есть в 8 раз медленнее номинала. Это приводит к потере почти 70% скорости, и нормальным такой выход из ситуации не назовешь.
Но куда деваться, если приемлемого ассортимента видеокарт для PCI Express попросту нет, а покупатели не очень-то стремятся выбрасывать недавно купленные дорогие видеокарты для AGP-шины? Если появления новых игровых видеокарт вполне можно ожидать и для шины PCI Express, что же делать с решениями вроде Matrox RT2500, в которых предусмотрена специализированная видеокарта? В ближайшем будущем пока никто из производителей профессиональных систем видеомонтажа не собирается объявлять о новых решениях для шины PCI Express — и, соответственно, в этом случае покупателю не следует связываться с новой платформой. Хотя бы до того момента, как появится соответствующее оборудование. Впрочем, даже и в таком случае не следует торопиться с покупкой, поскольку практически неизбежны «детские болезни», которые удастся «подлечить» примерно через несколько месяцев.
Правда, новая периферийная шина не вызывает у автора никаких отрицательных эмоций. Как бы там ни было, но время PCI уже прошло: вот уже 10 лет PCI работает в качестве основной шины в наших ПК, и настало время заменить ее. Следует признать, любители разгона вряд ли обрадуются новой шине: по имеющимся сведениям, она заметно чувствительней к повышению частоты, что не дает возможность сильно разгонять системы с PCI Express. Конечно, рано или поздно будут задействованы механизмы асинхронного тактирования системной шины и PCI Express, но пока до этого далеко.
Итак, любителям разгона новые системы предлагать не стоит. Но у нас есть еще одно ключевое нововведение — память DDR2. Может быть, ее применение кардинально изменит ситуацию?
Теоретически память DDR2 имеет заметное преимущество в пропускной способности. Но у нее более высокие задержки. В результате можно было заранее сказать (а позднее тесты это подтвердили), что при небольшой разнице в частотах системы, оснащенные памятью DDR2, станут проигрывать системам с памятью DDR.
Тогда в чем же преимущество DDR-пaмяти? В общем, ситуация вокруг оперативной памяти сегодня такова: Память DDR практически исчерпала потенциал роста частот.
Даже DDR400, честно говоря, имеет строгие ограничения по количеству одновременно работающих модулей. Более быстрые, чем DDR400, модули представляют собой результат отбора, выход годных для более высоких частот невелик. В отличие от DDR, у DDR2 есть заметный потенциал роста. Поскольку частота банков памяти в DDR2 при одинаковых частотах интерфейса вдвое ниже, мы имеем возможность поднять частоту интерфейса примерно вдвое. Другими словами, через некоторое время без особых хлопот можно перейти к памяти DDR2-800 (в отличие от запущенных ныне DDR2-400 и DDR2-533). Подведем промежуточные итоги: новая платформа содержит ключевые новшества. Но они не приносят дополнительной производительности, скорее наоборот — старая платформа чуть быстрее новой. Таким образом, покупателям, заинтересованным в каждом проценте производительности, нельзя рекомендовать новую платформу, она в большинстве случаев уступает предшественнице в чистой производительности. Но если у нас нет преимущества в производительности, надо полагать, именно более широкие возможности станут причиной покупки? Далее мы внимательно рассмотрим возможности, как заявленные, так и реализованные.
Платформа, которой не существует
Виктор Картунов
Журнал "Экспресс электроника 10`04"
Несколько месяцев назад все мы были свидетелями старта новой платформы Intel — LGA775. Данная платформа содержала большое количество принципиальных нововведений, и потому проследить ее судьбу особенно важно. Ведь на начальном этапе любую новую платформу неизбежно сопровождают мелкие, но досадные недочеты, а чтобы понять, насколько перспективно новое решение, лучше все же оценивать ситуацию не сразу, а некоторое время спустя (поскольку неприятные погрешности не обошли стороной и эту платформу). В течение такого периода и станет ясно, были выявленные недостатки просто недоработками или речь идет о чем-то более серьезном.
Посему сформулируем цель статьи: мы собираемся критически взглянуть на новую платформу компании Intel, отмечая как ее достоинства, так и недостатки. Ну а поскольку любое мнение необходимо обосновать, дальнейшие рассуждения этому и послужат.
Как бы там ни было, существует множество причин, по которым особенно интересно подвести итоги именно сейчас: ведь как раз на III—IV кварталы приходится пик продаж персональных компьютеров, и пользователи должны иметь подробную информацию о потребительских качествах новой платформы.
Нельзя сказать, чтобы читатель впервые слышал о LGA775: мы уже рассказывали и о нововведениях платформы, и описывали результаты ее тестирования, расставляющие все точки над «i». Таким образом, наш читатель предупрежден и, следовательно, вооружен. Но есть еще одна проблема, неизбежная для каждой новой платформы. Это недостатки, частенько вытекающие из достоинств. Тем не менее писать о недостатках стартующей платформы рановато, поскольку понятно, что заметная их часть вызвана новизной. Но через несколько месяцев вполне можно считать, что те недоработки, которые обычно устраняют в разумные сроки, уже исключены. И то, что осталось, и есть «сухой остаток»: недостатки, с которыми придется мириться большому числу пользователей.
«Там, за туманами...»
Ну что ж, раз в текущий момент все не очень хорошо, видимо, у платформы LGA775 большие перспективы. Давайте попытаемся разобраться.
Что касается шины PCI Express, тут все хорошо. Шина перспективная, жить будет.
Если говорить о самом разъеме LGA775, то все тоже нормально: максимальный TDP платформы увеличен до 125 Вт, то есть даже самые старшие процессоры можно установить на эту платформу. Однако есть некоторые нюансы, куда же без них. И нюансы весьма занятны. Не секрет, что часть процессоров Intel сможет поддерживать технологию XD, которая является переименованной технологией от AMD под названием NX bit. Не секрет также, что некоторые процессоры Intel в следующем году станут использовать другую технологию от конкурента — AMD64. У Intel она получила название ЕМ64Т, и, как предупреждает компания, возможна «некоторая несовместимость в отдельных элементах». Было бы очень интересно посмотреть, откуда эта «несовместимость» и почему инженеры Intel «не справились» с копированием технологии AMD64? Но не это цель нашей статьи, а потому пропустим столь благодатную тему. Посмотрим, поддерживает ли платформа LGA775 описанные технологические новшества.
Те читатели, которые не впервые имеют дело с платформами от Intel, возможно угадают ответ. Наивные же (или просто доверчивые) скажут: «Безусловно, да!» И ошибутся. Потому что если для поддержки XD необходимо «просто обновление» BIOS (интересно, многие ли фирмы его выпустят?), то для поддержки ЕМ64Т только сменой BIOS не обойтись. Необходима переработка DMA-контроллера в чипсетах 925 и 915. Более того, в ноябре выйдет новый чипсет 925ХЕ, все отличие которого от предыдущего 925 заключается в поддержке шины 1066 и технологии ЕМ64Т. Без сомнения, это были настолько неожиданные шаги, что сразу предусмотреть подобные возможности в новой платформе оказалось невозможным. Подведем итоги: в ноябре «самая новая и перспективная» платформа морально устареет, и будет заменена платформой 925ХЕ. Вот ту, свежую платформу, с некоторой натяжкой можно назвать перспективной — по крайней мере, еще год она будет актуальной.
В отличие от объявленных сейчас платформы 925 и 915. Вот на ту, свежую платформу, можно поставить процессоры Pentium 4 с технологией ЕМ64Т.
Итак, какой категории покупателей посоветовать платформу, которая несколько медленнее предыдущей, намного дороже (в силу высокой стоимости DDR2), в которой еще не заработали все обещанные преимущества и которая в ноябре текущего года автоматически устареет?!
Мы не исключаем, что небольшой части покупателей действительно все равно, что у них в компьютере. Тогда эта статья не для них. Также не исключено, что определенной категории покупателей необходим именно этот набор свойств. Тогда эта статья и не для них тоже. Наша статья для тех, кто склонен прислушиваться к доводам рассудка. Для тех, кто слушает не только басни профессиональных маркетологов. И для тех, кто не хочет быть «бета-тестером» сырой платформы, потратив на это собственные деньги.
Но, в конце концов, выбор делает рынок: рано или поздно, эта платформа будет принята рынком. Пока она очень сыра, половина обещанных технологий так и не заработала, а скорость до сих пор оставляет желать лучшего. Боюсь, что такой «запуск» платформы впору считать маркетинговым провалом.
С этой оценкой, безусловно, можно спорить. Но она удивительным образом совпадает с мнением Крейга Барретта, который в открытом письме призвал Intel работать лучше. Он откровенно писал, что корпорация «расслабилась», что это уже не тот Intel, к которому мы привыкли. И призвал сотрудников работать лучше. И с этим трудно не согласиться.
В доме, который построил Джек
Давайте посмотрим, что приготовили нам инженеры Intel в качестве аргумента для покупки новой платформы. Прежде всего, вспомним о проекте Azalia — теперь он превратился в High Definition Audio. Речь идет о том, что отныне в чипсеты Intel серии 9хх встроено восьмиканальное звуковое решение, с поддержкой форматов 192 кГц 24 бит (например, DVD Audio), с поддержкой Dolby Digital 5.1/6.1/7.1. Другими словами, если ориентироваться только на озвученные цифры, то уровень встроенной звуковой платы должен превосходить большинство профессиональных и подавляющую часть звуковых плат среднего уровня. Тем не менее в жизни все несколько иначе. Да, в цифровой части, возможно, все неплохо. Правда, обработкой звука занимается не специализированный звуковой DSP-процессор, вроде Emu 10K2, а центральный процессор (естественно, не только он, но в значительной степени). Таким образом, если наш центральный процессор будет занят (например, обсчетом физики компьютерной игры), теоретически это может привести к деградации звука.
Вспомним еще один момент: цифровая часть, это, конечно, здорово. Но то, что мы услышим, зависит от еще одной, буквально копеечной микросхемы, DAC (ЦАП — цифро-аналоговый преобразователь). А вот с ней все грустнее: надеюсь, читатели не считают, будто дешевый восьмиканальный кодек сможет превзойти по качеству звучания и отношению «сигнал/шум» специализированные микросхемы Crystal Sound от Cirrus Logic? Надеюсь, никто не подумает, что этот дешевый кодек сумеет добиться такого же разделения каналов, как хотя бы Audigy 2 (не говоря уже о более дорогих карточках)? Надеюсь, никто не считает, что будет обеспечена такая же равномерность звуковых характеристик вдоль звукового спектра, как у даже относительно недорогих карт от Creative?
И в конце концов, даже если каким-то чудом все это удастся реализовать, никто не забыл, что большинство современных игр весьма неплохо работает с EAX (1.0, 2.0, 3.0 или 4.0) от Creative, но не может использовать преимущества этих решений?
Другими словами, для качественного звука теории мало.
Да, цифровая часть чипсета терпима и для встроенного звука весьма неплоха. Но аналоговая хуже, и с этим ничего не поделать. Но, может, есть смысл воспользоваться выводом сигнала по цифре и подключить колонки именно таким способом? Что ж, давайте рассуждать здраво. Интегрированный звук — это недорогой звук, поскольку его нам продают вместе с платой. Имеет ли смысл подключать к недорогому звуку весьма недешевые восьмиканальные колонки (!), притом, что автору неизвестен хоть сколько-нибудь сносный по качеству набор восьми-канальных колонок дешевле $300. И что тогда мешает купить к этим колонкам карточку Audigy 2 (всего за шестую часть цены) и не иметь проблем ни с игрушками, ни с качеством звучания? Трудно представить себе покупателя системы, которому одновременно необходимо восемь каналов и нет денег на звуковую карту. В то время как они есть на колонки. Правда, можно выводить звук по цифре и на обычную 5.1-систему, ее цена уже заметно ниже. Но, положа руку на сердце, зачем тогда HDA, если 5.1-систему можно подключить ко всем современным АС'97-кодекам? Совершенно непонятно, кто же является потенциальным покупателем HDA — для аудио-филов ее возможностей мало, для обычного офисного звука много. Перейдем к встроенному графическому ядру серии 900. Собственно, особо акцентировать на нем внимание незачем: да, есть такое ядро. Как и любая встроенная графика, эта позволит играть только самым нетребовательным пользователям. Нового в нем разве что наполовину программная поддержка DirectX 9.0с, да поддержка драйверами SSE3-инструкций. По сравнению с предыдущим поколением встроенной графики от Intel это большой шаг вперед. Если же посмотреть на внешние видеокарты, конкурировать встроенная графика сможет лишь с самыми дешевыми из них.
Положительный момент: пока видеокарт для PCI Express недостаточно, встроенная графика способна несколько облегчить переходный период. Вполне логичным выглядит предположение, что большинство новых платформ продается именно со встроенным видеоадаптером серии 900.
Покупатель такого видеоадаптера, — как правило, работник офиса либо домашний пользователь. Для офисного ПК платформа LGA775 пока слишком дорога, для домашнего пользователя и дорога, и недостаточна. Поскольку вышел Doom 3, и не учитывать этого факта нельзя — отныне производительность видеокарт измеряют именно по этой игре. В Doom 3 производительность данного видеоадаптера можно охарактеризовать одним словом: отсутствующая. Другими словами, и домашний пользователь не имеет особых стимулов для покупки такого видео. Что ж, перейдем к семейству южных мостов ICH6хх — в его маркировке позади цифры могут стоять буквы R, W или их комбинация. Буква R обозначает поддержку режима RAID 0, 1 или Matrix RAID для жестких дисков Serial ATA. Буква W означает поддержку программной точки доступа стандарта 802.11b/g. Добавим поддержку NCQ, о которой говорилось в предыдущем номере, и получим вполне соблазнительный набор нововведений.
Приглядимся внимательно и даже не будем учитывать немного неудачный запуск этой микросхемы в производство, приведший к выпуску бракованной партии. Да, это была досадная оплошность, но только оплошность. Для начала давайте посмотрим, какие винчестеры у нас поддерживают NCQ? Что, целых два? Разумеется, можно найти накопитель Seagate емкостью 200 Гбайт с поддержкой NCQ, да еще Maxtor объявил серию Diamond MAX III. Это все. Остальные модели NCQ не поддерживают, но будут поддерживать ее «позднее». Нехорошо.
Что ж, запомним. И перейдем к рассмотрению беспроводной программной точки доступа, предоставляющей нам вариант ICH6W. Стоп! Она тоже не работает? Будет работать в декабре?! Странно... А почему тогда объявили эту технологию в июне?!
Другими словами, нововведения в южных мостах серии 1СНбхх есть, но воспользоваться ими практически невозможно.А в чем тогда смысл нововведений?
Подытожим: у нас есть довольно беспомощная технология HDA, которая на самом деле никакая не High. У нас есть новая интегрированная графика с поддержкой DirectX 9.0, на которой все равно в современные игры не поиграть. У нас есть технология NCQ, которой невозможно воспользоваться в силу практического отсутствия жестких дисков с ее поддержкой. У нас есть технология Matrix RAID, которая также пока не работает. И у нас есть беспроводной интерфейс, который заработает в декабре (!).
Разумный вопрос, какой категории покупателей посоветовать этот чудный букет неработающих (или вскоре заработающих) технологий? Правильно, только очень наивной. И еще одной категории: тем, кто покупает комплектующие на перспективу. Вот о ней давайте и поговорим.
Вместо эпилога
Позволю себе еще несколько слов в качестве постскриптума. Возможно, кто-то считает, что все нормально и именно таким образом надо презентовать новые технологии. Напомню: 28 июня был представлен процессор Nocona, серверный вариант ядра Prescott. С поддержкой технологии ЕМ64Т. Кроме того, среди других полезных технологий анонсирована технология снижения частоты и тепловыделения процессоров при отсутствии нагрузки. Эдакий аналог Cool'n'Quiet (AMD) под названием Enhanced Speed Step.
Результаты «ошеломляющие». Во-первых, выяснилось, ЕМ64Т несовместима со многими программами под AMD64. Во-вторых, «случайно» выяснилось, что не работает технология Enhanced Speed Step. Интересно, что помешало ее проверить?! Не менее интересно и другое: а что помешало проверить работоспособность программ? Но и это еще не все.
До сих пор — подчеркиваю, речь идет о сентябре при анонсе в конце июня — нет никаких тестов и сравнений Nocona с Opteron в 64-битном режиме. Казалось бы, чего проще? У одного есть ЕМ64Т, у другого — AMD64. Бери общие программы и сравнивай. Оставляю читателям поискать эти крайне интересные сравнения. Все, что удалось найти автору, весьма любопытно: это измерения серверного процессора в SiSoft Sandra. Воистину, самая ценная программа для измерения производительности серверных процессоров! Не блещут они и в CPU SPEC. О том, что анонс был бумажным и отгружать их стали только в начале сентября, а не в конце июня, я уже не говорю — в последнее время бумажные анонсы стали для Intel делом привычным. Но запас «непотопляемости» любой фирмы небезграничен. Даже Intel не вправе постоянно совершать ошибки, иначе ее ждет судьба Digital. Вот уж кто в свое время казался вечным — ан нет, время все расставило по местам. И Intel, прикупившую последних инженеров DEC, стоило бы об этом помнить.