IDF: новые горизонты технологий

11-12 октября в Москве прошел четвертый Форум Intel для разработчиков (IDF). Это мероприятие уже давно превратилось из собственности Intel в событие для всей индустрии. Вряд ли какая другая компания способна проводить подобные форумы в мировом масштабе. А ведь в этом году состоялось 15 (!) форумов IDF в разных странах. Из них два — в России (в Москве и Новосибирске), и еще один — в Украине (в Киеве). Базовые форумы IDF проводятся в Калифорнии два раза в год, на них Intel выдает большое количество информации, которая затем растекается по локальным форумам. Самым интересным событием можно, несомненно, считать августовский IDF в Сан-Франциско, где были объявлены подробности, касающиеся новой микро-архитектуры.

Чем интересен форум для ИТ-специалистов? В первую очередь, он позволяет узнать подробности о новых технологиях из первых рук. Во-вторых, он дает возможность узнать о реализации этих технологий в конкретных решениях для потребителей. Именно по этой причине Intel приглашает большое число своих партнеров и устраивает технологическую выставку. В-третьих, на форуме имеет место неофициальная часть — кулуарные беседы и традиционная пивная вечеринка. Здесь тоже узнаешь новую информацию, подчас даже более интересную, чем из официальных источников.
Нужно ли посещать этот форум? Если вы считаете себя специалистом в сфере ИТ и хотите развиваться дальше — безусловно. Отрасль информационных технологий сегодня бурно развивается, и цена ошибки в деятельности вашей компании слишком велика. Если не спланировать стратегическую деятельность фирмы на несколько лет вперед, то велик шанс оказаться у разбитого корыта. И тому примером — судьба многих ИТ-фирм города Кирова.
Что же изменилось в ИТ-индустрии в этом году? Позвольте вкратце пробежаться по ключевым событиям.

Начнем с платформизации. Если раньше многие производители концентрировались на оптимизации отдельных компонентов, то сегодня это решение уже исчерпало себя. Действительно, производительность процессора уперлась в частотный и тепловой потолок. Дальнейшее улучшение качества и производительности системы в целом возможно только при оптимизации всей платформы, улучшении взаимодействия всех компонентов системы. Именно поэтому структура Intel в начале 2005 года была реорганизована в пять основных отделов. И мышление пришлось менять тоже. В принципе, «первой ласточкой» подобной логики можно считать появление платформы Centrino в марте 2003 года. Обеспечив выигрышную комбинацию компонентов, Intel смогла добиться доминирования этой платформы на рынке. То же самое происходит и в секторе серверов. Тем более, что все большее число менеджеров осознает фактическую смерть RISC-платформ и безусловные преимущества серверной архитектуры x86. Хотите примеров? Посмотрите на российский TOP50 серверов. Настольные ПК тоже будут ощущать платформизацию, хотя она будет не так заметна: здесь большую роль играют OEM-поставщики, а розничные компьютеры — всего лишь малая часть рынка.

Технология виртуализации (VT) появится в новых 65-нм процессорах Intel, которые выйдут в начале 2006 года (для настольных ПК — ядра Cedar Mill и Presler). Почему-то многим кажется, что эта технология не востребована. Отнюдь. Виртуализация позволяет аппаратно запускать на компью­тере несколько контекстов — операционных систем или их частей. Потенциально опасный браузер Internet Explorer можно будет запустить в своей «клетке». После работы с браузером и копирования всей нужной информации «клетку» можно уничтожить вместе с вирусами и прочей гадостью, которая могла пролезть в контекст IE. Новая ОС Windows Vista, которая в сле­дующем году выйдет на рынок на смену Windows XP, тоже будет поддерживать VT. Это даст возможность перейти на новую модель драйверов. Как известно, сегодня драйверы получают доступ ко всей памяти в режиме ядра. В итоге какой-нибудь китайский программист с не очень прямыми руками своим драйвером может запросто порушить всю систему. В будущем модель драйверов будет работать в своем отдельном контексте, а другие компоненты драйверов будут связываться только с ней. Вообще, у виртуализации очень много преимуществ — и в этом направлении нас ждет очень бурное развитие.

Теперь можно поговорить о новой микро-арктитектуре. Intel с 2000 года выбрала в качестве приоритета архитектуру NetBurst — именно на ней базируются все процессоры Pentium 4 до сего времени. Архитектура NetBurst позволила Intel быстро наращивать тактовые частоты и обогнать по этому параметру главного конкурента — AMD. Действительно, за каких-то пару лет мы перешли с частоты 1 ГГц на 2 ГГц, а потом и на 3 ГГц. Такого стремительного роста в истории компьютерной техники еще не было. В то же время процессоры Intel Pentium 4 страдают низким рейтингом IPC (число выполняемых инструкций за такт). Поэтому при равной тактовой частоте они проигрывают процессорам не только AMD, но и тем же Pentium M от Intel. Раньше Intel защищалась от этого, стремительно наращивая тактовые частоты. Но, увы, «Эльдорадо» сменило владельца. За последний год нас ждали одни только разочарования. Новый 90-нм тех­процесс, по которому стали выпускаться ядра Prescott, не смог снизить тепловыделение из-за высоких токов утечки. Кстати, у AMD и IBM 90-нм техпроцесс оказался лучше из-за технологии SOI (кремний на диэлектрике). Intel же пошла своим путем, выбрав технологию «напряженного кремния». В итоге мы получили сверхгорячие процессоры Prescott, чей тепловой пакет перевалил за 100 Вт. Если лет пять назад за тепловыделение ругали AMD Thunderbird, то теперь та же критика пошла в адрес Intel. По причине высокого тепловыделения рынок так и не увидел версии Pentium 4 с тактовой частотой 4 ГГц.
Что же делать? Спасительное увеличение гигагерц не помогает, а компанию стала серьезно подпирать конкурирующая AMD, чьи процессоры Athlon64 оказались на редкость успешными. И (кто бы мог подумать!) снизу стал наседать свой же Pentium M, чья производительность оказывалась на уровне Pentium 4 с большими тактовыми частотами. Вряд ли нужно лишний раз упоминать о том, что соотношение производительность/ватты у Athlon64 и Pentium M намного лучше, чем у Pentium 4.
В итоге Intel пришлось идти на кардинальные изменения. Патрик Гелсингер, вице-президент Intel Digital Enterprise Group, объявил о переходе Intel на новую архитектуру. В начале 2006 года нас ждет последнее поколение процессоров на ядре NetBurst (уже упомянутые Cedar Mill и Presler), а в конце 2006 года выйдут процессоры на совершенно новой микро-архитектуре (если Intel успеет).
Что касается Cedar Mill и Presler, то мы получим соответственно одноядерный и двухъядерный процессоры, которые будут производиться по 65-нм техпроцессу. Номенклатура не изменится — мы получим добавление в линейку Pentium 4 6×3 (Cedar Mill) и новую линейку Pentium D 9xx (Presler). Процессоры будут обладать меньшим тепловыделением (наконец-то!), но продолжат использовать прежний Socket775, так что их можно будет устанавливать в сегодняшние материнские платы. Что касается произ­водительности, чудес ожидать не стоит — считанные проценты, да и то не везде. Более интересен Presler. Это процессор с двумя ядрами, которые физически разделены, но находятся в одной упаковке. У сегодняшних двухъядерных Pentium D (Smithfield) два ядра находятся на одном физическом кристалле. Кроме перехода на 65-нм техпроцесс и двух раздельных ядер, Presler получит удвоение кэша L2: 2×2 Мбайт против 2×1 Мбайт у сегодняшних чипов Pentium D. Впрочем, как мы уже говорили, на практике прирост все равно будет невелик. Оба новых ядра будут поддерживать технологию виртуализации VT.
На Cedar Mill и Presler технология NetBurst закончит свое существование — встречайте новую микро-архитектуру! Пока что мы не будем загружать читателя большим числом подробностей. Лишь скажем, что новая технология будет во многом основываться на мобильном ядре Yonah, которое выйдет тоже в начале 2006 года. К концу 2006 года нас ждет выход новых замечательных процессоров, от которых действительно можно ожидать реального прироста производительности. О “гонке гигагерц” можно забыть. Кроме того, Intel отчетливо сфокусировалась на лучшее соотношение производительность/тепловыделение. Таким образом, посмотрим, сможет ли выполнить Intel свои обещания, и обгонит ли AMD по этому соотношению.

Многоядерность. Очень важное направление развития всей ИТ-индустрии. Причины понятны: наращивать производительность на одном чипе уже не представляется возможным, поэтому приходится переходить на несколько процессорных ядер. Тенденция неизбежна — и никуда от нее не деться. В следующем году предполагается, что по уровню продаж двухъядерные процессоры перекроют одноядерные. И ценовая политика Intel в этом отношении — тому подтверждение.
Зачем нужны два ядра и как их использовать? Нужны они для того, чтобы ваша система вышла на новый уровень производительности, чтобы работа одного приложения (скажем, антивирусная проверка) не замедляла работу другого (просмотр DVD, чтение почты и т.д.). Кроме того, аппаратно-программный массив RAID 0, 1 или 5 теперь не будет уменьшать скорость игры, поскольку вычисления массива возьмет на себя второе ядро. Наконец, приложения, которые умеют работать с несколькими ядрами (разбивая себя на несколько потоков) получат на таких системах существенный прирост производительности. Но приложения, которые не понимают два ядра, будут на них работать с такой же скоростью, как и на одном ядре. В этом и состоит­ проблема.
Что касается операционных систем, то здесь все просто. Все современные ОС поддерживают несколько ядер. Установите Windows XP на Pentium D или Athlon X2 — и в вашей системе появятся два процессора. Так что со стороны ОС готовность полная. Но вот приложения — совершенно другая сфера. К сожалению, разработка приложений под многоядерные процессоры требует изменения парадигмы программирования, образа мышления программиста. Это очень сложный процесс как со стороны образования, которое инертно, так и со стороны современных разработчиков. В образовании о переходе на новый уровень чаще всего даже и не подозревают. В итоге уже сейчас выпускнику вуза придется переучиваться, иначе он будет создавать неконкурентоспособную продукцию. Но софтверные компании не захотят вкладывать средства в разработку многопоточных приложений до тех пор, пока рынок не будет достаточно велик. Поэтому в 2006 году Intel приложит колоссальные усилия для расширения рынка, буквально демпингуя двухъядерные процессоры. Так что компаниям-разработчикам волей-неволей придется заняться переучиванием специалистов на параллельный код. Кстати, многие разработчики уже смотрят вперед. К примеру, новая версия FineReader успешно поддерживает многопоточное пакетное распознавание, то есть на двухъядерном процессоре FineReader будет работать быстрее практически в два раза. И 2006 год с этой точки зрения готовит много приятных сюрпризов.
Как ни странно, переход на двухъядерные процессоры позволяет уменьшить тепловыделение. Если приложения будут поддерживать многопоточность, то для достижения некоторого потребного нам уровня производительности на одноядерном процессоре нам понадобится разогнать его, скажем, до 3.8 ГГц (пороговое значение для Pentium 4). А если процессор будет двухъядерным, то тот же уровень производительности мы получим на частоте, скажем, 2.4 ГГц. При этом тепловыделение будет меньше. А если поднять частоту, скажем, до 3.0 ГГц, мы получим прежний уровень тепловыделения, но увеличение производительности. Такая вот арифметика.


Рекомендуем почитать: