CFA LogoCFA Logo Computer
Загрузка поиска
Новости Компьютеры Прайс-лист [Новое] Прайс-лист [Б/У] Для ноутбуков Конфигуратор ПК Заказ, Оплата, Доставка Сервис объявления Драйвера Статьи Как нас найти Контакты
Новости
RSS канал новостей
Список материнских плат компании Biostar пополнился свежими моделями под поколения процессоров Intel ...
Похоже, что компания Gionee в эти дни очень сильно занята. Только недавно мы сообщали об анонсе ...
Компания Enermax в своем коротеньком пресс-релизе рассказала общественности о старте серии недорогих ...
SteelSeries представляет новую игровую клавиатуру APEX 150, которая дает игрокам высочайшую надежность ...
Пока в Сети живо обсуждают информацию о возможном выпуске компанией NVIDIA графического ускорителя ...
Самое интересное
Программаторы 25 SPI FLASH Адаптеры Optibay HDD Caddy Драйвера nVidia GeForce Драйвера AMD Radeon HD Игры на DVD Сравнение видеокарт Сравнение процессоров

АРХИВ СТАТЕЙ ЖУРНАЛА «МОЙ КОМПЬЮТЕР» ЗА 2003 ГОД

Победа Intelлекта над Физикой?

Александр КОНДАУРОВ

Пред новым годом были подведены итоги конкурса «Цифровые технологии Intel и Samsung в моей жизни», который проходил с 15 ноября по 15 декабря 2002 г. Он проводился совместно web-сайтом COMPOSTER, компанией К-Трейд и ИД «Мой Компьютер», при поддержке представительств Intel и Samsung в Украине. Мы публиковали информацию о ходе конкурса и об его итогах в рубрике «Редакционные новости». Имена победителей во всех номинациях вы могли прочитать в первом номере «Моего Компьютера» за этот год. Одним из призеров стал Александр Кондауров, конкурсную статью которого мы, на правах организатора акции, и предлагаем вниманию наших читателей.

Опиум для народа

Если наши родители жили во времена сантиметров и килограмм, слушали приемники на килогерцовых частотах и высокую точность определяли в миллиметрах, то мы уже с легкостью рассуждаем о нанометрах, гигабайтах, терафлопах и гигагерцах. Мы уже привыкли к тому, что в технических характеристиках к устройствам количество ноликов с той или другой стороны от (значащей?.. нет, скорее, уже почти ничего не значащей) цифирьки непрестанно увеличивается. А стремительное удешевление еще вчера заоблачно дорогих устройств создает иллюзию того, что все эти вереницы нулей достаются нам как-то сами собой. Наверное, наиболее ярко это видно на примере компьютерной техники, где за каких-то полтора десятка лет произошел не просто технологический «взрыв», а изменилось само восприятие целой отрасли — от «это что-то запредельное, чуть ли не граничащее с алхимией и демонологией» до «само собой разумеется, а что, бывает по-другому?»

Думаю, не ошибусь, если предположу, что основную работу по продвижению компьютерной техники «в народ» фактически выполнили персональные компьютеры и, в первую очередь, платформа PC — самая на сегодняшний день распространенная и, в конечном счете, наиболее ориентированная на массового потребителя. Без нее, впервые открывшей мир компьютеров широкому кругу пользователей-непрофессионалов, мы так и продолжали бы считать, что компьютер предназначен исключительно для вычислений чего-то там суперсложного и сугубо теоретического, типа математической модели Вселенной или — на войне как на войне — для расчета Самой Мощной Водородной Бомбы.

С другой стороны — как только PC «повернулся лицом» к неспециалисту и продемонстрировал ему, что может заменить пишущую машинку, музыкальный центр, видеомагнитофон, телевизор, игровую приставку, семейный альбом, кулинарную книгу, преподавателя иностранно языка и т.д., он оказался для многих не только удобным, но и чертовски эффективным капиталовложением. В индустрию хлынули деньги. На первых порах — от фирм и фирмочек, заменявших свои «Ундервуды» на новое чудо техники, помнящее все ранее набранные тексты. Потом — от родителей, увидевших, что их любимое чадо вдруг, вместо того чтобы тупо смотреть телевизор, может активно самообразовываться и играть в самые разнообразные игры, не рискуя при этом сломать себе ногу или шею. Затем — потекли денежки уже ото всех подряд, когда по миру поползла паутина Интернета, и все новые и новые области человеческой деятельности и досуга оказывались замечательным образом улучшены, ускорены, удешевлены и вообще перестали требовать недюжинных усилий — заплати немножко за РС и тебе все будет доступно...

Платформа успеха

Успех платформы PC стал возможным благодаря совместным усилиям производителей, занимавшихся разработкой как аппаратной части платформы, так и программного обеспечения (пользовательский интерфейс, прикладной софт). Однако дошло до того, что при повышении эргономичности интерфейса за кнопочками и окошками скрылись не только огромные массивы рутинных операций, но и представление о том, что же на самом деле происходит внутри того самого «блока питания», в который «еще и дискеты засовывают». Наверное, рядовому пользователю графического или бухгалтерского пакета все тонкости работы и ни к чему. А вот с точки зрения человека, интересующегося всеми тонкостями проблемы, такое положение дел может показаться и не совсем удовлетворительным. Ему, например, небезынтересно будет узнать, что в отличие от программной стороны — детища сотен и сотен больших и маленьких компаний, — аппаратная часть в значительной мере обязана не только современным воплощением, но и самим своим существованием многолетнему труду ученых и инженеров фирмы Intel. С процессора которой в далеком 1971 году все, собственно, и началось. А за каких-то три десятка лет корпорация сумела не просто пройти путь от чипа i4004 (частота 108 кГц, 2 300 транзисторов) до Pentium 4 (3 060 МГц, 55 000 000 транзисторов), но и обеспечить работоспособность систем, функционирующих на запредельных с технологической точки зрения режимах работы.

Что видит сегодняшний пользователь, решивший познакомиться поближе с устройством современного персонального компьютера? Под крышкой системного блока спряталась целая куча разнообразных устройств, общающихся друг с другом через добрый десяток разных протоколов. Работает себе — и работает, скажет любой здравомыслящий читатель. Чего бы ему не работать, когда все стандартизовано... Собственно, сам принцип стандартизации придумали еще в XVII веке оружейники, поняв, что штучное производство менее эффективно, нежели массовое. Однако с ростом сложности составляющих сам процесс стандартизации постепенно превратился из вспомогательного в основополагающий, в большой степени определяющий пути развития целых отраслей. Сегодняшний PC — это десятки спецификаций и стандартов на протоколы обмена данными, электрические и геометрические характеристики, способы соединения деталей и их охлаждения, маркировки и расположения. И большинство из них либо разработал, либо принял деятельное участие в их создании тот же Intel.

Пути совершенства

В домикропроцессорные времена считалось, что цифровая электроника делится на три основные класса. Во-первых, транзисторно-транзисторная логика (TTL), которой мы по сей день обязаны шиной питания +5 В. Далее — комплементарная логика на полевых транзисторах, CMOS, — ее классический вариант сегодня мы можем наблюдать в разнообразных устройствах с низким энергопотреблением (калькуляторы, часы и прочие игрушки). И наконец, эмиттерно-связанная логика (ЭСЛ, двуполярное питание и самое высокое быстродействие), именно на ее основе были построены самые знаменитые и долгоживущие монстры допеРСональной эпохи — мейнфреймы IBM 360/370, известные в наших краях как ЕС ЭВМ серий от 1010 до 1066.

Самой перспективной с точки зрения быстродействия считалась именно ЭСЛ, «играющая» на нестабильности пары из двух биполярных транзисторов, привязанных к одному источнику питания и менявших свою проводимость под воздействием малейшего «толчка» извне... Однако у конкурентов тоже были свои преимущества — простота обеспечения системы питанием у TTL и низкое энергопотребление у CMOS.

Пожалуй, на последнем моменте — энергопотреблении — стоит остановиться отдельно. До тех пор, пока основной сферой применения полупроводников оставались радиоприемники, а главным конкурентом транзисторов были радиолампы, с точки зрения потребляемой энергии царил полный ажур. Транзистору, в отличие от электронной лампы, накала не требовалось. Соответственно, энергию на подогрев тратить не приходилось, напряжение питания — единицы вольт. И того чемодана с аккумуляторами, которого хватало на пару часов работы лампового приемника «о трех лампах», стало хватать на сутки-другие работы транзисторного аналога на семи транзисторах...

Идиллия начала омрачаться тогда, когда счет транзисторов пошел на сотни и тысячи. Выяснилось, что, хотя им и не нужен накал, но во время работы они энергию таки потребляют. Более того, эта энергия выделяется в них самих в виде тепла. Больше всего трудностей приносили самые быстродействующие системы на базе эмиттерно-связанной логики — там оба транзистора были постоянно открыты, и переключение логических уровней происходило посредством изменения степени проводимости. Переключение транзисторов из одного состояния в другое происходило очень быстро, зато все элементы грелись, причем постоянно. И так как транзисторов насчитывалось множество, то в результате «венец творения» — машина ЕС 1066 — потребляла 250 киловатт (!) электроэнергии и требовала установки отдельного кондиционера, работающего только на отвод этих киловатт из десятка набитых микросхемами шкафов.

Транзисторно-транзисторная логика при ее невысоком однополярном питании выглядела куда более предпочтительнее для миниатюрных устройств, и первые микропроцессоры i4004, i8008 и i8086 были сделаны именно на ее основе. Однако вскоре инженеры Intel достигли определенного порога: 134 тысячи транзисторов, работавших на тактовой частоте до 12 мегагерц (речь идет о процессоре Intel 80286), стали пределом технологии TTL. Дело в том, что эта технология подразумевает постоянное прохождение тока через логическую ячейку, независимо от ее состояния — ток бежит по разным ветвям, но бежит в любом случае. Соответственно, тепло выделяется в каждой логической ячейке постоянно. И пусть ток минимален, но когда ячеек много, все вместе они начинают ощутимо греться. Кроме того, биполярные транзисторы, на которых строилась TTL, были довольно-таки велики — размер перехода составлял целых полтора микрона.

Пришлось обратить свои взоры на самую медленную по тем временам технологию комплементарных пар полевых транзисторов. Основным ее достоинством было минимальное энергопотребления в стабильном состоянии: ток через ячейку идет только во время переключения, когда один транзистор начал открываться, а второй — не успел закрыться. В остальное время один из двух транзисторов пары закрыт, и ток через ячейку определяется всего лишь утечками, которые удалось довести до величин, на порядки меньшие, чем в активный период. Второе немаловажное преимущество данной технологии — размер логической ячейки: полевые транзисторы можно было делать по технологии 0.8 мкм, что и обеспечило резкий скачок количества транзисторов, размещенных на одном кристалле. i386 насчитывал уже 275 тысяч транзисторов, а i486 — 1.2 миллиона. И процессоры эти работали уже на частотах от 20 до 33 МГц.

Быстрый рост тактовой частоты позволил применить еще одну хитрость — отказаться от архитектуры CISC. Ее отличало огромное количество узкоспециализированных команд, обеспечивавшее компактность кода в условиях ограниченности оперативной памяти и требовавшее сложного блока вычислений — арифметико-логического устройства, ALU — выполняющего непосредственно CISC-инструкции за несколько тактов. Удалось перейти на RISC-архитектуру (небольшой набор быстро выполняемых простых команд), сохранив при этом компактность кода. Теперь сложные команды CISC-набора рассматривались процессором как вызовы внутренних микропрограмм, выполняемых непосредственно ALU. И хотя одна ассемблерная команда, как и раньше, выполняется не за пару тактов, суммарное время ее выполнения остается все равно таким же или даже меньшим, за счет более высокой частоты следования тактов (а последнюю оказалось возможным повышать и повышать). Кроме того, упрощение арифметико-логического устройства позволило увеличить его разрядность, что тоже сильно повысило эффективность вычислений. Если операция сложения двух 32-разрядных чисел на 32-разрядном процессоре требует двух тактов, то для того чтобы их сложить на 16-разрядном процессоре, нужна была целая программа, выполняющаяся за пару-тройку сотен тактов и использующая внешнюю память.

Все мегагерцее и мегагерцее

Однако после достижения частоты порядка 33 МГц Intel столкнулся с первой принципиальной трудностью, обусловленной физическими процессами в системе. Если на кристалле длина отдельных проводников не превышает нескольких миллиметров (соответственно, электромагнитная интерференция сигналов в разных проводниках остается незаметной), то на системной плате длина проводников может составлять десятки сантиметров. В итоге наводки сигналов между соседними проводниками окажутся значительными и могут превзойти порог чувствительности логических ячеек. И если повышать частоты работы ядер еще было куда, то с его внешними тактовыми частотами дело обстояло куда как сложнее. Особенно надо принимать во внимание, что процессор работал непосредственно с целой кучей внешних устройств, включая даже слоты для видеокарт — помните VESA Local Bus? Решение проблемы было найдено достаточно быстро: если каждая команда выполняется за несколько тактов, то зачем оставлять одинаковые тактовые частоты для ALU и внешней шины? И мир впервые увидел процессоры, умножавшие внутри себя внешнюю частоту, —i486DX2-66.

Однако чуть позже, когда коэффициент умножения еще более увеличился, стало ясно, что кроме потока команд процессору своевременно нужен и поток данных. А он уже обрабатывается «как есть», а не преобразуется препроцессором в многотактовые последовательности для ALU... Что делать? Поднимать тактовые частоты оперативной памяти было уже практически некуда — огромные массивы транзисторно-конденсаторных ячеек динамической памяти принципиально не могли работать быстрее, чем позволяли тактовые частоты системных плат. А более быстрая статическая память имела непомерные геометрические размеры и, соответственно, стоила колоссальных денег. Поэтому пришлось, наряду с большими массивами медленной динамической памяти, организовывать небольшие буферные статические массивы, широко известные как кэши 2-го уровня. Последние поначалу располагались на плате и работали на внешней тактовой частоте через контроллер памяти. Но с приходом процессоров Pentium Pro их перенесли сначала поближе к кристаллу процессора, а потом вообще интегрировали в сам кристалл, заставив работать на внутренней тактовой частоте ядра.

Естественно, внедрение в процессор ощутимых массивов статической памяти не могло не привести к увеличению числа транзисторов. ЦПУ Pentium состоял уже из 3.2 млн. транзисторов, а в Pentium II их насчитывалось аж 7.5 млн.

При таком количестве транзисторов в чипе очередная сотня тысяч уже особой погоды не делала. Так что разработчики разгулялись не на шутку — от традиционных двух расчетных блоков (целочисленного и вычислений с плавающей точкой) решили перейти к более сложным схемам, содержащим параллельно работающие блоки, ориентированные на разные задачи. Во-первых, совершенно отдельные блоки, например, MMX (MultiMedia eXtension) и SSE/SSE2. Во-вторых, дублирующие, выполняющие вычисления параллельно (так называемые суперскалярные технологии). В этом случае за один такт выполняется несколько инструкций, общий результат работы которых затем сводится воедино. Такая организация потребовала введения конвейера инструкций, а он, в свою очередь, позволил выполнять команды не в том порядке, в каком они содержатся в исполняемом коде, а в том, который реально доступен для выполнения процессором. Если некая команда уже имеет все необходимые данные в регистрах, то почему не выполнить ее, пока предыдущая команда ждет получения своих данных из внешней памяти?

Беспредел совершенства

Совершенствование полупроводниковой технологии, переход на более совершенные литографические процессы, позволяющие уменьшить размеры логической ячейки, привели к постоянному росту тактовых частот процессоров. Уже в 1994 году был достигнут рубеж в 100 МГц, в 2001-м — 1 ГГц, в конце 2002-го — 3.06 ГГц. Для сравнения вспомним, что советский УКВ-диапазон лежит в районе 60–70 МГц, а модный нынче FM-диапазон «кучкуется» вокруг 100 МГц. Чтобы достойно оценить техническую сложность построения системы, стабильно работающей на такой частоте, вспомним, что перебои в приеме FM-радиостанций, появляющиеся довольно часто, — это потеря синхронизации в течение миллионов тактов... Компьютерные же системы работают годами, не «пропуская» за это время ни одного тактового импульса, — и это при сложности, на многие порядки превосходящей сложность самого «навороченного» радиоприемника.

Экспоненциальный рост количества транзисторов на кристалле и тактовой частоты процессора не мог не встретить очередные физические преграды на пути дальнейшего увеличения. Мы помним, что комплементарная пара транзисторов большую часть времени ток не проводит, соответственно, энергия на ней не выделяется. Однако каждое переключение — это пусть мизерный, но импульс тока. Соответственно, когда таких пар миллионы, а переключения следуют друг за другом миллионы, а теперь уже и миллиарды раз в секунду, то эти импульсы складываются в весьма существенный суммарный ток. Например, современный процессор Xeon, работающий на тактовой частоте 2.8 ГГц, потребляет (а значит, и выделяет) 74 Вт при напряжении питания процессорного ядра 1.5 В. С точки зрения простой электротехники такой вариант кажется просто невозможным. Ведь в слой кремния площадью каких-то полтора квадратных сантиметра и толщиной в доли микрона «вгоняется» 50 А постоянного тока, и при этом он не светится, как электролампочка, а выполняет какую-то осмысленную работу. Да еще на частоте, более соответствующей каким-нибудь радиолокационным станциям…

Золотое решение

И тем не менее, вышеописанные системы работают годами без единого сбоя. Каким образом? Неужели законы физики по-разному проявляются в различных областях человеческой деятельности? Нет. Просто действие одних законов, хорошенько подумав, можно скомпенсировать действием других. И тут инженерам Intel равных нет: обмануть физику с помощью физики же — задача не для школьной олимпиады. Среди исходных данных мы имеем: несколько десятков миллионов транзисторных пар, сконцентрированных на паре квадратных сантиметров поверхности кремниевого кристалла, переключающиеся примерно 3 млрд. раз в секунду и не способных работать при температуре выше 75°С. Задача: «накормить» их достаточным током и отвести «продукты жизнедеятельности» в виде тепла. При этом использование медных проводов диаметром в миллиметры исключается — эти 50 ампер нужно подвести к слою на поверхности кристалла толщиной всего лишь в пределах долей микрона. Как поступить? Ответ оказался слегка неочевидным — с задачей смогли справиться сотни тонких золотых проводничков, подключенных к контактным площадкам на поверхности кристалла в непосредственной близости от «центров потребления». Раз уж мы не можем подвести один толстый провод — подведем паутину тонких проводов именно к нужным местам...

Вторая проблема — тепло. У полупроводников есть очень неприятное отличие от уже упоминавшейся лампочки накаливания — их тепловыделение не обладает свойством самостабилизации. У вольфрама, как и у остальных металлов, температурный коэффициент сопротивления положительный. С ростом температуры сопротивление увеличивается, соответственно, ток (и количество выделяющегося тепла) через нагретый металл уменьшается, и в конце концов, на каком-то уровне ток и температура стабилизируются. В полупроводниках температурный коэффициент сопротивления отрицательный. С ростом температуры сопротивление полупроводника падает, соответственно, при постоянном напряжении питания ток растет, тепловыделение растет еще сильнее, повышая температуру до тех пор, пока кристалл не разрушится. Причем при тех плотностях тока, которые характерны для микропроцессоров, скорость роста локальной температуры разогревающегося участка может достигать 100–150 градусов в секунду. При взгляде на эти цифры сразу становится очевидной бесполезность термодатчиков, устанавливаемых на плату в процессорном разъеме. Пока волна разогрева дойдет до него сквозь сам кристалл, подложку и керамическое основание процессора, в рабочем слое кристалла останутся лишь остывающие угольки...

Использование встроенного в кристалл термодатчика, несомненно, повышает достоверность получения данных о реальной температуре процессора. Однако все равно требует поистине молниеносной реакции защитных цепей на плате — при рабочей температуре 50 градусов и допустимой 75 у платы есть всего около одной десятой секунды, чтобы распознать перегрев и принять меры по защите процессора от разрушения. О том же, чтобы успеть удержать температуру в допустимых пределах без сбоя работы системы в целом, речь и вовсе не идет.

Разработчики Intel нашли решение и этой, казалось бы, неразрешимой проблемы. Они попросту условились считать режим перегрева процессора… штатным и реагировать на него «в рабочем порядке». Для этого термодатчики были размещены в наиболее греющихся областях ядра и снабжены схемными решениями, блокирующими прохождение синхроимпульсов (причем не всех подряд, а с чередованием) в перегревающиеся области. Теперь при нагреве некой локальной области выше дозволенной температуры ее термодатчик начинает пропускать синхроимпульсы через один, уменьшая локальную тактовую частоту вычислительного блока, а соответственно, снижая и тепловыделение. При этом процессор не зависит от быстродействия внешних устройств, и даже окружающие перегретый блок соседние области процессорного ядра продолжают работать в своем штатном режиме. Система в целом продолжает функционировать как ни в чем не бывало. Единственное отличие перегревающегося процессора от работы в штатном режиме заключается в снижении быстродействия при исполнении команд, обрабатывающихся перегревшимся блоком. Именно это и можно было наблюдать в нашумевшем «видеоклипе», снятом тестовой лабораторией. Он был посвящен тому, как ведут себя системы на разных процессорах при снятии кулера с процессора. Если компьютеры на неинтеловских процессорах дымились и «умирали», то потеря какого бы то ни было охлаждения на Pentium 4 не привела даже к зависанию системы. (В том случае не привела, но вообще приводит. —Прим. ред.)

Согласие с мамой

Еще одна проблема современных вычислительных систем — частоты работы системных плат. Несмотря на все ухищрения, принципиально повысить частоты работы плат так и не удается — длина проводников и более низкие характеристики изолирующих слоев не позволяют поднимать частоты с такой «легкостью», как на кристалле процессора. Если с 1991 года частоты массовых процессоров выросли почти в сто раз — с 33 до 3066 МГц, то частоты на системных платах возросли всего вчетверо — с 33 до 133 МГц. Проблема достаточно быстрого снабжения процессора данными, несколько отодвинутая введением быстрой кэш-памяти на кристалле, опять встала в полный рост.

И тут Intel нашел, что сказать миру: его инженерами были предложены принципы DDR —Double Data Rate и QDR —Quad Data Rate, когда за один такт передаются, соответственно, два и четыре бита данных. Удвоение передачи достигается тем, что данные передаются не по одному фронту тактового импульса, а по обоим. При параллельной работе двух портов чтения и записи эффективная частота еще удваивается.

Но и этого Intel’овским разработчикам показалось мало — они обратили внимание на тот факт, что из многочисленных обрабатывающих блоков процессора некоторые простаивают. А ведь масса систем, с которыми работает процессор, по сути являются многозадачными — даже если у вас запущен только один «Фотошоп», то ОС все равно выполняет массу невидимой для вас работы, запуская свои задачи... Почему бы не задействовать простаивающие блоки ЦПУ? Придумано — сделано: внутри процессора размещены дополнительные конвейеры и сэмулирована двупроцессорная система. Она позволяет распараллелить исполняемые задачи и выполнять их не последовательно друг за другом по квантам времени, а вперемешку, задействуя освободившиеся вычислительные блоки ядра для тех потоков инструкций, которые могут ими воспользоваться. Такая система впервые появилась в процессорах Pentium 4 3.06 ГГц и называется Hyper-Threading.

Вывод

Закон Мура говорит о регулярном удвоении числа транзисторов, а стало быть, пропорциональном росте скорости работы и компьютерных систем. Этот закон уже несколько раз пытались опровергнуть физики — при подходе к очередному принципиальному рубежу, выше которого технология прыгнуть вроде бы не могла. Так было при достижении максимальной сложности схем на TTL, так было при выходе на «полочку» по тактовым частотам сигалов на системных платах, так будет продолжаться и дальше — при подходе к пределу разрешения литографических систем, к пределу теплопроводности кремниевых пластин...

Но пока инженерам Intel удается успешно «обманывать» физику с помощью физики же, наглядно демонстрируя миру, что Интеллект стоит все же выше Физики. И физические законы при всей их незыблемости и всеобъятности можно не просто обойти, а заставить работать на благо следующей, более сложной и прогрессивной технологии. И тем технологическим трудностям, с которыми сталкивались разработчики Intel, какими бы невероятными они ни были, всегда находилось решение. А сегодня решаются уже следующие, еще более невероятные с точки зрения элементарной физики проблемы...

Рекомендуем ещё прочитать:






Данную страницу никто не комментировал. Вы можете стать первым.

Ваше имя:
Ваша почта:

RSS
Комментарий:
Введите символы: *
captcha
Обновить





Хостинг на серверах в Украине, США и Германии. © www.sector.biz.ua 2006-2015 design by Vadim Popov