Выбрать главу

Десятилетний путь от ZX81 до моего клона PC отражал период экспоненциальных технологических изменений. Процессор клона PC был в тысячи раз мощнее, чем у ZX81, а сам компьютер 1991 года — в миллионы раз эффективнее своего собрата из 1981 года. Эта трансформация стала результатом быстрого прогресса в развивающейся вычислительной индустрии, что выразилось в удвоении скорости компьютеров примерно каждые два года.

Чтобы понять эту трансформацию, необходимо изучить принцип работы компьютеров. В XIX веке английский математик и философ Джордж Буль попытался представить логику с помощью операций, включающих два состояния — ложь и истину. В принципе любую систему с двумя состояниями можно изобразить с помощью чего угодно. Например, вы можете механически представить ее двумя положениями рычага: вверх или вниз. Вы можете теоретически представить ее в виде конфеток M&M’s двух цветов — синих и красных (это, безусловно, вкусно, но непрактично). В итоге ученые решили, что лучше всего эту систему изображать цифрами 0 и 1 (такой двоичный разряд еще называют битом).

На заре вычислительной техники пользоваться Булевой логикой было сложно и громоздко. Именно поэтому компьютеру — а попросту любому устройству, которое могло выполнять операции, используя эту логику, — требовались десятки неуклюжих механических составляющих. Но в 1938 году произошел настоящий переворот: Клод Шеннон, тогда аспирант Массачусетского технологического института, понял, что можно построить электронные схемы с применением Булевой логики, а именно представить включенное состояние как 1, а выключенное — как 0. Это было революционное открытие, давшее толчок созданию компьютеров с использованием электронных компонентов. Первый программируемый электронный цифровой компьютер известен тем, что во время Второй мировой войны им пользовались шифровальщики, в том числе Алан Тьюринг[16].

Через два года после окончания войны ученые из Bell Labs разработали транзистор — полупроводниковое устройство, способное управлять электрическим током. Транзисторы могли выполнять функцию переключателей, и их можно было использовать для создания логических вентилей — элементов, способных выполнять элементарные логические вычисления. Если собрать несколько таких логических вентилей вместе, можно было получить работающее вычислительное устройство.

Звучит очень «технически», но смысл простой: новые транзисторы были меньше и надежнее, чем электронные лампы, которые использовались в первых компонентах электронных схем, и они проложили путь к созданию более сложных компьютеров. Созданный в декабре 1947 года первый транзистор был громоздким, собранным из множества деталей, в том числе скрепки для бумаг. Но он работал! С годами транзисторы превратились из такой импровизации в сложные стандартные устройства.

С конца 1940-х годов целью стало уменьшение размеров транзисторов. В 1960 году Роберт Нойс из компании Fairchild Semiconductor разработал первую в мире интегральную схему, которая объединила несколько транзисторов в одном устройстве. Эти транзисторы были крошечными, и по отдельности их невозможно было обработать ни вручную, ни машиной. Их изготавливали с помощью сложного процесса, немного схожего с химической фотографией, — фотолитографии. Специалисты направляли ультрафиолетовый свет через пленку с шаблоном — изображением схемы (похоже на детский трафарет). Схема отпечатывалась на кремниевой пластине; процесс можно было повторять на одной и той же пластине несколько раз, пока определенное количество транзисторов не накладывалось друг на друга. Каждая пластина могла содержать несколько идентичных копий схем, уложенных в сеть. Отрежьте одну копию — и получите кремниевый «чип».

Одним из первых силу этой технологии оценил Гордон Мур — исследователь, работавший на Нойса. Через пять лет после изобретения босса Мур понял, что физическая площадь интегральных схем ежегодно уменьшается примерно на 50%, при этом количество транзисторов меньше не становится. Пленки (или «маски»), используемые в фотолитографии, становились все более детальными, транзисторы и соединения — все меньше, а сами компоненты — более замысловатыми. Это снижало стоимость и повышало производительность. Новые, более плотно упакованные чипы из меньших компонентов были быстрее старых.

Изучив такой прогресс, Мур в 1965 году выдвинул гипотезу. Он предположил, что эти разработки позволят удвоить эффективную скорость чипа при той же стоимости в течение определенного периода времени. В итоге он остановился на оценке, что каждые два года (в среднем от 18 до 24 месяцев) чипы, не меняясь в стоимости, будут становиться вдвое мощнее[17]. Мур стал соучредителем компании Intel, крупнейшего производителя чипов в XX веке. Но, вероятно, он более известен благодаря своей гипотезе, которая теперь называется законом Мура.

вернуться

16

Алан Тьюринг (1912–1954) — английский математик, логик, криптограф, оказавший существенное влияние на развитие информатики. Во время Второй мировой войны Тьюринг работал в Правительственной школе кодов и шифров, располагавшейся в Блетчли-парке, где была сосредоточена работа по взлому шифров и кодов нацистов. Прим. пер.

вернуться

17

G. E. Moore, “Cramming More Components onto Integrated Circuits,” Proceedings of the IEEE, 86(1), 1965, pp. 82–85. https://doi.org/10.1109/JPROC.1998.658762.