Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
A Brief History of Computer Technology.docx
Скачиваний:
75
Добавлен:
09.02.2015
Размер:
43.84 Кб
Скачать

3.5 Четвертое поколение (1972-1984)

Следующее поколение компьютерных систем увидел использование большого интеграции масштаба (LSI - 1000 устройств на чипе) и очень большой интеграция шкала (СБИС - 100000 устройств на чипе) в строительстве вычислительных элементов. В этом масштабе целых процессоры помещается на одном чипе, и для простых систем весь компьютер (процессор, оперативная память, и I / O контроллеры) может поместиться на одном чипе. Задержки ворот упала до около 1 нс в ворота.

Полупроводниковые воспоминания заменить основные воспоминания, как основной памяти в большинстве систем; до этого времени использование полупроводниковой памяти в большинстве систем не ограничивается регистров и кэш-памяти. В течение этого периода, высокие векторные процессоры скорости, такие как CRAY 1, CRAY X-MP и кибер 205 доминировали высокопроизводительных вычислений сцену. Компьютеры с большим оперативной памяти, таких как CRAY 2, начали появляться.Разнообразие параллельных архитектур начали появляться; Однако, в этот период параллельные усилия вычислительные носили в основном экспериментальный характер и большей вычислительной науки проводили на векторных процессорах. Микрокомпьютеры и рабочие станции были введены и увидел широкое применение в качестве альтернативы в режиме разделения времени ЭВМ.

Изменения в программном обеспечении включают очень языках высокого уровня, таких как FP (функциональное программирование) и Пролог (программирование в логике). Эти языки имеют тенденцию использовать декларативный стиль программирования, в отличие от императивного стиля Pascal, C, FORTRAN и др. В декларативном стиле, программист дает математическую спецификацию того, что должно быть вычислено, в результате чего многие детали того, как это должно быть вычислено для компилятора и / или системы исполнения. Эти языки не в широком использовании, но очень перспективными в качестве обозначений для программ, которые будут работать на массивных параллельных компьютеров (системы с более чем 1000 процессоров). Компиляторы, установленные языках начали использовать сложные методы оптимизации, чтобы повысить код, и компиляторы для векторных процессоров смогли векторизации простые петли (поворот петли на отдельные инструкции, которые инициируют операцию в течение всего вектора).

Два важных события стали первой половине третьего поколения: развитие языка программирования С и операционной системы UNIX, как на Bell Labs. В 1972 году Деннис Ритчи, стремясь удовлетворить целей проекта CPL и обобщить B Томпсона, разработал язык C. Томпсон и Ритчи затем используется C, чтобы написать версию UNIX для DEC PDP-11. Это C на основе UNIX вскоре перенесена на разных компьютерах, избавляя пользователей от необходимости изучать новую операционную систему каждый раз, когда они изменить компьютерную технику. UNIX или производное UNIX теперь стандартом де-факто практически на каждом компьютере.

Важным событием в развитии вычислительной науки был публикация Лакса доклада. В 1982 году Министерство обороны США (DOD) и Национальный научный фонд (NSF), авторами панель в больших масштабах компьютерных технологий в науке и технике, под председательством Петра Д. Лакса.Лакса докладе говорится, что агрессивный и сосредоточился внешнеполитических инициатив в области высокопроизводительных вычислений, особенно в Японии, были в резком контрасте с отсутствием скоординированной национальной внимания в Соединенных Штатах. В докладе отмечается, что университетские исследователи имели недостаточный доступ к высоким компьютеров с производительностью. Одним из первых и наиболее заметный из ответов на Лакса доклада был установление NSF суперкомпьютерных центров. Фаза I на этом NSF программа была разработана с целью поощрения использования высокопроизводительных вычислительных в американских университетах, делая циклы и обучение на трех (и более шести) существующие суперкомпьютеры немедленно доступны. После этой фазы I очереди, в 1984-1985 NSF предоставил финансирование для создания пяти II фазы суперкомпьютерных центров.

Второй центры фазе, расположенные в Сан-Диего (San Diego Суперкомпьютерный центр); Иллинойс (Национальный центр суперкомпьютерных приложений); Питтсбург (Pittsburgh Суперкомпьютерный центр); Корнелл (Cornell Theory Center); и Princeton (Джон фон Нейман центр), были чрезвычайно успешны в обеспечении компьютерного времени на суперкомпьютерах с академическим сообществом. Кроме того, они предоставили много программ ценный обучения и разработали несколько пакетов программного обеспечения, которые доступны бесплатно. Эти центры II фазы по-прежнему, чтобы увеличить существенные вычислительные усилия высокую производительность при национальных лабораторий, в частности, Департаментом энергетики США (DOE) и сайты НАСА.