Параллельные вычислительные системы

Параллельные вычислительные системы — это физические компьютерные, а также программные системы, реализующие тем или иным способом параллельную обработку данных на многих вычислительных узлах.

Например, для быстрой сортировки массива на двухпроцессорной машине можно разделить массив пополам и сортировать каждую половину на отдельном процессоре. Сортировка каждой половины может занять разное время, поэтому необходима синхронизация.

Идея распараллеливания вычислений основана на том, что большинство задач может быть разделено на набор меньших задач, которые могут быть решены одновременно. Обычно параллельные вычисления требуют координации действий. Параллельные вычисления существуют в нескольких формах: параллелизм на уровне битов, параллелизм на уровне инструкций, параллелизм данных, параллелизм задач. Параллельные вычисления использовались много лет в основном в высокопроизводительных вычислениях, но в последнее время к ним возрос интерес вследствие существования физических ограничений на рост тактовой частоты процессоров. Параллельные вычисления стали доминирующей парадигмой в архитектуре компьютеров, в основном в форме многоядерных процессоров.

Писать программы для параллельных систем сложнее, чем для последовательных, так как конкуренция за ресурсы представляет новый класс потенциальных ошибок в программном обеспечении (багов), среди которых состояние гонки является самой распространённой. Взаимодействие и синхронизация между процессами представляют большой барьер для получения высокой производительности параллельных систем. В последние годы также стали рассматривать вопрос о потреблении электроэнергии параллельными компьютерами. Характер увеличения скорости программы в результате распараллеливания объясняется законами Амдала и Густавсона.

Типы параллелизма

Параллелизм на уровне битов

Эта форма параллелизма основана на увеличении размера машинного слова. Увеличение размера машинного слова уменьшает количество операций, необходимых процессору для выполнения действий над переменными, чей размер превышает размер машинного слова. К примеру: на 8-битном процессоре нужно сложить два 16-битных целых числа. Для этого вначале нужно сложить младшие 8 бит чисел, затем сложить старшие 8 бит и к результату их сложения прибавить значение флага переноса. Итого 3 инструкции. С 16-битным процессором можно выполнить эту операцию одной инструкцией.

Исторически 4-битные микропроцессоры были заменены 8-битными, затем появились 16-битные и 32-битные. 32-битные процессоры долгое время были стандартом в повседневных вычислениях. С появлением технологии x86-64 для этих целей стали использовать 64-битные процессоры.

Параллелизм на уровне инструкций

Компьютерная программа — это, по существу, поток инструкций, выполняемых процессором. Но можно изменить порядок этих инструкций, распределить их по группам, которые будут выполняться параллельно, без изменения результата работы всей программы. Данный приём известен как параллелизм на уровне инструкций. Продвижения в развитии параллелизма на уровне инструкций в архитектуре компьютеров происходили с середины 1980-х до середины 1990-х.

Современные процессоры имеют многоступенчатый конвейер команд. Каждой ступени конвейера соответствует определённое действие, выполняемое процессором в этой инструкции на этом этапе. Процессор с N ступенями конвейера может иметь одновременно до N различных инструкций на разном уровне законченности. Классический пример процессора с конвейером — это RISC-процессор с 5-ю ступенями: выборка инструкции из памяти (IF), декодирование инструкции (ID), выполнение инструкции (EX), доступ к памяти (MEM), запись результата в регистры (WB). Процессор Pentium 4 имеет конвейер в 31 ступень.

Некоторые процессоры, дополнительно к использованию конвейеров, обладают возможностью выполнять несколько инструкций одновременно, что даёт дополнительный параллелизм на уровне инструкций. Возможна реализация данного метода при помощи суперскалярности, когда инструкции могут быть сгруппированы вместе для параллельного выполнения (если в них нет зависимости между данными (завимости по данным)). Также возможны реализации с использованием явного параллелизма на уровне инструкций: VLIW и EPIC.

Параллелизм данных

Основная идея подхода, основанного на параллелизме данных, заключается в том, что одна операция выполняется сразу над всеми элементами массива данных. Различные фрагменты такого массива обрабатываются на векторном процессоре или на разных процессорах параллельной машины. Распределением данных между процессорами занимается программа. Векторизация или распараллеливание в этом случае чаще всего выполняется уже на этапе компиляции — перевода исходного текста программы в машинные команды. Роль программиста в этом случае обычно сводится к заданию настроек векторной или параллельной оптимизации компилятору, директив параллельной компиляции, использованию специализированных языков для параллельных вычислений.

Параллелизм задач

Стиль программирования, основанный на параллелизме задач, подразумевает, что вычислительная задача разбивается на несколько относительно самостоятельных подзадач и каждый процессор загружается своей собственной подзадачей.

Распределённые операционные системы

Распределённая ОС, динамически и автоматически распределяя работы по различным машинам системы для обработки, заставляет набор сетевых машин обрабатывать информацию параллельно. Пользователь распределённой ОС, вообще говоря, не имеет сведений о том, на какой машине выполняется его работа.

Распределённая ОС существует как единая операционная система в масштабах вычислительной системы. Каждый компьютер сети, работающей под управлением распределённой ОС, выполняет часть функций этой глобальной ОС. Распределённая ОС объединяет все компьютеры сети в том смысле, что они работают в тесной кооперации друг с другом для эффективного использования всех ресурсов компьютерной сети.

История

Работы в направлении создания параллельных вычислительных систем в США и СССР велись интенсивно с 1960-х гг. Разработкой технологии параллельной обработки данных и созданием параллельных электронно-вычислительных систем в Соединённых Штатах по заказу Агентства по перспективным оборонным научно-исследовательским разработкам США занимались исследовательские подразделения компаний и университетов:

  • Иллинойсский университет в Урбане-Шампейне;
  • Burroughs Corporation, Паоли, Пенсильвания;
  • ATI, Inc., Шампейн, Иллинойс;
  • Precision Instruments, Пало-Альто, Калифорния;
  • Applied Data Research, Уэйкфилд, Массачусетс.

Руководство за ходом работ осуществлялось бюро вычислительных расчётов и обработки информации АРПА в Пентагоне, Виргиния, и Научно-исследовательским центром ВВС США в Роуме, Нью-Йорк.

В Советском Союзе работы аналогичного характера велись учреждениями в структуре Государственного комитета по радиоэлектронике (позже преобразованного в Министерство радиопромышленности), Министерства обороны и Академии наук СССР:

  • Вычислительный центр АН СССР, Москва;
  • Институт математики Сибирского отделения АН СССР, Новосибирск;
  • Институт точной механики и вычислительной техники АН СССР, Москва;
  • Московский электротехнический институт связи;
  • Научно-исследовательский институт электронных математических машин, Москва;
  • Научно-исследовательский институт управляющих вычислительных машин, Пенза.

Биологический мозг как массово-параллельная вычислительная машина

В начале 1970-х годов в Лаборатории искусственного интеллекта Массачусетского технологического университета Марвин Минский и Сеймур Пейперт начали разрабатывать теорию, названную ими «Обществом Разума», которая рассматривает биологический мозг как массово-параллельную вычислительную машину. В 1986 году Минский опубликовал популярную книгу «Общество Разума», в которой утверждает, что «разум мозга формируется из многих маленьких агентов, не имеющих разума сами по себе». Теория попыталась объяснить, как то, что мы называем интеллектом, может быть продуктом взаимодействия простых частей, называемых агентами, которые сами являются неразумными. Минский утверждал, что самым большим источником идей о теории «общества разума» была его работа в попытке создать машину, которая собирала бы детские блоки, используя роботизированную руку, видеокамеру и компьютер. Книга о теории «Общество Разума» была написана для широкой публики, в отличие от большинства ранее опубликованных работ Минского.

Похожие модели (которые также рассматривают биологический мозг как массово-параллельную вычислительную машину, т.е. рассматривают мозг как состоящий из множества независимых либо наполовину независимых агентов) также описывали:

  • Томас Р. Блейксли (англ. Thomas R. Blakeslee),
  • Майкл С. Газзанига,
  • Роберт Э. Орнштейн (англ. Robert E. Ornstein),
  • Эрнест Хильгард (англ. Ernest Hilgard),
  • Митио Каку,
  • Георгий Иванович Гурджиев,
  • Нейрокластерная Модель Мозга.
Подпишитесь на свежую email рассылку сайта!

Читайте также