Computação Paralela – Parte I

Esta é a primeira parte de um estudo sobre a computação paralela :

  Computação paralela é uma forma de computação em que vários cálculos são realizados simultaneamente, operando sob o princípio de que grandes problemas geralmente podem ser divididos em problemas menores, que então são resolvidos em paralelo.

  Existem diferentes formas de computação paralela: em bit, instrução, de dado ou de tarefa. A técnica de paralelismo já é empregue por vários anos, principalmente na computação de alto desempenho, mas recentemente o interesse no tema cresceu devido às limitações físicas que previnem o aumento de frequência de processamento. Com o aumento da preocupação do consumo de energia dos computadores, a computação paralela tornou-se o paradigma dominante nas arquiteturas de computadores sob forma de processadores multi-núcleo.

  Computadores paralelos podem ser classificados de acordo com o nível em que o hardware suporta paralelismo. Computadores com multi-núcleos ou multiprocessadores possuem múltiplos elementos de processamento em apenas uma máquina, enquanto clusters, MPP e redes usam múltiplos computadores para trabalhar numa única tarefa. Arquiteturas paralelas especializadas às vezes são usadas junto com processadores tradicionais, para acelerar tarefas específicas.

  Programas de computação paralelos são mais difíceis de programar que sequenciais, pois a concorrência introduz diversas novas classes de defeitos potenciais, como a condição de corrida. A comunicação e a sincronização entre diferentes subtarefas é tipicamente uma das maiores barreiras para atingir grande desempenho em programas paralelos. O aumento da velocidade por resultado de paralelismo é dado pela lei de Amdahl.

  Tradicionalmente, o software tem sido escrito para ser executado sequencialmente. Para resolver um problema, um algoritmo é construído e implementado como um fluxo serial de instruções. Tais instruções são então executadas por uma unidade central de processamento de um computador. Apenas uma instrução pode ser executada de cada vez; após a sua execução, a próxima então é executada.

  Por outro lado, a computação paralela faz uso de múltiplos elementos de processamento simultaneamente para resolver um problema. Isso é possível ao quebrar um problema em partes independentes de forma a que cada elemento de processamento possa executar a sua parte do algoritmo simultaneamente com os outros. Os elementos de processamento podem ser diversos e incluir recursos como um único computador com múltiplos processadores, diversos computadores em rede, hardware especializado ou qualquer combinação dos anteriores.

  O aumento da frequência de processamento foi o principal motivo para melhorar o desempenho dos computadores em meados da década de 1980 a 2004. Em termos gerais, o tempo de execução de um programa corresponde ao número de instruções multiplicado pelo tempo médio de execução por instrução. Mantendo todo o resto constante. Aumentar a frequência de processamento de um computador reduz o tempo médio para executar uma instrução, reduzindo então o tempo de execução para todos os programas que exigem alta taxa de processamento (em oposição às operações em memória).

  Entretanto, o consumo de energia de um chip é dado pela equação P = C . V^2 . f, em que P é a potência desempenhada pelo processador, C é a capacitância sendo trocada por ciclo de clock (proporcional ao número de transistores cujas entradas mudam), V é a tensão e f é a frequência do processador (ciclos por segundo).

  A energia total gasta é obtida por E = P . t em que t é o tempo em que o processador ficou ligado. Aumentar a frequência significa aumentar a quantidade de energia usada num processador. Em 2004, esse aumento de consumo levou a Intel a cancelar os modelos de processadores Tejas e Jayhawk. Este acontecimento foi citado como o fim da frequência de processamento como paradigma predominante nas arquiteturas de computador.

  A lei de Moore é a observação empírica de que a densidade de transistores num microprocessador dobra a cada 18 a 24 meses. Apesar do consumo de energia e de repetidas previsões sobre o seu fim, ainda prevalece. Com o fim do aumento da frequência de processamento, esses transistores adicionais podem ser usados para adicionar hardware à computação paralela.

Em breve a Segunda parte..

sponsored by: ops-portugal.logo

Anúncios

Sobre Rosdet Nascimento

Nasci em 1985 em São Tomé e Príncipe, mas vivi toda a minha vida no concelho de Cascais. Tenho formação na área de informática, mas sou administrativo numa grande multinacional, dizem que a maior delas. Além da escrita e do cinema, sou amante de desportos como Running e Krav Maga. Guerreiro é o meu primeiro romance.
Esta entrada foi publicada em General knowledge, Glossário, Informática, Redes com as etiquetas . ligação permanente.

Deixe uma Resposta

Preencha os seus detalhes abaixo ou clique num ícone para iniciar sessão:

Logótipo da WordPress.com

Está a comentar usando a sua conta WordPress.com Terminar Sessão / Alterar )

Imagem do Twitter

Está a comentar usando a sua conta Twitter Terminar Sessão / Alterar )

Facebook photo

Está a comentar usando a sua conta Facebook Terminar Sessão / Alterar )

Google+ photo

Está a comentar usando a sua conta Google+ Terminar Sessão / Alterar )

Connecting to %s