Computação paralela
Origem: Wikipédia, a enciclopédia livre.
Computação paralela é caracterizada pelo uso de várias unidades de processamento ou processadores para executar uma computação. Como um exemplo atual de uso de computação paralela, pode-se citar o Google, que usa vários servidores para realizar buscas na internet com rapidez.
O interesse por problemas cada vez mais complexos (Information Technology Research and Development, 2004) tem levado a necessidade de computadores mais e mais potentes para resolve-los. Entretanto, limitações físicas e econômicas têm restringido o aumento da velocidade dos computadores sequenciais, ou seja, computadores que executam instruções em série, uma após a outra pela UCP (Unidade Central de Processamento). Por outro lado, problemas computacionais usualmente podem ter algumas de suas partes dividida em pedaços que poderiam ser solucionados ao mesmo tempo, ou processadas em paralelo. Processamento paralelo é então uma forma pela qual a demanda computacional é suprida através do uso simultâneo de recursos computacionais como processadores para solução de um problema.
Uma maneira clássica de se classificar arquiteturas de computadores é pela forma como fluxo de instruções e os dados se apresentam. Essa classificação é conhecida por taxonomia de Flynn (Flynn, 1972).
[editar] Referências
[editar] Bibliografia
Dourado Flynn, M. J. Some computer organizations and their effectiveness. IEEE Transactions on Computing, n. 9, p. 948–960, 1972.
[editar] Ligações externas
- (pt)Arquiteturas distribuídas e programação paralela
- (pt)LogP
- Parallel Virtual Machine (PVM)
- Message Passing Interface (MPI)
- Open Cluster Framework
- Centros Nacionais de Processamento de Alto Desempenho (CENAPAD) - SP
- Centros Nacionais de Processamento de Alto Desempenho (CENAPAD) - CE
- Centro Baiano de Computação de Alto Desempenho (CEBACAD)