sábado, 25 de julho de 2009

Tecnologias de Vídeo (Aula 8)

Dentre os dispositivos de entrada e saída, aquele que pode ser considerado essencial para nós usuários, é o monitor de vídeo, É através dele que conseguimos visualizar as informações geradas pelo computador.

A responsável por gerar essas informações ou imagens na tela, é a placa de vídeo.


Placa de Vídeo


Internamente, um computador, trabalha com informações binárias. Ele manipula uma seqüência de 0 e 1s, realizando cálculos e gerando resultados. Para nós é muito difícil, ou praticamente impossível compreendermos essas seqüências binárias. A função da placa de vídeo é justamente essa, traduzir essa seqüência de números em imagens ou informações que possamos visualizar e compreender.


Componentes da placa de vídeo


As placas de vídeo podem ser consideradas como um computador em miniatura, pois assim como os PCs, elas possuem uma placa de circuito impresso com trilhas ou barramentos para o tráfego de informações, chip controlador (processador de vídeo ou GPU - Graphic Processor Unit), e unidades de memória para armazenamento de informações.



Como funciona...?


Toda imagem gerada na tela do computador é formada por pixels. Pixel é um ponto luminoso na tela que pode variar de cor dependendo da imagem mostrada. Quando o processador da máquina (CPU) tem que gerar alguma imagem, ele “manda” essas informações para a placa de vídeo, ela por sua vez decide como manipular essas informações.

As informações de cor sobre cada pixel da tela é armazenada na memória de vídeo da placa de vídeo, o GPU calcula essas informações e envia o resultado para a interface de vídeo, onde é convertida em um sinal entendido pelo monitor, gerando assim, a imagem na tela.


Resoluções de vídeo


Quando falamos em resolução de vídeo estamos nos referindo á quantidade de pixels horizontais e verticais que uma placa de vídeo pode suportar. A conotação usada para medir a resolução é: quantidade de pixels horizontalmente x quantidade de pixels verticalmente (ex: 800x600).

As primeiras placas de vídeo operavam á apenas 640 x 480 de resolução, atualmente existem placas que conseguem gerar imagens com resoluções de até 1280 x 1024 px.

Quanto maior a resolução maior será a qualidade da imagem, pois mais pixels podem ser usados para a exibição da mesma.

É valido lembrar que não é só a resolução que determina a qualidade de uma placa, mas si o conjunto que inclui processador e memória de vídeo.


UMA - Unified Memory Archtecture


Placas mãe de baixo custo ou destinada a usuários comuns, apresentam a tecnologia UMA, ou seja trazem a placa de vídeo integrada á placa-mãe(on-board). Essa placa, diferente de uma convencional, não possui memória nem processador próprios. Com isso, todos os cálculos e informações de vídeo são realizados pelo processador e memória da placa-mãe. Isso acaba por prejudicar o desempenho global da máquina, que além de cuidar dos outros processos também tem que cuidar do trabalho da placa de vídeo. Em algumas placas que apresentam essa arquitetura é possível configurar a quantidade de memória da máquina que será usada como memória de vídeo.

Se você possui uma placa de vídeo on-board, pode perfeitamente instalar uma off-board, bastando apenas desativar a antiga.


Evolução das placas de vídeo


O primeiro padrão de tecnologia de vídeo desenvolvido e comercializado foi o MDA (Monochrome Display Adapter). As placas MDA integravam o IMB PC, primeiro PC da IBM. O padrão MDA não exibia imagens coloridas, na verdade não exibia nenhum tipo de imagens além de textos verdes ou brancos em um fundo preto. As placas MDA possuíam no máximo 4kbytes de memória e trabalhavam em resoluções de até 720x350.


As placas no padrão CGA (Color Graphic Adapter) foram as primeiras á exibirem imagens coloridas. Elas integravam o IBM PC XT, sucessor do IBM PC. O padrão CGA trabalha com dois padrões de resolução: o 640x200 gerando imagens com até duas cores simultâneas, e o 320x200 com quatro cores simultâneas.


O padrão de vídeo EGA (Enhanced Graphic Adapter) é mais evoluído que seus dois antecessores. As placas EGA possuem até 128kbytes de memória e trablham em várias resoluções como por exemplo, 320x200 com 16 cores simultâneas e 640x200 com 4 cores.


Melhorias e padronizações no padrão EGA deram origem ao padrão VGA (Vídeo Graphic Adapter). Nesse padrão, desenvolvido pela IBM, a resolução mínima de uma placa é de 640x480 com 16 cores simultâneas, e 256kbytes de memória. Esse padrão é o mais usado em placas de vídeo.


O padrão SVGA (Super Vídeo Graphic Adapter) é usado para designar placas que utilizem o padrão acima do VGA, mais que sejam compatíveis com os padrões do mesmo. As resoluções mais utilizadas no padrão SVGA são 640x480, 800x600 e 1024x768, essa última batizada de UltraVGA.


Placas de vídeo 3D


As maiorias das placas de vídeo exibem com tranqüilidade imagens em 2D, porém para gerar imagens em terceira dimensão (3D) é necessário bem mias poder de processamento. Para gerar esse tipo de imagem, além de informações sobra cada pixel na tela, também é necessário calcular os vértices e ângulos da imagem. Por esse motivo, placas de vídeo 3D possuem processadores com instruções próprias para tais cálculos, além de uma grande quantidade de memória para o armazenamento de informações.


Conectores de vídeo


O padrão de conector que uma placa de vídeo possui indica que tipo de dispositivo poderá ser conectado á ela. As placas MDA e EGA usavam um conector de 9 pinos, que possibilitava a utilização de monitores de fósforo verde. Já o padrão SVGA utiliza um conector de 15 pinos, que é o padrão mais utilizado hoje em dia.


As maiorias das placas de vídeo atuais trazem um conector VGA de 15 pinos, que possibilita a conexão de monitores CRT (Tubo), projetores e monitores LCD.


Algumas placas, além da conexão VGA têm também conexões RCA (Vídeo Composto). Essa conexão apresenta conectores na cor amarelo (vídeo), vermelho (áudio direito) e branco (áudio esquerdo). Esse padrão possibilita assistir vídeos no PC provindos de um aparelho de DVD ou qualquer outro dispositivo que possua tais conexões.


O padrão S-Vídeo (Separated Vídeo ou Vídeo Separado) assim como o RCA é usado em placas de captura de TV. Diferente do RCA o S-Vídeo transmite três fios para transmissão da imagem um para imagem preto-e-branco, um para imagens coloridas e um o fio terra. Esse padrão é bastante utilizado em aparelhos DVD e alguns modelos de televisores.


O novo padrão de conexão lançado foi o DVI(Digital Vídeo Interface). Ao contrario dos outros padrões, onde a imagem digital tem quer convertida em analógica para a exibição na tela, no padrão DVI tudo é feito de forma digital, resultando assim, em uma melhora significativa na imagem. As conexões DVI possuem várias versões cada uma apresentando um conector diferente. É possível usar adaptadores para diferentes tipos de padrões.


O possível sucessor do DVI será o HDMI ( High Definition Multimedia Interface). A principal diferença desse padrão é em relação ao cabo conector. Nessa conexão, utiliza-se um único cabo tanto para vídeo como para som, além de tudo ser transmitido de forma digital. Esse padrão possibilita resoluções de até 192x108pixels, e é o padrão mais utilizado nos novos aparelhos eletrônicos.


Fabricantes.....

Os principais fabricantes de placas mãe atualmente são nVidia com a série GeForce e ATI com suas placas Radeon. Uma empresa que foi bastante popular, más não conseguiu se manter na disputa foi a 3dfx, com suas placas Voodoo.

Sistemas de Armazenamento (Aula 7)

Quando estamos trabalhando com um computador, as informações que estamos utilizando ficam salvas na memória principal, ou memória RAM. Esse tipo de memória é volátil, ou seja, necessitam de energia elétrica para manter os dados ativos. Assim, quando desligamos o computador temos que armazenar tais informações em algum tipo de memória secundária para que possamos acessá-las novamente quando necessitarmos. Essa memória secundária, ou memória de massa, pode ser um disquete, um HD, um CD, um Pen-Drive, ou qualquer outro dispositivo que armazene informações de forma permanente.



Unidades de medida


Como já foi mostrado, na informática, as unidades de medida são baseadas em bits que são a menor unidade de informação. Á partir do bit temos os bytes, Kbytes, Mbytes, Gbytes, Tbytes e assim infinitamente. A capacidade de um dispositivo de armazenamento, define a quantidade de informação que o mesmo pode armazenar. Em termos de HD, essa capacidade atualmente é dada em Gbytes, porém HDs mais novos já alcançam a casa dos TeraBytes.


Disquetes


Durante algum tempo os disquetes foram bastante utilizados como dispositivos de armazenamento, porém, devido a sua baixa confiabilidade e capacidade de armazenamento foi gradativamente caindo em desuso. Os disquetes consistem de uma fita magnética encapsulada por uma proteção de plástico. Por causa de fita de plástico, os disquetes também são conhecidos como discos flexíveis.

Basicamente, existem tamanhos de disquetes: o de 5 polegadas e ¼, e o de 3 polegadas e meia. Além do tamanho eles também se diferem na capacidade de armazenamento, sendo que o primeiro tem modelos que armazenam 360Kbytes e modelos com 1.2 Mbytes de capacidade de armazenamento. O de 3” ½ pode armazenar 720Kbytes, e na sua versão mais conhecida 1.44 Mbytes.

As unidades necessárias para utilizar os disquetes, ou seja, os dispositivos que gravam e lêem as informações dos disquetes também são diferentes.


Disquete de 5" ¼ ------------------ Disquete de 3"½




Disco Rígido (HD)


Sem dúvida, o principal dispositivo de armazenamento usado em computadores é o Disco Rígido (Hard Disk ou HD) por apresentar alta capacidade de armazenamento, boa confiabilidade e é onde instalamos o sistema operacional usado na máquina.

O nome “Disco Rígido” provem dos discos de alumínio usados para armazenar os dados de forma magnética.


Elementos de um HD


Todo HD é formado basicamente por: Discos ou Lâminas, Braço, Atuador, Cabeça de Leitura e Gravação, Placa Controladora e Motor.


O conjunto de discos ou lâminas é formado por discos geralmente feitos de liga de alumínio, recobertos com algum substrato magnético que geralmente é óxido de ferro. É esse substrato que permite que as informações sejam gravadas de forma magnética na superfície dos discos. Em um HD existe no mínimo um disco, e quanto mais discos existirem maior será a capacidade de armazenamento do dispositivo (e também o seu preço !!!)


O braço também é produzido geralmente de alumínio, por ser um elemento leve e resistente. A função do braço é movimentar a cabeça de leitura sobre a superfície do disco para que a mesma possa gravar e/ou ler os dados. O número de braços que podem existir em um HD depende do número de discos que o mesmo possui.


O atuador pode ser considerado um dispositivo inteligente dentro do HD, é ele que controla a movimentação do braço, ou seja, é ele quem posiciona a cabeça de leitura no lugar certo do disco.


A cabeça de leitura e gravação é o dispositivo que vai definitivamente gravar ou ler os dados na superfície do disco. Ela é formada por uma bobina que é atravessada por uma tensão elétrica, essa tensão por sua vez cria um campo eletromagnético positivo ou negativo. É essa polaridade que vai definir como as partículas serão gravadas no disco.

Um erro comum que muita gente pensa, é que a cabeça, ao gravar ou ler os dados, encosta na superfície do disco. Se isso fosse verdade o disco seria riscado incapacitando-o. Na verdade a rotação dos discos cria uma espécie de “colchão de ar” entre eles e a cabeça de leitura. Quedas de energia, ou desligamento incorreto do computador podem fazer a cabeça encostar no disco podendo prejudicá-lo.


Todo o funcionamento do HD é controlado pela placa controladora. É ela quem coordena a entrada e saída de informação do disco, envia sinais para o atuador e coordena a rotação dos discos. Em alguns casos, quando um HD apresenta problemas, podemos trocar a placa controladora por outra do mesmo modelo podendo, assim, acessar novamente os dados gravados no dispositivo.


O motor é o responsável pelo movimento de rotação dos discos, ou seja, é ele quem gira os discos dentro do HD. Atualmente, a maioria dos discos gira em torno de 3600 á 7200 RPM (Rotações por Minuto). Em alguns dispositivos de alto desempenho, essa rotação pode chegar a até 10000 RPM.



Tipos de Gravação/Leitura


Nos HDs agravação e leitura dos dados podem ser feitas de duas maneiras: Gravação Longitudinal e Gravação Perpendicular.

Na Gravação Longitudinal as partículas são gravadas na superfície do disco lado a lado de forma horizontal. Esse tipo de gravação é o mais utilizado em HDs e também o mais fácil para os fabricantes.




Já na Gravação Perpendicular as partículas magnéticas são gravadas lado a lado de forma horizontal, é como se elas fossem gravadas em pé e não deitadas como no outro processo. Com isso a capacidade de armazenamento dos discos pode ser aumentada, porém isso gera um custo maior aos fabricantes que precisam de uma superfície especial para esse tipo de gravação.




Geometria do HD

A geometria do HD define a estrutura lógica criada em cima dos discos. É como dividir o HD em linhas e colunas, formando células, onde serão armazenados os dados. Essa geometria divide o HD em trilhas, setores, clusters e cilindros.


Os setores são divisões verticais feitas na superfície do disco, como se fossem as colunas de uma tabela.


As trilhas são divisões concêntricas que partem do meio do disco para a sua borda, correspondem às linhas de uma tabela.


A intersecção de linhas e setores forma os clusters, são o correspondente as células de uma tabela. É nos clusters que os dados serão armazenados.


Em um HD podemos ter mais de um disco, os dados quando gravados ao separados nos diversos discos. Cilindros nada mais é do que a mesma posição das trilhas e setores nos discos do HD.



Sistema de Arquivos

A função do Sistema de Arquivos é definir a forma como os dados serão armazenados na superfície do disco usando a sua geometria. Existem vários tipos de sistema de arquivos, cada S.O. possui o seu e cada um tem suas particularidades. Geralmente nós escolhemos o tipo de sistema de arquivos a ser usado no momento da instalação do sistema operacional.


Sistema FAT 16


No FAT(File Alocation Table ou Tabela de Alocação de Arquivos) 16 os arquivos, ao serem gravados, não são fragmentados. Se um arquivo não couber inteiro em cluster o sistema utiliza o cluster posterior. Com isso, não há fragmentação de arquivos e o processo de leitura de dados fica mais eficiente, pois os dados estarão sempre inteiros.


Sistema FAT 32


Já no FAT32 os arquivos, ao serem gravados são fragmentados. Por exemplo, tomando como base clusters de 10Kbytes, eu tenho quatro arquivos a serem gravados de 5Kbytes, 10Kbytes e 5Kbytes e 20Kbytes respectivamente. Suponhamos que gravemos os três primeiros arquivos na ordem um depois do outro. Ao todo eles ocupariam dói clusters, um inteiro e metade de outro. Agora, suponhamos que apagamos o segundo arquivo, ficaria um espaço de 10Kbytes entre o primeiro e o segundo arquivo, certo?

Quando gravarmos o quarto arquivo (20Kbytes) o sistema gravará os 10Kbytes iniciais no espaço entre os dois arquivos e os outros 10 na frente do terceiro arquivo.

Com isso, o arquivo de numero quatro foi fragmentado. Essa fragmentação possibilita a máxima utilização do espaço do HD, porém diminui a velocidade de leitura, pois toda vez que o sistema tiver que ler um arquivo fragmentado ele terá que ficar procurando onde estão as partes do arquivo no HD.


Sistema NTFS


No NTFS(New Tacnology File System) os arquivos também são fragmentados, porém o tamanho dos clusters é maior se comparado ao FAT32. Com isso a fragmentação é menor. A fim de tentar amenizar esse problema á partir do Windows98 foi inserido a ferramenta “desfragmentador de discos” que basicamente junta as partes dos arquivos fragmentados melhorando o desempenho do micro.


Padrões de HD


Basicamente existem 3 padrões de HD: IDE, SATA e SCSI.


No padrão IDE (PATA - Paralel ATA) os dados são transmitidos entre HD e outros dispositivos da máquina de forma paralela, ou seja vários dados por vez. O cabo de conexão de dados de um HD IDE é chamado de Cabo Flet de 40 vias. Com esse cabo serão transmitidos 40 dados por vez. Existem vários padrões de HD IDE, cada um, teoricamente, alcançando uma taxa de transferência máxima. Tais padrões são: ATA 33(até 33MB/s), : ATA 66(até 66MB/s), : ATA 100 (até 100MB/s) e : ATA 133(até 133MB/s).



Já no padrão SATA (Serial ATA) os dados são transmitidos um por vez. O cabo de conexão sata transmite apenas um dado por vez. Embora transmita menos dados, se comparado ao padrão IDE, os dispositivos sata são mais rápidos que os IDE. Isso ocorre porque na transmissão paralela (IDE) um dado acaba gerando interferência eletromagnética no outro, assim muitas vezes é necessário enviar o mesmo dado mais de uma vez, pois o mesmo chega corrompido ao seu destino. Na transmissão serial, como é transmitido apenas um dado por vez, ele certamente chegará inteiro ao seu destino e mesmo que não chegue o processo de correção ou reenvio é mais rápido.

O padrão SATA atinge taxas de transferência de até 150MB/s, sua evolução, o SATA II, atinge até 300MB/s e o SATA III que futuramente será lançado, atinge até 600MB/s.



O padrão SCSI (Small Computer System Interfaces) não é tão utilizado por usuários comuns. Ele é uma solução para servidores ou aplicações que necessitam de altas taxas de transferência. Porém podemos utilizar um dispositivo SCSI em um PC normal bastando apenas utilizar um adaptador.


Armazenamento Digital


O armazenamento magnético, como o dos HDs, é a melhor solução para nós usuários, pois apresentam alta confiabilidade e capacidade de armazenamento. Porém os métodos de armazenamento digital começam a ganhar força. Sua principal vantagem é em relação ao tamanho dos dispositivos, que muitas vezes oferecem dimensões bastante reduzidas e quase a mesma capacidade de armazenamento dos dispositivos magnéticos.

Um exemplo disso é em relação aos disquetes, eles foram substituídos pelo Pen-Drives, que armazenam informações de forma mais segura (digital) e oferecem bem mais capacidade de armazenamento que um disquete.

Outros dispositivos de armazenamento digital são os cartões de memória (Comapct Flash, MMC, SD, Mini-SD...), CDs DVDs e atualmente o Blu-Ray.

domingo, 12 de julho de 2009

Processadores (Aula 6)

O processador pode ser considerado o “cérebro” de um computador, pois é ele que executa todas as instruções existentes nos programas. Apesar dessa “inteligência”, o processador também é “burro”, pois ele só faz o que nós mandamo-los fazer, através dos métodos de programação.


Clock


Para que o processador consiga trabalhar de forma organizada com os outros componentes de um PC, existe internamente no computador um sinal de controle que é obedecido por todos os outros elementos da máquina. Quando o processador precisa buscar informações na memória RAM, esta atende a solicitação obedecendo o clock do processador, ou seja, em cada ciclo de clock, um dado é enviado ou recebido. Assim, estabelece-se um padrão de comunicação entre os componentes. Este clock é medido em milhões de ciclos por segundo, ou MegaHertz(MHz).



Clock Interno


Geralmente a velocidade dos processadores é medida com base no seu clock interno, ou seja, com base na velocidade que o processador trabalha internamente. Por exemplo, quando dizemos que temos um Pentium II 400Mhz, estamos dizendo que em um segundo o processador gera 400 mil pulsos, sendo que em cada pulso um determinado número de informação é processada.


FSB (Front Side Bus)


Os outros periféricos do computador, como memórias e placas não acompanharam plenamente o desenvolvimento dos processadores. Até certo ponto, os processadores conseguiam trabalhar na mesma freqüência dos outros componentes. Porém chegou um momento que esses outros dispositivos tornaram-se lentos, se comparados aos processadores. Com isso se o processador, que trabalha internamente á uma velocidade elevada, tiver que acessar algum dado ou recurso dos outros dispositivos, ele tem que baixar a sua velocidade á uma velocidade compatível com tais componentes. Á essa velocidade externa do processador damos o nome de FSB (Front Side Bus) ou clock externo. Toda Placa-Mãe possui um FSB que determina a velocidade em que os seus dispositivos devem trabalhar.




Evolução dos Processadores


A evolução dos processadores pode ser medida com base na evolução dos processadores, que passaram de um simples chip com pouco poder de processamento á dispositivos altamente velozes e complexos.


O processo de evolução dos processadores se deu principalmente pelas mãos da Intel, empresa que desenvolveu o primeiro processador que se tem notícias e que continua atuando até a atualidade. Existem outras empresas que também desenvolvem processadores como a AMD e Ciryx, porém para entendermos o processo de evolução dos processadores temos que analisar-los com base nos desenvolvidos pela Intel.



Processadores Intel





4004


O primeiro processador ou micro-chip desenvolvido pela Intel foi o 4004 em 1971. O 4004 é considerado o primeiro processador já fabricado, ele era usado em calculadoras é tinha uma capacidade de processamento de 8 bits. Embora simples, o 4004 mostrou na prática o conceito de reunir vários componentes em um único chip, conceito esse, usado até hoje.




Processador 4004




8086/8088


Em 1978 foi lançado o 8086, primeiro processador de 16 bits da Intel a ser criado, e conseguia trabalhar a até 2 Mhz. Nesse mesmo ano, foi lançado o 8088, uma versão mais barata do 8086, e que trabalhava a 8 bits. Foi esse processador o escolhido pela IBM para integrar o seu primeiro computador pessoal, o IBM PC.





Processador 8088






Processador 286


Em 1982 foi lançado o 80286 (ou 286), esse sim, um processador de 16 bits. O 286 possui um conjunto de instruções diferentes do 8086/8088 e por isso eles são incompatíveis entre si. O processador 286 trabalha á uma freqüência de 6 á 25Mhz e possui dois modos de funcionamento, o modo real e o protegido. No modo real o 286 trabalha como um 8086 de 16 bits, com uma instrução específica, ele passa a trabalhar no modo protegido, acessando todas a suas instruções e recursos disponíveis. O 286 foi o processador usado no sucessor do IBM PC, o IBM PC AT.





Processador 286




Processador 386


Em 1985 surgiu o sucessor do 286, o 80386(ou 386). Esse processador foi o primeiro a trabalhar com instruções de 32 bits(o mesmo padrão usado hoje) e trabalhavam com freqüências de 12 á 40 Mhz. Foram desenvolvidas duas versões do 386: o 386SL(com instruções próprias para notebooks) e 386 SX(versão de baixo custo que trabalhava em 16 bits). Foi com 386 que nasceu também o conceito de memória cachê, que nesse caso, era um chip soldado á placa mãe.





Processador 386




Processador 486


O 486 foi lançado em 1987. Ele trabalhava á uma freqüência de 16 á 100Mhz também a 32 bits. O 486 foi o primeiro á trazer memória cache integrada no próprio chip do processador, memória essa de 8Kbytes. Ele trazia também(versão DX) um co-processador matemático integrado denominado FPU (Float Point Unit – Unidade de Ponto Flutuante). A partir do 486, os processadores começaram a trabalhar com a multiplicação de clock para poderem acessar os outros recursos da Placa-Mãe, visto que essa(e também os dispositivos) já não acompanhavam a freqüência do processador.




Processador 486



Família Pentium




Após o 486 a Intel parou de usar números e passou a usar nomes para batizar o seus processadores. Foi o que aconteceu com o Pentium, o sucessor do 486. Ele trabalhava com velocidades entre 60 e 300Mhz e possuía diversas modificações estruturais em relação ao seu antecessor. Entre essas modificações está o aumento do cache de 8 para 16 Kbytes e a possibilidade de executar 2 instruções simultaneamente.


Pouco tempo depois surgiu o Pentium MMX , que além de possuir um cache de 32Kbytes, trabalhava com a tecnologia MMX. Tal tecnologia permitia a execução de vários dados menores em um única instrução(processo bastante utilizado na área gráfica), porém para tirar proveito dessa tecnologia, os programas, também devem ser escritos com tecnologia MMX.


Por volta de 1995 foi lançado o Pentium Pro que trabalhava com taxas de 150 a 200Mhz, e foi quem ditou o padrão dos processadores surgidos depois dele. Além disso, ele também possuía um segundo cache (chamado L2) integrado ao chip.


Em 1997 é lançado o Pentium II com características semelhantes ao Pentium Pro e velocidade de 233 á 450Mhz. Uma novidade, foi que o cache L2(que era integrado ao chip) passou a vir soldado em uma placa junto ao processador, formando uma espécie de cartucho.


O Pentium III lançado em 1999 trabalha com velocidades de 450Mhz a 1.4 Ghz e é semelhante á um Pentium II. A diferença é que ele possui instruções com tecnologia SEE, tecnologia voltada para aplicações gráficas e 3D. A partir do Pentium III todos processadores Intel passaram avir com um número de série.


Os processadores Pentium 4 surgiram em meados dos anos 2000 com velocidades de 1.4 á 3.8 Ghz e versões de 32 bits e 64 bits. Uma novidade incluída no Pentium 4 foi a tecnologia HT(Hyper-threading), que simulava dois núcleos de processamento.


O Pentium 4 Extreme Edition foi desenvolvido visando o mercado de servidores de alto processamento. Já o Pentium D, foi o primeiro processador da Intel realmente considerado Dual Core, ou seja, com dois núcleos de processamento reais, diferente da tecnologia HT, que simulava tais núcleos.


Seguindo a linha de processadores com mais de um núcleo, a Intel lançou o Core 2 Duo (Versão aprimorada do Pentium D) e Quad Core(Com quatro núcleos de processamento).


O mais atual lançamento comercial da Intel é o Core i7. Este processador apresenta quatro núcleos e também a tecnologia HT o que teoricamente simularia oito processadores na máquina.


Celeron


A linha Celeron é a versão de baixo custo dos processadores Intel. Ele surgiu com versões que acompanham a tecnologia do Pentium II até o Pentium 4, sempre como uma alternativa para usuários que não necessitam de um alto poder computacional. Os processadores Celeron apresentam clock mais baixo e também uma quantidade menor (ou ausência) de memória cache.



Processadores Pentium






Processadores AMD





A empresa AMD é a principal concorrente da Intel no ramo de fabricação de processadores, porém ela só entrou realmente nessa disputa na época do Pentium.



Processador K5


O K5, 5k86 ou Krypton-5 foi p primeiro processador, fabricado com tecnologia própria, lançado pela AMD, porém não atingiu o sucesso desejado, pois era mais lento que os seus concorrentes Intel.




Processador K5





Processador K6


Sucessor do K5, o K6 possui um projeto completamente diferente do seu antecessor. Este sim um concorrente aos processadores Intel. A primeira versão do K-6 trabalhava á uma freqüência de 166 á 300Mhz ,era de 32 bits e possuía tecnologia MMX.Foram lançadas mais duas versões do K6, o K6-2 e K6-3, ambos com melhorias em relação ao primeiro.Entre essas melhorias, podemos destacar a tecnologia 3D Now!, que é um conjunto de instruções MMX voltadas para aplicações 3D.


Uma curiosidade em relação ao nome K5 e K6, é que o “K” vem de Krypton, uma referência a Kriptonita, que nas histórias em quadrinhos é o único elemento capaz de destruir o Super-Homem. O que de fato era a intenção da AMD, destruir a gigante Intel.




Processador K6 e K6-2





Processador Athlon


O Athlon foi o conceorrente direto do Pentium III, e em suas versões finais alcançava taxas de freqüência de 500Mhz á 2.3GHz. O seu sucessor foi o Athlon XP, versão melhorada do Athlon normal.


A AMD foi a primeira empresa á lançar um processador de 64 bits, o Athlon 64 e a sua versão de alto desempenho, o Athlon 64 FX.


O primeiro processador Dual-Core lançado, também foi da AMD, o Athlon 64 X2, lançado em 2005.





Processador Athlon 64 e Athlon 64 X2





Processador Duron/Semprom



A linha de processadores Duron pode ser comparada aos processadores Celeron. Eles são uma versão de baixo custo da AMD, e assim como os Celeron possuem restrições em comparação com seus “irmãos maiores” (Athlon).


Os processadores Sempron são a evolução dos Duron, porém também de baixo custo. Ele possui versões de 32 bits e também uma versão de 64 bits.




Processador Sempron e Duron









Cyrix




A Cyrix, que no começo fabricava co-processadores matemáticos, tentou entrar no mercado de processadores, porém não teve grande sucesso nem uma vida tão longa quanto os seus rivais (AMD e Intel).


Um dos primeiros processadores lançados por ela, foi o 6x86 que possui características semelhantes ao Pentium II da Intel. Uma versão do 6x86 com tecnologia MMX, foi lançada e batizada de 6x86 MMX ou 6x86 MII


Na tentativa de baratear os custos com processador e placa mãe, a Cyrix lançou um processador “super-integrado”, o Cyrix Media GX. Além de processador, o GX, fazia as vezes de chipset, pois trazia integrados controladores PCI de áudio e memória.


Quando a Cyrix foi comprada pela Via Technologies(fabricante de chipsets) deixou de ser uma empresa e virou uma marca. O Cyrix C3 foi o primeiro processador desenvolvido pela Via, e seu grande destaque é que vinha com tecnologia 3D Now!, a mesma usada pela AMD.




Processadores Cyrix




Soquetes de Processador




O que vai determinar qual processador você vai poder usar na sua máquina, é o soquete existente na placa-mãe. No começo os processadores compartilhavam um mesmo tipo de soquete, porém com o a evolução, as empresas começaram a desenvolver padrões de pingem diferentes para seus processadores, o que resultou em diferentes tipos de soquete para diferentes tipos de processadores.


Uma lista completa com diversos tipos de soquetes, e os respectivos processadores suportados, pode ser encontrada na apostila na página 64.





Gerações de Processadores


Á partir do 8086 até o mais atual, os processadores, principalmente da Intel, foram classificados em gerações, sendo que atualmente estamos na 7ª geração. Abaixo um gráfico com as gerações e seus respectivos processaores.