Ir para conteúdo
Faça parte da equipe! (2024) ×
Conheça nossa Beta Zone! Novas áreas a caminho! ×
  • Quem está por aqui   0 membros estão online

    • Nenhum usuário registrado visualizando esta página.

PC - Super Guia do Computador


Denke
 Compartilhar

Posts Recomendados

Trouxe para vocês, exatamente tudo sobre o Computador !

 

bannercronologia.jpg

 

Desde que um ser surgiu na natureza com a capacidade de raciocinar, a necessidade e a vontade de comunicar-se com os seus semelhantes existiu. As gravuras nas cavernas foram as primeiras tentativas. Depois vieram os hieróglifos gravados em peças planas de pedra. Outros, diretamente nas paredes de granito dos templos religiosos ou dos mausoléus.

Da necessidade de controlar os rebanhos, pastores gregos e egípcios inventaram um processo de contagem primitivo que se baseava na equivalência. Cada animal era equivalente a uma pedrinha que juntas representavam a soma. Assim, se tivesse uma pedrinha a mais era notada a falta de um animal, duas pedrinhas, dois animais e assim por diante. Era o início do primitivo processamento de dados do Homem.

 

 

 

550ac.gif

4000 AC à 800 DC

 

1801dc.gif

800 dc à 1850 DC

 

1914dc.gif

1880 dc à 1936 DC

 

1943dc.gif

1940 DC à 1950 DC

 

1953dc.gif

1950dc à 1960 DC

 

1969dc.gif

1960dc à 1970 DC

 

1973dc.gif

1970dc à 1980 DC

 

1984dc.gif

1980dc à 1990 DC

 

1993dc.gif

1990dc à 2004 DC

 

 

bannerenciclo.jpg

 

Agora vamos conheçer um pouco sobre ele.

 

basico.gif

:: Noções Básicas::

Ao contrário do que se possa supor, conhecer os mecanismos e funcionalidades de um computador pessoal não é exclusividade de técnicos ou iniciados: mesmo para uma pessoa que não tenha o hábito de ler revistas da área ou que não seja lá muito curioso nem paciente para "fuçar" na máquina, é perfeitamente possível ao menos conhecer alguns conceitos básicos de hardware, ou seja, a estrutura física do seu computador.

 

Lembre-se daquela cena, que já deve ter ocorrido com você ou com um amigo, e que provavelmente motivou você a pesquisar aqui: você chegou à loja para comprar uma placa de vídeo nova (a placa antiga era tão velha que rangia quando começava a funcionar), encontrou também um amável vendedor, que foi muito gentil ao mostrar to dos os componentes da loja, um por um. A coisa andava muito bem até o momento em que ele começou a perguntar sobre quadros por segundo, bits de cor e pixels. Você não sabia o que era isso -queria mesmo era uma placa de vídeo nova.

 

E foi o que você teve, bem embrulhada, em uma caixa grande, cheia de manuais... Valeu a pena ter pagado quase 500 reais afinal é uma placa de último tipo...

Mas deu tudo errado! Ao abrir o computador, você descobriu que sua placa não possuía aquele... como chama mesmo? Ah, slot AGP. É, assim fica difícil instalar o vídeo.

Para completar, a tentativa de instalar a placa naquele encaixe branco (na verdade, o slot PCI) no qual estava a placa de vídeo antiga talvez não tenha sido boa idéia... Mas, afinal de contas, como você poderia imaginar que o slot racharia e a placa teria alguns arranhões (coisa pouca) por conta de uma "forcinha"?

 

Vamos esquecer as lembranças tristes e aprender a não fazer mais confusões. Nesta primeira parte, faremos uma viagem pelo interior do computador, observando cada um dos seus componentes e suas funções, dando atenção especial ao chipset, o coração da placa-mãe.

 

:: Conheça os componentes do seu PC::

Para montar um computador ou fazer qualquer alteração naquele que você já tem, é importante conhecer bem seus componentes e como ele funciona. Muitos usuários iniciantes, quando o computador começa a ficar obsoleto, acabam comprando uma máquina nova e dão um jeito de se livrar da antiga (vendendo, trocando por outra, trucidando-a com um taco de beisebol). Só que, geralmente, o problema pode ser resolvido de forma mais sensata: em muitos casos, basta fazer o upgrade da memória RAM, do processador e, talvez, da placa-mãe.

"Processador? Memória de quê? Isso pra mim é grego!!!", é o que você pode estar pensando. Mas não precisa entrar em pânico; afinal é para isso que você tem este guia em mãos: para que todos esses nomes e termos passem a fazer parte do seu vocabulário. Neste capítulo, você verá quais são as peças que se encontram dentro da sua máquina e qual é a função de cada uma delas, além de, como identificá-Ias e comprá-Ias corretamente, aumentando a potência do seu computador. Depois dessa, você sairá falando grego fluentemente!

 

:: Dados::

Para entender melhor o que acontece no interior do computador, você deve saber primeiro o que é que ocorre para que todas as cores e objetos apareçam na tela. Tudo aquilo que você vê, na verdade, não passa de dados binários (zeros e uns), processados pelos vários componentes que se encontram dentro do gabinete.

Os dados são as informações que você guarda no seu micro. Existem duas formas diferentes de registrar dados: a forma analógica (uma música gravada em uma fita K-7 ou fita de vídeo VHS, por exemplo) e a forma digital. Os dados analógicos podem ser representados por meio de uma onda em um gráfico. O problema com esse formato de dados é que qualquer interferência externa pode causar alterações ou até mesmo apagar algo. Se o computador usasse dados analógicos, correríamos o risco de, ao salvar um documento do Word em uma pasta, fazer com que uma frase ou parágrafo inteiro de outro documento do Word, na mesma pasta, simplesmente desaparecesse.

Por isso o computador utiliza dados binários, registrando valores positivos e negativos, ou seja, os números O e 1. O número "181", por exemplo, pode ser representado digitalmente como "10110101". Qualquer arquivo salvo texto, imagem, sons - nada mais é do que uma seqüência de zeros e uns. Quanto maior for o tamanho do arquivo, maior será a seqüência de zeros e uns que o comporão, e são exatamente essas seqüências que serão processadas pelos componentes do seu computador. Por processar, leia-se transformar esses zeros e uns em imagens, letras e representações visuais que seus olhos entendam ao observar o monitor. Sem esse processamento de informações, tudo que você verá são aquelas pequenas chuvas de. algarismos na tela do computador, tal qual no filme Matrix (lembra?). E adivinha que algarismos seriam esses?

 

Cada algarismo dessa seqüência que compõe um dado é chamado de bit, abreviação de binary digit ou "dígito binário". Um conjunto de oito bits forma um byte, e um conjunto de 1.024 bytes forma um kiloByte ou Kbyte (o número 1.024 foi escolhido por ser a potência d~ 2 mais próxima de 1.000). A partir daí, a progressão segue baseada nesse número: 1.024 Kbytes formam um megabyte, 1.024 MB formam um gigabyte, 1.024 Gb formam um terabyte e 1.024 TB formam um petabyte. Isso quer dizer que um arquivo de Word, por exemplo, de 27 Kbytes (KB), tem 27.648 bytes ou 221.184 bits. Isso significa que ele tem uma seqüência de 221.184 zeros e uns a ser processada pelo computador, para que essa seqüência apareça na tela na forma da representação de uma folha de papel com um monte de caracteres escritos nela.

 

:: Processamento de Dados::

Não é à toa que o processador tem esse nome. É justamente ele o componente responsável por processar os dados de que acabamos de falar. Ou seja, "traduzir" aquele monte de uns e zeros de um arquivo em algo inteligível ao usuário. O processador trabalha com dois valores: a velocidade de processamento e a freqüência de operação (ou clock), a qual diz quantas operações podem ser feitas por segundo. A indicação dessas características vem apresentada no nome do processador. Por exemplo:

 

Processador 486 de 100MHz

-486: freqüência de operação

-100MHz: velocidade de processamento

A velocidade de processamento é medida em milhões de ciclos por segundo (MHz) , mas nem sempre uma velocidade alta garante bom desempenho. Um processador 486 de 100 MHz é muito inferior a um Pentium de 100 MHz, já que este tem uma freqüência de operação pelo menos duas vezes mais alta.

 

processor.jpg

 

A freqüência de operação dos processadores aumentou muito com a inclusão de dois elementos que, antigamente, eram encontrados na placa-mãe em separado, mas que agora já fazem parte da arquitetura dosprocessadores mais avançados. O primeiro deles é o co-processa- dor aritmético, uma espécie de processador auxiliar, muito encontrada em operações realizadas por programas de gráficos e responsável por calcular operações com resultados fracionários. O outro elemento é a memória cache, a memória na qual o processador procura as informações solicitadas com mais freqüência. A memória cache é dividida em L1, que sempre foi embutida no processador, e L2, que passou a ser embutida depois. Se a informação não estiver à mão em nenhuma dessas memórias, a resposta "Não" aparecerá de imediato na tela do computador, pois o processador terá de procurar a informação na memória RAM

 

:: A Base de Tudo::

barramentos.jpg

 

Portas

 

Todos os periféricos que você usa, tais como mouse, teclado e impressora, são conectados à placa-mãe por meio de portas - entradas de conexão específicas para cada tipo de periférico. Se você abrir sua máquina, vai reparar que existem cabos largos e finos, todos com uma ponta ligada aos slots da placa-mãe e outra ligada a uma espécie de "tomada fêmea", que fica do lado de fora da máquina, atrás do gabinete. É nessas "tomadas" que você liga seus periféricos como o teclado em uma porta serial, ou um mouse em uma porta paralela.

Apesar de ainda não estar totalmente popularizado, existe um padrão que ganha cada vez mais adeptos, chamado USB, que possui um barramento bem maior que os padrões atuais de portas. Com uma ou mais portas USB instaladas no computador, você pode plugar qualquer periférico compatível com esse padrão, com o computador ligado, sem problemas para que a máquina o reconheça e ofereça um desempenho superior.

 

:: Memória::

Para que o computador funcione cada vez mais rápido, o processador procura por informações que estejam sendo utilizadas dentro da memória RAM, uma pequena placa de circuito encaixada na placa-mãe. Nela, essas informações são gravadas temporariamente, sendo processadas de forma muito mais rápida do que no disco rígido. Trabalhando em conjunto com o processador, a velocidade de ambos os componentes deve coincidir.

As peças físicas da memória são normalmente chamadas de "pente de memória", pois as vias de acesso (aquelas pequenas barras de me- tal que se encontram na parte de baixo da memória, que entram no slot da placa-mãe) lembram os dentes de um pente. Quanto maior for a capacidade de armazenamento temporário dela, maior será a velocidade do computador. O mínimo de capacidade recomendada para! rodar os programas mais utilizados, como o sistema operacional, é 128 MB -dependendo do sistema operacional, ele sequer inicializa com uma quantidade inferior. O Windows XP por exemplo, já exige um mínimo de 128 MB para ser inicializado. Mas, se você tiver apenas esse mínimo de memória, todas as operações realizadas ficarão prejudicadas, pois só o sistema operacional usará todo o espaço da memória RAM para processar rapidamente as informações cruciais ao funcionamento do sistema. Já se você dobrar a capacidade da memória, instalando mais um pente de 128 MB (totalizando 256 MB), ou radicalizar, comprando dois pentes de 256 MB, o computador terá espaço de sobra para processar as informações do sistema operacional I e de outros programas que forem abertos. I

Hoje em dia, encontramos os tipos de memória PC-100 e PC-133 I MHz à venda no mercado para processadores pentium e semelhantes, I

além das poderosas memórias DDR e Rambus, cria.as para suportar o ritmo de trabalho de processadores poderosos como o Athlon e o Durou.

 

:: Gabinete::

Como você sabe, todos os componentes descritos acima ficam dentro de uma caixa metálica, chamada gabinete. Esse invólucro não serve só .para manter tudo organizado e protegido, como alguns imaginam. Uma das funções mais importantes do gabinete tem a ver com a refrigeração. Afinal, o trabalho dos componentes do computador gera muito calor e.. se não houver um sistema de refrigeração adequado, eles podem sofrer superaquecimento e pifar. Aí, você terá de desembolsar uma grana alta em peças sobressalentes, que vão pifar de novo em pouco tempo -sem falar no risco de perda de informações. Com o gabinete, os coolers fazem o ar circular dentro de um ambiente restrito sem ele o trabalho de ventilação não vai adiantar muito

Portanto, quando você for escolher um gabinete, observe duas coisas: o tamanho e o espaço interno. Como um apartamento, o gabinete precisa ter espaço suficiente para todos os seus "móveis", tais como as placas de vídeo e som, placa-mãe, HD e gravador de CD. Além do mais, um espaço extra é sempre bom para a ventilação.

É no gabinete também que se encontra a fonte de energia do computador. A potência das fontes varia de 300W a 450W. A escolha da potência certa da fonte depende da velocidade de processamento do computador, do número de acessórios instalados nele e da quantidade de energia elétrica que cada um consome. Atualmente, os gabinetes recomendados para compra são os ATX, pois, além de maiores, possuem uma fonte inteligente, com sistema de desligamento automático pelo sistema operacional da máquina.

Melhor opção, é quase certo que seja a única. uma vez que os antigos gabinetes AT não são mais fabricados.

E por fim. para quem se preocupa com o visual da máquina. também não faltam opções. Os gabinetes produzidos atualmente apresentam os designs mais variados. Só não se deixe levar pela beleza do gabinete sofisticado deixando de lado as características técnicas.

 

:: Os sentidos do seu computador::

Até aqui, falamos sobre como o computador processa as informações. Mas não basta o computador compreender esses dados: o usuário também precisa fazê-Io. Assim. depois de processadas, as informações devem ser convertidas em sinais que possam ser compreendidos pelos sentidos humanos, como interpretações gráficas no monitor. ou sons que possam ser ouvidos pelas caixas de som de sua máquina. Os componentes responsáveis por essa conversão são a placa de vídeo e a placa de som, ambas ligadas à placa-mãe.

 

motherboard.gif

 

:: Motherboard ::

A motherboard é, possivelmente, a mais importante peça de todo computador. É nela em que diferentes peças do computador são conectadas. Felizmente, devido ao nosso progresso tecnológico foi possivel manter o tamanho físico da motherboard o mesmo por 20 anos mesmo com nossos avanços significativos introduzidos no computador.

 

:: História da Motherboard ::

A primeira motherboard apareceu em um computador da IBM em 1982. O design que a IBM criou ainda é o que vemos nas placas mãe de hoje em dia – um número de portas e slots feitos para diferentes tipos de hardwares. Esse design mais tarde foi usado pela Apple no seu computador apple II. O apple II foi um que inovou quando o assunto era adicionar novos periféricos no computador com maior facilidade, e com isso o mercado de peças de computador foi aberto e assim podemos ter toda essa variedade nos dias de hoje.

 

:: Conheça a motherboard? ::

 

O chipset

 

O chipset é um chip de computador que fica na motherboard e ajuda outros dispositivos a executarem uma função especifica ou executa uma função no lugar do dispositivo. Existem chipsets que ajudam o processador em “dirigir o trafico” para os processos. Um chipset I/O (Entrada/Saída) manda e recebe informações do teclado, mouse, serial e saídas paralelas. E um chipset USB manda e recebe informações de uma USB.

 

1mother.jpg

 

SLOTS AGP, PCI e ISA

 

A motherboard tem uma imensa variedade de slots e portas para todo tipo de dispositivos . Os slots mais comuns são, o AGP, PCI e ISA (geralmente citados como slots de expansão). Esses slots são usados para permitir upgrade ou adicionar novos hardwares em seu computador. O slot ISA e PCI é na maioria das vezes para som, vídeo (sem uma boa aceleração 3d), rede e etc. já a slot AGP é para uma boa aceleração 3d de vídeo.

 

2mother.jpg

 

AGP ( Accelerated Graphics Port) Slot

 

O slot AGP foi criado para otimizar a performance das placa de video. A entrada AGP só pode ser usada por placas de video de aceleração 3d. Também aceita placas de vídeo

 

mas nem se comparam a aceleração de uma placa AGP. Existem diferentes velocidade que uma placa AGP pode alcançar, tudo depende qual a velocidade que a entrada AGP tem, existem 3 velocidade, 2X, 4X e 8X. Quando for comprar uma motherboard veja se ela consegue acompanhar a velocidade da placa de vídeo que você tem.

 

3mother.gif

 

PCI (Peripheral Component Interconnect) Slots

 

São geralmente para expansão. Esses slots são os mais usados e uma placa mãe sempre tem mais de 5 entradas PCI, algumas placas que são vendidas mais baratas geralmente aquelas combos com processador e motherboard

embutidas tem menos entradas PCI e as vezes nenhuma AGP, então antes de comprar uma boa placa mãe é sempre bom ver esse tipo de informação.

 

4mother.gif

 

ISA (Industry Standard Architecture) Slots

 

Os slots ISA são os que vieram antes dos slots PCI, mesmo assim ainda existem placas mãe que são fabricadas com esses slots. Ela é bem mais lenta que a entrada PCI mas como muita gente ainda tem placas com esse slots ainda fabricam, mas não como antes.

 

AMR (Áudio and Modem Riser) e CNR (Communication and Network Riser) Slots

 

Esses são dois tipo de slots de expansão que foram introduzidos a alguns anos. A grande vantagem desses slots, como podemos ver na foto é o seu tamanho, que é muito pequeno se comparado com qualquer tipo de slot.

A performance deles são um pouco insatisfatória e com isso eles não tiveram grande vendagem e nem se tornaram populares. A única vantagem seria o preço que é um pouco abaixo de um modem normal. Hoje em dia é difícil que fabricantes de motherboards façam suas placas com esse tipo de slot.

 

5mother.gif

 

A BIOS

 

O sistema básico de entrada e saída (BIOS – Basic Input/Output System) é uma parte muito importante do computador. Quando o computador é ligado, é o trabalho da BIOS de fazer todo hardware e software rodarem. A BIOS fornece as primeiras instruções para o computador ligar como:

 

- Efetuar a POST (Power-On Self Test) que testa se todo o hardware está funcionando.

- Ativa a placa de vídeo.

- Inicia um conjunto de instruções para que o sistema operacional (Windows, LINUX etc.) consiga se comunicar com os entradas e saídas como o mouse e o teclado.

- A BIOS também instrui o processador a executar comandos e configurações que você especificou na CMOS( Complementary Metal Oxide Semiconductor que poderá ser visto a seguir).

 

Quando o computador é ligado, ele mostrará vários textos descrevendo o hardware do computador, como a quantidade de RAM instalada, o tamanho do Hard Disk e etc. Esse é o BIOS trabalhando. Além de inicializar o vídeo ele procura por periféricos nas entradas PS/2 e USB para mouses e teclados. Se a BIOS encontra algum problema ele vai informar por uma seqüência de beeps ou então um código hexadecimal. E aquele beep inicial que escutamos é o beep para falar que está tudo okay.The CMOS.

 

 

CMOS

 

O CMOS (Complementary Metal Oxide Semiconductor) é uma ferramenta que configura a BIOS. Para acessar o CMOS(Conhecida também como SETUP) é necessário que se aperte alguma tecla, na maioria das vezes ou DEL ou F1 quando o computador esta sendo inicializado e o BIOS ainda está checando se está tudo okay com a máquina. Caso nenhuma das duas teclas funcione tente procurar no manual da motherboard a tecla correta.

 

Nas opções de CMOS existem várias opções que podem ser trocadas, desde a data e a hora, a seqüência de boot, opções de energia, configuração de drives, opção de memória, opção de segurança e muito mais. Essas opções são apenas trocadas se existe algum problema.

 

6mother.jpg

 

Se você sem querer muda as opções do CMOS e se enganou, existe uma opção para se voltar a configuração antiga ou a padrão dependendo da motherboard. Caso você coloque uma senha e não consegua mais lembrar é possível resetar a CMOS. A motherboard geralmente tem alguns jumpers que podem ser tirados para resetar o CMOS. Agora se sua motherboard não tem esses jumpers é possivel remover a bateria de CMOS por 15-20 minutos e assim mudar a senha, lembrando que resetara o CMOS e todas as configuração voltarão para padrão.

 

:: O que é HD?::

O Hard Disk, ou disco rígido, é um sistema de armazenamento de alta capacidade(que permite armazenar arquivos e programas). Ao contrário da memória RAM, os dados gravados não são perdidos quando se desliga o micro, assim, todos os dados e programas ficam gravados no disco rígido. Apesar de também ser uma mídia magnética, um HD é muito diferente de um disquete comum, ele é composto por vários discos empilhados que ficam entro de uma caixa hermeticamente lacrada, pois como gira a uma velocidade muito alta, qualquer partícula de poeira em contato com os discos, poderia inutilizá-los completamente. Por esse motivo, um disco rígido nunca deve ser aberto.

 

hd.jpg

 

:: Evolução do Hard Disk ::

A tecnologia de armazenamento de dados em discos magnéticos sofreu uma grande evolução desde o aparecimento do modelo Ramac 305 pela IBM, com capacidade de 5mb. E, por mais de 20 anos, as consideráveis inovações partiram quase que praticamente da IBM. No entanto, alguns fabricantes criaram produtos independentes das linhas IBM, como a Control Data, com a série SMD, a Amplex, a Calcomp e a CII-Honeywell Bull.

Historicamente os discos rígidos podem ser divididos em três gerações, conhecidas pelo número do produto IBM que lançou a tecnologia: 2314(início dos anos 60), 3330(fim dos anos 60 e início dos anos 70) e 3340 ou winchester(1973).

Essa denominação deve-se ao fato de a unidade de gravação ter originalmente dois módulos(em analogia com a arma de dois canos calibre 30/30).

No início dos anos 70, a tecnologia tinha chegado a alguns limites. A distância entre a cabeça de gravação/leitura e a superfície do disco(fator preponderante para se aumentar a densidade de gravação e, portanto, a relação capacidade/custos estava limitada a 0,78 um. Com a distância menor, uma pequena partícula de fumaça de cigarro, que é dez vezes superior a essa medida, poderia danificar a cabeça ou os dados gravados.

Em 1973, com a tecnologia Winchester, a IBM introduziu uma série de inovações que permitiram consideravelmente o número de "choques de cabeçote" (head crashes) e, por outro lado, aumentar as densidades de gravação tanto de trilhas como de bits. Isso foi conseguido com aperfeiçoamentos nas tecnologias de cabeças de leitura/gravação, no mecanismo de posicionamento das cabeças e na diminuição da espessura da camada magnetizável do disco. Além disso, o disco, a cabeça e o mecanismo de posicionamento e o eixo motor do disco passaram a ficar em ambiente hermeticamente fechado. A tecnologia Winchester, inicialmente, só estava disponível para os grandes sistemas. Mas, em 1978, a IBM anunciou uma unidade de 8 polegadas para sistemas de pequeno porte.

Novos aperfeiçoamentos introduzidos pela IBM em seus sistemas de discos aumentaram ainda mais a densidade de gravação. As séries 3370 e 3380 (lançadas, respectivamente, em 1979 e 1981) utilizavam a tecnologia de cabeça de filme fino (thin film head). Feitas por métodos semelhantes aos usados na fabricação de semicondutores, as cabeças de filme fino permitiam registrar informações a uma densidade de 25 mil bits por polegada ( quatro vezes mais que o disco SMD da Control Data), trabalhando sobre um suporte magnético adaptado. Além da IBM, outros fabricantes como a Ampex, a C II - Honey Bull e Applied Magnetics Corporation desenvolveram cabeças com essa tecnologia.

O aumento da densidade de informações para 25 mil bits por polegada não poderia existir sem uma evolução nos suportes magnéticos. Em 1982, era lançada uma nova geração de mídias que substituía o prato de alumínio com óxido férirco por um disco coberto por uma camada metálica de cobalto ou cromo.

 

1980 Produzido pela Seagate Technology, o primeiro Hard Disk Drive para microcomputadores armazenava 5 Megabytes de dados, muito mais que os discos flexíveis da época.

 

:: Como funciona o HD?::

Cada operação de disco para ler ou gravar um arquivo aciona uma sequência enorme de movimentos - que devem ser executados com precisão microscópica pelas cabeças de leitura /gravação. Os ajustes de um disco rígido obedecem a uma exatidão íncrivel para a unidade poder desempenhar sua tarefa sem danos. Diferente de quaisquer componentes do PC que obedecem os comandos do programa sem reclamar, a Unidade de disco Rígido é tida como um dos poucos componentes nos computadores pessoais que é tanto mecânico quanto eletrônico

 

:: Glossário do Hard Disk ::

Cabeças de Válvula Giratória: (Spin Valve Head). Tecnologia de cabeças de leitura e gravação de HD ainda em desenvolvimento (agosto/98), que utiliza o efeito GMR (Giant Magneto Resistive).

Cabeças Indutivas: Tecnologia já ultrapassada, onde utilizava-se cabeças de leitura e gravação em HD do tipo indutivas, ou seja, para gravação a cabeça induzia um campo magnético que orientava as moléculas do disco e para leitura, o campo magnético do disco induzia uma corrente na cabeça do HD.

 

Cabeças Magneto-Resistivas: Tecnologia atual (agosto/98) utilizada nas cabeças de leitura e gravação de HDs. A magneto-resistência é a propriedade pela qual a resistência de um material à eletricidade muda em um campo magnético.

 

Cluster: Corresponde ao menor tamanho de arquivo que é possível gravar num disco. Ou seja, se o cluster mede 32 KB, qualquer arquivo menor que esse número ocupa, obrigatoriamente, um espaço de 32 KB. A capacidade do cluster varia.

 

Desfragmentação: Processo que consiste em rearranjar os arquivos gravados num disco de tal modo que cada um deles ocupe áreas contínuas. Diferentemente das faixas de um disco musical, os arquivos num winchester ou disquete podem estar fragmentadas em muitos pedaços. Um nível de fragmentação muito alto compromete o desempenho do sistema, já que a cabeça de leitura do disco precisa movimentar-se mais para encontrar as informações espalhadas.

 

FAT: File Allocation Table, ou Tabela de Alocação de Arquivos. Trata-se de uma lista mantida pelo sistema operacional para controle das áreas livres e ocupadas num disco. Usamos hoje a chmada FAT-16 que será substituída pela FAT-32 dos sistema Windows 98.

 

IDE: Integrated Devide Eletronics. Um tipo de interface de unidades de disco no qual os cirucuitos eletrônicos da controladora resedem na própria unidade, eliminando a necessidade de uma placa adaptadora separada.

 

Partição: Porção de um disco rígido tratada como se fosse uma unidade independente. Um disco C, de 1,2 GB, pode ser redefinido para três partições de 400 MB cada, correspondetes às unidades C, D e E. Com o utilitário Fdisk, do DOS e do Windows, a redivisão do disco em partições (em número ou em tamanho) implica a perda de todos os dados já gravados. Já existem no mercado produtos que fazem essa operação sem afetar os arquivos existentes.

 

ScanDisk: Utilitário que detecta erros em arquivos gravados. Um deles ocorre, por exemplo, quando pedaços de arquivos ficam órfãos, desgarrados do bloco a que pertencem.

 

memoria.gif

 

:: História da Primeira Memória ::

O UNIVAC dos anos 50 foi uma super máquina com alta tecnologia. Não usava mais grandes válvulas, mas várias pilhas de cartões de memória em módulos e formava uma memória de ferrite. Cada memória tinha pequenos fios entrelaçados com pequenas “rosquinhas” magnéticas onde os fios se entrelaçavam. . No meio, pequenos fios brilhantes de cobre, a pequena “rosca” era magnetizada de um modo ou de outro, deste modo, sinalizando “on” ou “off” ou 0 e 1 nos números binários que os computadores necessitam para se entender com a memória.

 

corememo1.jpg

 

__

 

Em cada memória, havia 1024 dessas “rosquinhas” magnéticas. Cada uma representava um bit de informação. Essa foi literalmente a última vez que poderia se observar a localização de um bit na informação binária, isto porque um pouco depois circuitos integrados fizeram essa linda estrutura desnecessária e uma tecnologia obsoleta. Hoje em dia milhões de bits de informação em um pequeno chip. O UNIVAC tinha 8 níveis juntos dentro de um stack, um tipo de stack de memória, onde se encaixa as memórias

 

corememo2.jpg

 

__

 

Cada um desses stacks eram feitos a mão e custavam em torno de $6000 doláres por nível nos anos cinqüenta. As memórias de ferrite consistiam nas pequenas rosquinhas magnéticas (1024 nesse caso). Cada rosquinha, segura um BIT. A polaridade magnética da memória de ferrite é segura o valor do BIT. Para gravar um BIT, existe um X e Y no fio. Para ler um bit existe um fio sensor. O sistema de leitura consiste em gravar valores em uma especifica parte da memória de ferrite (Indexada via o fios X e Y). Se a memória de ferrite mudar a polaridade magnética, o sensor detectar isso, e então o computador vai saber que a polaridade é inversa. Se o sensor não detectar a mudança, então o valor do bit era o mesmo que estava antes.

 

corememo3.jpg

 

__

 

corememo5.jpg

Um RACK com memórias de ferrite

 

corememo6.jpg

Direito as "rosquinhas" da memória

 

 

:: O Primeiro Chip DRAM ::

 

memointel.jpg

 

Em 1970, a recém criada INTEL publicou o lançamento do 1103, o primeiro chip DRAM (Dynamic Random Access Memory) chip (1k PMOS dynamic RAM ICs), e em 1972 já era o melhor chip de memória semicondutor no mundo, acabando com a memória de ferrite. O primeiro computador disponível usando o 1103 foi o HP 9800.

Dr. Robert H. Dennard, um funcionário da IBM no Centro de Pesquisa Thomas J. Watson criou a DRAM com um transistor em 1966. Dennard e seu time estavam trabalhando com circuitos integrados, e o interesse por memórias ocorreu quando estava vendo outro grupo de pesquisadores trabalhando em memórias magnéticas . Dennard então foi para casa e em algumas horas já sabia as idéias básicas de como se criar uma DRAM. Ele trabalhou suas idéias em cima de uma simples memória cell que usava apenas um transistor e um pequeno capacitor. A IBM e Dennard patentearam a DRAM em 1968.

 

RAM ficou como uma memória de acesso aleatória, memória que pode ser acessada ou escrita diretamente em um endereco qualquer dela, sem necessitar fazer um acesso sequencial. Existem dois tipos de memória RAM, a RAM dinâmica (DRAM) e a RAM Estática. DRAM precisa ser atualizada milhares de vezes por segundo. A SRAM não precisa ser atualizada, o que faz ela mais rápida.

 

Os dois tipos de RAM são voláteis – elas perdem seus conteúdos quando a energia é desligada. Em 1970, a Corporação FairChild inventou o primeiro chip de memória SRAM de 256-k. Recentemente, vários novos tipos de memórias são criados.

 

roberthdennard.jpg

 

Naquela época, a INTEL, não estava tão preocupada em patentear ou inventar novas produtos, ela estava mais preocupada em lançar produtos e ganhar mais dinheiro.

 

Aproximadamente, em 1969, William Regitz da Honeywell pesquisou minuciosamente as companhias nos EUA, procurando alguma para ser parceira no desenvolvimento da memória dinâmica baseado no

 

transistor novel 3 que ele (ou um de seus empregados) tinham inventado.

Regitz havia falado com muitas companhias, mas foi a INTEL que realmente ficou animada na possibilidade de ganhar o dinheiro que era seu real objetivo naquela época,e então fez a parceria com Regitz e seu time. Além disso, considerando que Regitz propôs que o chip fosse de 512-bit, mas a intel havia decidido que um chip de 1,024 bits era possível de ser criado, e então o programa começou. Joel Karp da INTEL foi o projetista de circuitos, e ele trabalhou com Regitz o tempo todo até o fim do projeto. Em 1970

INTEL aprendeu algumas lições quando terminou o i1102 como:

 

1 – A posição nas DRAM precisam de substratos nos circuitos.

2 – Os contatos estavam ruins e assim tinham uma baixa performance.

3- A “IVG” tinha uma pequena margem de operação.

 

Embora eles continuassem no desenvolvimento do i1120, era preciso analisar outras técnicas de células. Ted Hoff havia proposto um jeito de resolver esses problemas e muitos outros como Leslie Vadasz, Tom Rowe resolveram esses problemas.

Bem é dificil fazer essa longa história curta, mas os primeiros chips i1103 eram praticamente de enfeite, até a descoberta que o ovelap entre o “PRECH” clock e o “CENABLE” clock, o famoso, “TOV” parâmetro, era de muito difícil entendimento para todos. Essa foi uma descoberta feita pelo engenheiro de testes George Staudacher. Contudo, entendendo essa fraquezas que foi possível fazer cada vez melhor o serviço.

E então em outubro de 1970 o i1103 estava pronto, mesmo que alguns de seus projetistas alertarem que ainda não estava pronta para o mercado.

 

Após a introdução do produto no mercado, a demanda era grande, e o trabalho da Intel ainda era fazer algo melhor. Essa foi a história de como o i1103 foi introduzido no mercado.

 

:: Como a RAM e ROM Funcionam ::

 

A memória RAM (Random Acess Memory), funciona guardando apenas os dados que se está usando. O hard drive guarda dados quando não estão em uso. Se computadores não usassem a RAM e usassem apenas o hard drive, tudo operaria lentamente. Se você pensar a memória é muito importante em nossas vidas, ela está em todos os lugares, um número armazenado na calculadora (um exemplo de uso da RAM) até quando um microondas precisa saber quanto tempo é preciso que ele fique ligado para a pipoca ficar pronta. (exemplo de uso da ROM)

 

ROM

 

O nome ROM vem de Read-Only Memory, o que significa memória apenas de leitura e não pode ser escrita. A ROM é usada em situações onde os dados precisam ser guardados permanentemente. Isso se deve ao fato da memória não ser volátil, ou seja, o conteúdo nao se perde ao se desenergizar o computador. A BIOS de um computador é gravada de fábrica dentro de uma ROM

memonova.gif

Existem diferentes tipos de ROM

 

- Programmable ROM (PROM)

 

Basicamente isso é um chip de ROM em branco que pode ser escrito uma vez. Se for fazer uma analogia, essa ROM seria um CD-R que pode ser escrito apenas uma vez. Algumas companhias usam máquinas especiais para gravar em PROMs para casos especiais.

 

- Erasable Programmable ROM (EPROM)

 

É muito parecida com PROM exceto pelo fato de se poder apagar a ROM usando uma luz ultra-violeta dentro de um sensor da própria ROM por um certo tempo. Fazendo isso os dados são apagados e pode-se escrever novamente na ROM.

 

- Electrically Erasable Programmable ROM (EEPROM)

 

Também chamada de Flash BIOS, essa ROM pode ser re-gravada com o uso de um software especial. A Flash BIOS opera dessa maneira, assim o usuário pode atualizar a BIOS.

 

RAM

 

Random Access Memory (RAM) é o que a maioria das pessoas pensam quando escutam a palavra memória associada aos computadores. É uma memória volátil, quer dizer que quando o computador é desligado todos os dados são perdidos. A RAM é usada para armazenar dados temporários de um programa, e assim a performance é ideal.

 

Como a ROM, existes diferentes tipos de RAM:

 

- Static RAM (SRAM)

 

Essa RAM vai manter os dados enquanto a energia é provida para a memória. . A SRAM é muito rápida, não possui muito espaco como uma DRAM e é muito cara.

 

-Dynamic RAM (DRAM)

 

DRAM, diferente da SRAM, precisa ser continuamente controlada ( refresh cicle) pelo processador de forma automática para manter os dados fixos. A DRAM é usada na maioria dos sistemas atuais porque é pode ser de grande capacidade e mais barata.

 

Como a RAM Funciona

 

O CPU tem um tamanho de BITS, a maioria hoje tem 32-bit ou 64-bit ( A maioria usa 32-bit). O processador é capaz de executar vários cálculos ao mesmo tempo. O problema é fazer a memória rápida como o processador.

 

A velocidade que a RAM opera é controlada por duas coisas: a velocidade do barramento (BUS) e a largura do barramento (BUS WIDTH) . A velocidade do barramento é número de vezes que um certo número de bits pode transitar a cada segundo.

A largura do barramento é o número de bits que pode ser enviado para o processador ao mesmo tempo.

 

Algumas das técnicas que são usadas no processador para aumentar a sua eficiência também são usadas nas memórias. Uma delas é chamada de Burst Mode. No Burst Mode, o computador antecipa o que o processador vai precisar de memória e então manda antes para não ter problemas.

 

Memória Cachê

 

Apesar dos avanços da memória, ainda demorava muito para os dados irem da memória para o processador. A memória cache foi projetada para acumular momentaneamente os dados a serem enviado do ou para o processador e seus perifricos. Existem dois tipos de cachê, nível um e dois. Nível um está dentro do próprio chip do processador. O nível dois pode estar na própria motherboard ou no processado

 

__

 

Diferentes tipos de memória

 

Existem 3 tipos usuais de memória RAM para computadores: SDRAM, DDR e RDRAM.

 

memo1.gif

 

SDRAM (Synchronous Dynamic Random Acess Memory) podem rodar nas velocidades de 66, 100 e 133MHz. Porém quando a Intel decidiu projetar a SDRAM padrão que operaria a 100MHz ou/e 133MHz, eles tiveram o maior cuidado para não ter problemas de compatibilidade. Existe mais ou menos 10% de ganho de performance global no computador,entre a SDRAM operando em 66MHz e uma que opera a 100MHz.

 

__

 

DDR RAM (Dynamic Data Rate Random Acess Memory), originalmente chamada de SDRAM II foi originalmente usada em placas de vídeo , e depois começou a ser usada como memória de computador. DDR RAM tem muitas similaridades com a SDRAM exceto que podem transferir o dobro de informação que uma SDRAM padrão. DDR RAM preciso apenas de 2.5 volts ao invés de 3.3 volts que é uma grande melhoria para os laptops.

Infelizmente, para confundir tudo, o método de dar nome para DDR RAM foi confuso. Quando a DDR RAM foi lançada, “200MHz” (Isso seria um número fictício, porque na verdade a DDR rodava a 100MHz, mas ela era capaz de fazer o trabalho em dobro então chamaram de 200MHz) DDR RAM também foi chamada de DDR200. Entretanto, quando RDRAM foi lançada com nomes como PC800 que soava muito mais rápida que a DDR200, (Mas na realidade não era) novos nomes foram usados como PC1600 (DDR200) ou PC2100 (DDR266)/

 

memo2.gif

 

__

 

RDRAM (Rambus Dynamic Random Acess Memory) é uma memória que compete com a DDR. RDRAM é usado com quase todos os processadores da Intel (Pentium III e 4) mas DDR RAM também está sendo usada por esses processadores. RDRAM necessita de menos energia que a DDR RAM mas gera muito mais aquecimento e por isso precisa de um dissipador. RDRAM é quase igual uma DDR (Algumas vezes mais rápida) mas é bem mais cara e a dificuldade de instalar é maior.

 

memo3.gif

 

 

video.gif

 

:: Introdução ::

A placa de vídeo é uma das partes mais importantes do computador. No passado, as placas de vídeo não eram tão importantes porque os gráficos eram relativamente simples. Agora com o advento dos games em 3D, e com softwares que necessitam de milhões de cores para serem eficientes, placas de vídeo com boa performance são essenciais para a operação dos computadores.

 

__

 

Resoluções

 

Se olharmos o monitor ligado bem de perto,veremos milhares de pequenos pontos acesos. Esses pontos são chamados de pixels. A resolução é o número de pixels na horizontal versus o número de pixels na vertical. A maioria dos computadores rodam na resolução de 1024 por 768 pixels

(geralmente escritos como 1024x768). Aumentando o número de pixels, a qualidade da imagem cresce muito, isso porque quanto mais pixelsmais detalhes podem ser mostrados.

 

video0.gif

 

Cada pixel pode ter uma cor diferente, e com isso a placa de vídeo quando muda a cor de cada pixel pode desenhar imagens complexas. Nos computadores de hoje em dia, é possível que um pixel consiga mudar para 32 milhões de cores diferentes. O número de cores que um pixel consegue mostrar é chamado de color depth. Os color depths mais comuns são 16, 256, 16 milhões e 32 milhões de cores.

 

:: Como funciona? ::

A placa de vídeo é como um pequeno computador com sua própria memória, processador e BIOS. As placas mais antigas não tinham seus próprios processadores ou memória, e isso era normal porque os gráficos eram realmente simples. Os gráficos de hoje em dia são muito realísticos e necessitam de muita performance do hardware. Se o processador do computador e a memória fossem responsáveis pelos gráficos e por tudo se passa no computador a performance seria horrível. Tendo um processador e uma memória na placa de vídeo, dedicada totalmente para vídeo, é melhor porque o processador da máquina e a memória pode trabalhar em outros cálculos. Normalmente o CPU recebe todas as instruções do software e então passa para o processador da placa de vídeo tudo relacionado a gráficos. Uma vez que o processador termina os cálculos, ele manda a imagem para a memória onde a informação está guardada e manda para a interface vídeo. Quando já está na interface de vídeo, a informação é convertida em um sinal que o monitor pode entender. E então a informação aparece na tela do computador.

 

Nota: O número de vezes que a placa de vídeo manda informação para o monitor é chamado de Frame Rate e pode ser diferente dependendo da complexidade da imagem.

 

:: História das placas aceleradoras ::

Quando a 3dfx lançou a sua primeira placa em outubro de 1996, o mundo dos computadores se abalou, era uma nova tecnologia que iria mudar drasticamente o modo de ser fazer placas de vídeo e computadores. O nome da placa era Voodoo. Essa nova placa de vídeo abriu as

portas para os que desenvolviam games no mundo

, acelerando os gráficos em 3d como nunca havia se visto. A Voodoo não era apenas usada para jogos 3d, ela também servia para jogar jogos 2d. Alguns meses depois uma nova placa foi lançada, a Voodoo Rush, que combinava funções 3d e 2d em apenas uma placa. Mas isso fazia com que ela rodasse muito lentamente se comparada com a Voodoo. Foi essa combinação de 3d com 2d que fez com que a comunidade taxassem a Voodoo Rush como um fracasso total.

 

video1.gif

 

Como em toda corrida precisa-se ter competidores. ATI e a NVIDIA logo entraram nessa corrida um pouco depois que a 3dfx lançou sua primeira placa. A ATI tinha a linha Rage, e a NVIDIA fabricou a Riva 128. Mas com o tempo a gigante 3dfx foi retirada dessa corrida por essas duas grandes fabricantes de placas aceleradoras. Mas antes de “morrer” a 3dfx lançou

algumas placas clássicas como a Voodoo2 em março de 1998. Era de longe a melhor placa já lançada com 90Mhz de clock e 12 mega de vídeo. A Voodoo 2 tinha capacidade de produzir resoluções de 1024 x 768. Logo depois lançaram a Voodoo Banshee que como a Vooodoo Rush foi um fracasso.

 

video2.gif

 

Em março de 1999, a 3dfx lançou a Voodoo3. Dessa vez, ela tinha vários modelos diferentes para cada tipo de consumidor (Parece familiar como nos dias de hoje?). A Voodoo3 2000 era a mais simples das Voodoo3, não que seja ruim mas era para pessoas que não necessitavam de grande performance nos gráficos 3d. tinha velocidade de 143MHz. Outro lançamento era a Voodoo3 3000, que oferecia uma velocidade de clock

e 166Mhz. E no topo estava a Voodoo3 3500, que tinha

saída de TV,(podendo assim ligar na Televisão) e uma velocidade de clock de 183MHz. Todas essas placas eram oferecidas em versões PCI ou AGP.

 

video3.gif

 

Essa corrida entre empresas fez com que mais e mais placas boas saíssem no mercado e tornando tudo isso gigantesco e mais acessível para todos. A NVIDIA lançou uma placa no mesmo tempo que a 3dfx havia lançado a Voodoo3, e chamava-se TNT 2. A TNT2 era a sucessora da TNT, a número 2 saltou de 8 milhões de transistores para 10.5 milhões, um grande salto complexidade. E também suportava 32-bit de vídeo (32

milhões de cores). A Voodoo3 não era tão inferior, mas a TNT2 tinha bem mais qualidade visual, então as pessoas começaram a ver a competitividade entre as marcas. Isso ainda não havia matado a 3dfx, mas deixou eles sabendo que se não lançassem algo novo e bom em breve poderiam perder o reinado. ATI, uma das mais brilhantes (para não dizer sortudas) das 3 companhias foi capaz de sentar no e assistir de camarote a batalha entre NVIDIA e a 3dfx. A ATI continuou lançando novas placas – não eram espetaculares, mas isso não quer dizer que eram horríveis. Essas placas fizeram que ainda continuassem na corrida. A estratégia da ATI era esperar a hora certa para estourar, e isso não demorou muito para acontecer.

 

video4.gif

 

Em outubro de 1999, NVIDIA deu o golpe fatal na a 3dfx com o lançamento da Geforce 256. A 3dfx não tinha nenhum lançamento previsto que poderia combater a nova placa da NVIDIA de imediato, e com isso foi um golpe praticamente fatal. A revolucionaria Geforce 256 inovou mais uma vez, com 120Mhz, Suporte a DDR RAM. A 3dfx tinha duas placas que eram até melhores que a Geforce 256, o problema foi que lançaram elas atrasadas, a Voodoo4 e 5, alguns fanáticos pela 3dfx gostaram, só que o resto do mercado acharam ultrapassadas para época que foram lançadas. A partir daí a estratégia de fazer placas novas se resumiu em aumentar mais GPUs nos modelos novos. Com isso as placas se tornavam muito maiores e muito mais caras. A Voodoo 5 foi o último lançamento da 3dfx, na verdade era a Voodoo 5 6000, que mal foi lançada, e foi uma das maiores placas aceleradoras já criadas, com 4 GPU’s gigantes, e 128 MB de memória. Essa placa foi mais usadas por pessoas que desenvolviam games e arte em 3d, não foi muito para o mercado normal.

 

video5.gif

 

Não precisamos dizer, que a 3dfx foi derrotada quando lançou a Voodoo5 6000 e assim ficando fora da corrida que segue até hoje no mundo das placas aceleradoras. Mas eles ainda tinham uma carta na manga chamada Rampage. Rampage era um maravilhoso chipset que poderia levar a 3dfx continuar na corrida, mas essa tecnologia foi vendida para NVIDIA em dezembro de 2000. Isso significava que a NVIDIA tinha em suas mãos o projeto da Rampage, e existem rumores que a tecnologia Rampage foi usada na sua NV30 (Geforce FX).

A ATI ainda estava tentando “correr” nessa competição, e lançou uma placa chamada Rage Fury MAXX. Como as placas 3dfx daquela época ela usava múltiplos GPUs. Usando dois processadores Rage Pro na paralela, a placa na época tinha um preço muito salgado. Mas mesmo assim a placa mal conseguiu bater as TNT2, para não dizer da Geforce. O sucessor da Geforce 256 foi lançado pela NVIDIA, a Gforce 2 GTS. A GTS era mais que uma versão overclock da Geforce 256, ela dobrou o rate de preencher os pixels. Surpreendentemente, quando a Geforce2 GTS estava começando a chegar nas lojas, a NVIDIA lançou a Geforce 2 MX. Essa placa fez rate de preenchimento de pixel descer para 350 megapixels por segundo – uma mudança que era grande demais. Porém, dois novos recursos foram adicionados na Geforce 2 MX para diminuir perdas de performance. Um desses recursos foi o Twinview onde era possível usar dois monitores. E o mais importante da Geforce 2 MX foi adicionar essas placas para Apple Macintosh. E depois o Macintosh começou usar as placas da NVIDIA e assim aumentando a popularidade, bolso e tudo mais da NVIDIA.

E como a 3dfx havia sido eliminada da corrida só sobraram a ATI e a NVIDIA que continuaram sem parar a guerra entre placas de vídeo, um lançamento atrás do outro. As placas lançadas durante esse período eram significantemente mais rápidas que seus antecessores. Os gamers não esperavam mais nada de realmente bom até que a NVIDIA anunciou seu “Cinematic Gaming Experience” que viria com sua próxima geração de placas aceleradoras. Durante esse tempo a NVIDIA estava ocupada com o XBOX, que sem sombra de dúvidas influenciou a direção de projetos de novos chipsets, com o codinome de NV30.

 

video6.gif

 

A NV30 tinha 128MB de memória DDR2 e 13- mícron Chip Design, antes da .15 micron chip design que a ATI usou na sua 9700.

A ATI, começou a ser os competidores que eles realmente são, responderam com a Radeon 9700 Pro na mesma época que a NVIDIA lançou a séria FX de placas aceleradoras. Quando a nova Radeon chegou as lojas, as pessoas ficaram abaladas – era a melhor placa que já havia chego no mercado por um bom tempo. Ai você poderia se perguntar, mas não era a GeforceFX a melhor de sua época? Bem a ATI conseguiu superar a Gforce FX com esse super lançamento

ATI teve uma ascensão com o lançamento da 9700, e isso se estendeu com o lançamento da 9800. Até hoje a ATI é considerada como a fabricante das melhores placas de aceleração para computadores, mas a briga continua até hoje e a NVIDIA não fica para trás. Esse jogo pode virar a qualquer momento. Realmente o futuro é incerto, em uma corrida sempre existe um vencedor, e as vezes a corrida dura muitos anos, décadas?

 

processador.gif

 

:: Introdução ::

Todo computador, sem exceção, grande ou pequeno,possui pelo menos um processador. Existem centenas de processadores, cada um projetado para diferentes tarefas, e todos tem vantagens e desvantagens. Apesar da grande variedade de processadores, todos trabalham do mesmo jeito. Veremos tudo sobre processadores, como funcionam, a história de alguns processadores que são considerados os percursores dos processadores que temos hoje.

 

processor1.jpg

 

:: Como Funciona::

Baseado no conjunto de instruções que um processador passa para o software, existem 3 coisas que ele pode fazer:

 

- Executar cálculos e operações lógicas,algebricas e matemáticas

 

- Tomar decisões

 

- Executar novas instruções baseadas no veredicto da decisão

 

Essas três coisas fazem com que a memória se movam de uma localização para outra.

O processador olha para a RAM (Random Access Memory) e a ROM (Read Only Memory) para seguir instruções. Porém, quando o computador dá o boot, ele usa apenas a ROM (a BIOS). Computadores precisam da RAM e da ROM para funcionar corretamente. Como dados não podem ser escritos na ROM, a RAM é necessária para escrever informação. Mas no entanto, os dados na RAM são perdidos quando não se tem energia, então a ROM que guarda os dados quando o computador está desligado.

Existem muitas linguagens de programação, as mais conhecidas são C e Visual Basic. Toda vez que um programador quer executar um programa que ele tenha criado, é necessário que ele compile o programa. A ação de compilar um programa é fazer com que o processador possa entender. – Assembly.

Pegue esse simples programa em C como exemplo ( Não se preocupe em entender a programação):

 

0 a=1;

1 b=1;

2 while (a <= 5)

3 {

4 b = b * a;

5 a = a + 1;

6 }

No programa existe duas variáveis, A e B, A tem um valor inicial de 1 e o b também. O programa faz com que enquanto A é menor ou igual a 5, B irá multiplicar A e A ficara A+1. Esses detalhes não são importantes. O que é importante é o que acontece depois, como o compilador muda o código.

 

0 CONB 1 // a=1;

1 SAVEB 128

2 CONB 1 // b=1;

3 SAVEB 129

4 LOADA 128 // if a > 5 the jump to 17

5 CONB 5

6 COM

7 JG 17

8 LOADA 129 // b=b*a;

9 LOADB 128

10 MUL

11 SAVEC 129

12 LOADA 128 // a=a+1;

13 CONB 1

14 ADD

15 SAVEC 128

16 JUMP 4 // loop back to if

17 STOP

 

Perceba como está agora, tudo consiste em instruções simples como LOAD, SAVE, JUMP etc. e como ele cresceu de tamanho para 17 linhas. Quando a conversão de assembly para binário, o nosso programa em C cresce 31 linhas.

Todas as 31 linhas de nosso programa de 6 linhas agora podem ser enviadas para o processador. A velocidade que o processador pode entender o nosso programa e computador os resultados chama-se ciclo de clock, ou clock clycle e é medido pelos Megahertz ou Gigahertz. Em cada ciclo de clock, o processador é capaz de fazer uma ação. O mais complicado do programa é, quanto de ciclos de clock irá precisar. É por isso que um processador de 1.5 GHz é mais rápido que um de 1GHz, o de 1.5 é capaz de realizar mais ciclos de clock em menos tempo. O processador também tem uma função chamada bit size. O bit size diz para o processador quantos bytes (Ou bits) o processador pode ler da RAM ao mesmo tempo. Um processador de 32-bit é capaz de receber 4 bytes de cada vez. Um processador de 933MHz (933 milhões de ciclos de clock por segundo) 32-bit pode computar 29,856,000,000 bits por segundo ou 3,732,000,000 bytes por segundo.

 

Transistores nos processadores

 

encipro.php

 

Nota: MIPS é quantos milhões de operações por segundo o processador é capaz de fazer.

 

O número de transistores em um processador afeta diretamente na velocidade e eficiência do mesmo. Com mais transistores, é possível fazer uma tecnologia que se chama pipelining. Enquanto apenas uma instrução pode ser processada por ciclo de clock, a tecnologia pipelining autoriza que algumas instruções podem estar em vários estágios do processo. Por exemplo, pode levar 4 ciclos de clock para alguma coisa ser processada. Durante esses 4 ciclos pode se ter 3 outras instruções que estão sendo processadas em diferentes estágios.

 

:: Primeiro Processador do Mundo ::

Em Novembro de 1971, uma companhia chamada Intel, publicou a introdução para o mundo do primeiro processador do mundo, o Intel 4004 (Patente Americana #3,821,715), inventado pelos engenheiros da Intel Federico Faggin, Ted Hoff e Stan Mazor. Após a invenção do circuito integrado que revolucionou o mundo dos computadores, a única coisa a fazer era diminuir no quesito tamanho. O chip Intel 4004 tinha tudo que um computador precisava para pensar em um pequeno chip. Programar uma inteligência artificial em objetos inanimados se tornou possível depois do lançamento desse revolucionário chip.

 

processor3.jpg

 

No final dos anos 60, muitos cientistas discutiram a possibilidade de um computador em um chip, mas muitos sentiram que a tecnologia de circuito integrado não estava tão avançada para se chegar a um chip como esse que parecia um sonho. Mas o funcionário da Intel Ted Hoff pensou diferente; ele foi o primeiro a reconhecer que a tecnologia MOS poderia fazer um chip CPU(Central Processing Unit).

 

processor4.jpg

 

Hoff e o time da Intel desenvolveu esse chip com apenas 2,300 transistores em uma área de apenas 3 x 4 milímetros. Com um CPU de 4-bit, registro de comando, decodificador, controle de decodificação, Controle de monitoramento de comandos de máquina e registro de intervalo, o 4004 foi uma grande invenção.

 

Os processadores de 64-bit ainda são baseados no 4004, e os processadores ainda continuam sendo o produto que é produzido em massa que tem mais de 5.5 milhões de transistores e executando milhões de cálculos por segundo, esses números irão ser obsoletos rapidamente com a evolução dos processadores.

 

Curiosidade: A nave espacial Pioneer 10 usou o processador 4004. Foi lançado em 2 de março de 1972 e foi a primeira nave espacial e processador a entrar no cinturão de asteróide.

 

:: Linha do Tempo dos Processadores::

 

:: Primeira Geração de Processadores ::- Intel 8086 (1978)

 

processor5.jpg

 

Esse chip não foi usado no primeiro PC, mas foi usado um pouco depois em computadores que não foram tão importantes. Era um processador de 16-bit e se comunicava com placas 16 de conexão de informação.

 

__

 

- Intel 8088 (1979)

 

processor6.gif

 

Esse foi o primeiro chip usado no primeiro PC. Era um chip 16-bit, mas se comunicava via conexão 8-bit. Tinha 4Mhz e tinha apenas 1 MB de RAM.

 

__

 

- NEC V20 e V30 (1981)

 

processor7.gif

 

Clones do 8088 e 8086. Supostamente eram 30% mais velozes que os originais da Intel.

 

:: Segunda Geração de Processadores ::

 

- Intel 80186

 

processor8.gif

 

O 186 foi um chip muito popular. Muitas versões dele foram projetadas para os compradores poderem escolher entre CHMOS ou HMOS, 8-bit ou 16-bit, dependendo da necessidade do usuário. Um chip CHMOS poderia rodar o dobro de velocidade de clock do que um chip HMOS. Em 1990, a Intel lançou a versão melhorada da família 186. Eles compartilhavam 1-micron e rodavam a 25MHz em 3 volts.

 

__

 

- Intel 80286 (1982)

 

processor9.gif

 

Um processador de 16-bit capaz de endereçar 16 MB de RAM. Esse chip é capaz de trabalhar com memória virtual. O 286 foi o primeiro processador “real”. Ele introduziu o conceito de modo protegido. Essa é a habilidade de multitarefa, ter diferentes programas rodando separadamente mas ao mesmo tempo. Essa habilidade não adiantou nada no sistema operacional DOS, mas mais tarde sistemas operacionais como Windows, conseguiram usar esse novo recurso. Esse chip foi usado pela IBM no Advanced Technology PC (AT). Rodava a 6 MHZ , mas mais tarde outras edições do chip rodavam a 20MHZ. Esses chips são considerados pesa-papéis, mas algumas pessoas ainda usam ele.

 

:: Terceira Geração de Processadores ::

 

- Intel 386 (1988)

 

processor910.gif

 

Esse foi o chip que começou tudo que vemos hoje. Com esse chip, os Pc’s começaram a ser mais úteis que âncoras de barcos. O 386 o primeiro processador de 32-bit para Pc’s. Ele consegue se comunicar com 4 GB de memória real e 64 TB de memória virtual. Esse pequeno monstro podia ser usado com um co-processador matemático, chamado de 80387. E também poderia usar cachê de 16 bytes.

 

A versão reduzida do chip é o 386SX. Esse é o chip mais barato para se produzir. Se comunicava com placas via 16-bit. O 386 chegava de 12.5MHz até 33MHz. Os processadores 386 foram desenvolvidos para serem de fácil uso. Todos os chips da família 386 era compatíveis com o código binário com o seu antecessor 186, isso significa que o usuário não precisa adquirir um novo software para usá-lo. Além disso, o 386 oferecia um sistema de energia amigável como a baixa necessidade de voltagem e também System Management Mode (SMM) que é usado para economizar energia. Além de tudo, esse foi um grande passo para o desenvolvimento de processadores. Ele deixou muitos padrões que são usados até hoje.

 

:: Quarta Geração de Processadores ::

 

- Intel 486 (1991)

 

processor911.gif

 

Essa foi a próxima geração de processadores. Ela trouxe o cérebro do 386 com o co processador matemático, com isso ele se tornava muito mais rápido. Esse processador já rodava a 120 MHz e ainda é usado nos dias de hoje.

 

O primeiro membro da família 486 foi o 486SX. Era um processador muito poderoso e muito avançado para seu tempo. Com esse avanço ele tinha muitas inovações. O 486SX vinha com o 176 Lead Thin Quad Flat Pack (TQFP).

 

O próximos membros da família foram os DX2s e os DX4s. A velocidades deles eram obtidas com o speed-multiplier technology, que habilitava o chip para operar em ciclos de clock melhor que a bus. Além disso eles também introduziram o conceito de RISC. Reduced Instruction Set Chips (RISC) faziam apenas algumas coisas, mas faziam muito rapidamente. Isso fez com que o chip fosse muito mais eficiente e deixasse os outros x86 para trás. O DX2 oferecia 8 KB de gravar na cachê e o DX4 oferecia 16 KB. Essa cachê ajudava o chip a manter um ciclo de clock por instrução de operação pelo uso do RISC.

 

Também teve as versões SX e DX. As duas eram completamente 32-bit, mas a SX não tinha o co-processador matemático. Contudo, a versão SX é brutalmente duas vezes mais rápida que um 386.

 

:: Quinta Geração de Processadores ::

 

Família Pentium (1993)

 

processor912.gif

 

A Intel trouxe o PC para um nível de 64-bit com o processador Pentium em 1993. O processador tinha 3.3 milhões de transistores e executava 100 milhões de instruções por secundo (MIPS=Million Instructions per Second)

 

A família Pentium incluía as velocidades de clock de 75/90/100/120/133/150/166/200. É compatível com todos os Sistemas operacionais antigos, incluindo o DOS, Windows 3.1, Unix e OS/2. É um processador super escalado e pode executar duas instruções por ciclo de clock. A separação das cachês fez com que a performance crescesse muito, bem acima dos chips x86. Tem o SL power management e tem a habilidade de trabalhar em grupo com outro Pentium. O chip se comunica por uma placa bus 64-bit. Tem 273 pinos conectado na placa mãe. Esse chip é muito rápido mas também esquenta demais, então o uso de coolers começou a ser necessário. Um pouco depois do primeiro lançamento a Intel lançou algumas versão dos chips que operavam a 3.3 volts, não como os usuais 5 volts. Isso reduziu significantemente o calor. Também lançado o Pentium MMX que tinha 70% a mais de velocidade que os outros.

 

Recentemente foi lançado o Pentium 4 e ele tem 42 milhões de transistores, velocidade de clock de 1.5GHz e 1700 MIPS.

 

:: Sexta Geração de Processadores ::

 

Tipos atuais de processadores

 

Nos dias de hoje existem dois tipos de processadores disponíveis no mercado para computadores novos, são fabricados por duas empresas diferentes. O Pentium 4 da Intel e o Athlon XP fabricado pela AMD. Cada um desses dois processadores são de uma ótima qualidade e confiabilidade. Algumas pessoas tem medo de processadores da AMD porque a empresa não foi quem inventou o processador, mas o medo deles é apenas uma desorientação, porque a AMD é uma empresa muito competente e tem ótimos produtos como a Intel.

 

__

 

AMD Athlon XP

 

processo13.jpg

 

É um ótimo processador que está se tornando muito popular. É muito barato para a sua qualidade tão elevada. O único problema da dos Athlon XP é a quantidade de calor que ele gera. Quando for comprar um Athlon XP, é sempre recomendado comprar um cooler que seja aprovado pela AMD.

 

__

 

Intel Pentium 4

 

processo14.jpg

 

Outra grande opção de processador. O Pentium 4 tem a velocidade de clock maior que o Athlon XP mas é muito mais caro e a diferença entre os dois é quase que insignificante. Se você comprar um Pentium 4, verifique se a caixa e a fonte são compatíveis com o processador porque os Pentium precisam de muita energia.

 

 

cooler.gif

 

:: História dos coolers e dissipadores ::

 

Diferentemente do que muitos pensam, os coolers e dissipadores não são tão novos assim. Os dinossauros dos computadores, os chamados "Mainframes" já tinham os coolers tamanho família, Dissipadores, e uma coisa que poucos sabem mas em 1990 o IBM ES/9000 já tinha um sistema de water cooling. Para quem não sabe o que é water cooling, ele é um sistema de refrigeração onde é usada a idéia de um radiador de carro. Ele é “movido” a água e ajuda na refrigeração do processador. Mas e todos tinham a mesma função, não deixar que o calor atrapalhasse no desempenho do computador.

 

cooler1.jpg

 

Depois dos mainframes os coolers e dissipadores ficaram na gaveta e não eram usados em máquinas como o Apple2, Commodore, PC’s XT, AT (286), 386 e quando chegou o 486 as coisas começaram a mudar, não que fosse necessário ter um cooler ou dissipador, mas o 486DX2-66 já era opcional o dissipador para um melhor performance. Com o lançamento do da família Pentium da Intel as coisas mudaram: uma máquina sem cooler seria a mesma coisa que jogar dinheiro na lata do lixo, porque basta alguns segundos e o processador "pifa".

 

cooler2.jpg

 

Mas como um pedaço de metal como o dissipador consegue eliminar o calor? Hoje em dia o dissipador e o cooler trabalham em grupo. Caso você tenha a oportunidade de abrir seu computador, conseguirá ver que o dissipador esta “grudado” no processador, e em cima dos dois o estará o cooler.

 

Existem 3 maneiras do calor ser transmitido :por irradiação, por condução ou por convecção.

 

cooler3.jpg

 

__

 

- Irradiação

 

Como o nome sugere, o calor simplesmente é irradiado do objeto, através da radiação eletromagnética (transporte de foton). E dependendo do material e da cor ele será melhor para irradiação ou pior. A cor preta é a melhor.

 

- Condução

 

Condução é a troca de energia cinética, entre moléculas. Com menos calor a partículas ganham mais energia cinética colidindo com mais partículas enérgicas (através do contato físico). Enquanto o contato direto é necessário, um dissipador (rodeado por ar) não pode se livrar do calor usando a condução. A condução é o efeito responsável pela transferência de calor do processador para o dissipador.

 

- Convecção

 

Convecção é a transferência de calor pelo movimento de substancias do calor (Gás ou liquido). Isso significa que a transferência de moléculas para gás ( ou liquido) rodeando o objeto quente, e então transporta o calor para longe com o movimento de moléculas. Se o gás ou liquido em volta do objeto é forçado a se movimentar, então isso é convecção

 

 

:: Ventilando sua CPU ::

 

Para ventilar sua CPU nos dias de hoje temos essas opções. A primeira coisa que se precisa ter é o dissipador como já analisamos anteriormente. Mas vale lembrar que o dissipador, não tem partes que se movem como um cooler e isso deixa a desejar quando é preciso refrescar seu processador com eficiência. Quando o dissipador é encaixado no processador, é necessário que ele esteja totalmente grudado. Mas não adianta você ter apenas o dissipador grudado no processador, para melhorar ainda mais o desempenho do mesmo usa-se uma pasta térmica que ajuda também a “jogar para fora o calor”. Essa pasta é aplicada entre o processador e dissipador, assim quando colocar o dissipador em cima do processador ela fica entre os dois. Caso seu computador esteja realmente esquentando e você não imaginar uma solução tente ver se tem pasta térmica no processador.

 

cooler4.jpg

 

Depois disso, colocar um cooler em cima do dissipador é necessário porque as máquinas de hoje realmente esquentam muito e não tem como uma máquina funcionar sem um cooler no processador para mandar embora o calor. Algumas vezes seu computador pode acusar erros intermitentes e que você pode achar que são inúmeras coisas, mas as vezes é um cooler que não tem uma qualidade boa ou está rodando em uma velocidade menor e assim super-aquecendo o processador e causando instabilidade para o computador.

 

cooler5.gif

 

Existe um outro tipo de sistema de refrigeração de CPU, não é muito popular e tem o nome de Junção de Peltier. Baseado no efeito físico descoberto por Jean-Charles-Athanase Peltier em 1934, a junção de peltier usa duas placas semicondutoras dissimilares para literalmente forçar o calor a passar de uma junção para outra. Uma corrente elétrica passa de uma placa para outra e uma das placas fica mais resfriada que a outra. A placa que fica mais quente tem um dissipador e um cooler para jogar o calor fora. Esse aparelho se chama Cooler de Peltier ou Cooler Termoelétrico.

Esse sistema de refrigeração é muito bom, mas infelizmente o preço alto não deixa que ele seja muito popular. Caso você tenha realmente muito problema com super-aquecimento no seu CPU o melhor a fazer é instalar esse sistema, mas prepare o bolso.

 

cooler8.jpg

 

 

:: Hard Disk ::

 

Os discos rígidos de alta performance produzem uma grande quantidade de calor. Se esse calor não for mandado embora def orma pode causar danos irreversíveis para o disco rígido. É normal que um disco rígido fique quente apos um certo tempo de funcionamento, mas quando se utilizam 2 discos no mesmo gabinete, eles precisam ter espaço suficiente entre si para term ventilação adequada.

 

cooler6.gif

 

 

:: Conclusão ::

 

Deixar seu computador resfriado é mais que uma obrigação. Pense se seu cooler não está funcionando direito é melhor trocá-lo e gastar algum dinheiro do que ter danos maiores como queimar o processador e ter que gastar muito mais dinheiro.

Aqui vão algumas dicas:

 

- Sempre verifique se não tem poeira excessiva no cooler, isso pode travá-lo

 

- Nunca deixe seu cooler funcionando em velocidades reduzidas

 

- Faça uma checkup nos sistemas de ventilação de 3 em 3 meses.

 

- Nunca ligue sua máquina sem um cooler no processador

 

- Troque a pasta térmica do seu processador quando perceber que existe queda de performance

 

Curiosidade: O Power Macintosh G3 não usa nenhum cooler ou parte móvel para resfriar seu cpu. Isso lembra as máquinas antigas como apple2, Commodore etc...

 

cooler7.gif

 

 

captadora.gif

 

:: Introdução ::

 

Uma placa capturadora de vídeo é capaz de capturar sinais de vídeo através de portas das câmeras ou outros equipamentos e serem vistos no monitor e gravados no HD da máquina. Captadores de Frames são dispositivos que capturam frames individuais do vídeo que se está gravando. São usadas por quem edita desde vídeos caseiros até vídeos profissionais.

 

Compressão

Vídeos para serem manipulados necessitam de muitos recursos: banda larga, grande espaço em HD , tempo de processamento e o principal: muito $. Quando se pensar em editar vídeos em seu computador será necessário um HD grande porque mesmo com os novos padrões de compressão os filmes editados geram grandes arquivos. Você precisa de tempo porque a velocidade para converter os filmes em um formato que o computador entenda também não é rápido. Um computador mais rápido diminui esse tempo perdido. A compressão então se torna um fator muito importante para quem vai editar vídeos em seu computador.

 

Codecs

 

Codec (em multimídia)é um programa que lê arquivos comprimidos padronizados de áudio e/ou vídeo , e faz a descompressão para serem vistos pelo usuário. Codec é a abreviação de Compressional Decompression.

 

MPEG

 

(Abreviação de Moving Picture Experts Group, e se pronuncia como m-peg) O termo refere-se a um grupo de CODECS de vídeo com som digital desenvolvida pelo grupo. OMPEG geralmente produz vídeos de melhor qualidade que os concorrentes, como o vídeo para Windows, Indeo e o Quicktime. Arquivos MPEG podem ser decodificados por hardware ou software especial.

 

MPEG alcança grandes taxas de compressão apenas guardando as mudanças de um frame para o outro, ao invés do frame inteiro.

 

Existem 3 tipos principais de MPEG:

 

- MPEG-1

 

A versão mais comum do MPEG-1 tem a resolução de vídeo de 352 x 240 a 30 frames por segundo (FPS). A qualidade de vídeo é de um vídeo cassete.

 

- MPEG-2

 

O MPEG-2 oferece resolução de 720 x 480 e 1280 x 720 a 60 FPS, e áudio com qualidade de CD. Isso já é suficiente para todas os padrões de TV, incluindo NTSC, e HDTV. O MPEG-2 é usado para fazer DVD-ROMs. USando -se o MPEG-2, se consegue comprimir um vídeo de 2 horas em alguns gigabytes. Para se visualizar um filme em MPEG-2 basta um computador modesto, para codificaçãor precisa-se de um computador pouco mais poderoso.

 

- MPEG-4

 

O MPEG-4 é um compressor de vídeo e gráficos no padrão de algoritmo que é baseado no MPEG-1 e MPEG-2 e no QuickTime da Apple. O MPEG-4 é menor que JPEG ou um arquivo de QuickTime, então ele é projetado para passar imagens em uma conexão de Internet não muito boa. MPEG-4 foi padronizado em outubro de 1998 no documento ISO/IEC 14496.

 

 

:: Ventilando seu CPU ::

 

Existem 5 tipos básicos de sistemas de captura de vídeo; M-JPEG Analógico, MPEG Analógico, DV, Analógico / Combinação com DV, e o resto ( alguns usam seus próprios CODECS como a Indeo, e algumas que custam alguns milhares de dólares). Isso também pode se dividir em realtime e não-realtime. Note que quando nós dissemos analógico nos estamos se referindo do tipo dos sinais de entrada de vídeo não o resultado final.

Todos os sistemas de captura são projetados para aceitar certos tipos de entradas de vídeo – PAL, NTSC, SECAM, composite, component, S-Video, DV, Etc. você precisa ter certeza que sua placa de captura combina com sua fonte (em que está gravado o que vai usar).

 

Algumas placas de captura tem uma são externas, isso é bom porque facilita muito o trabalho que se tem de ficar ligando e desligando cabos, coisa que você faz muito quando se está editando vídeos.

 

Todos os sistemas de captura tem um máximo de resolução e um máximo de rate de frame.

Sistemas mais baratos tem o máximo de resolução de 320 x 240 ou menos mas não se esqueça se a imagem for pequena você não poderá deixara grande senão a perda de qualidade fica evidente, então o melhor é gastar um pouco mais e comprar uma placa que agüente pelo menos 640 x 480 ou 720 x 480. Para a melhor qualidade o melhor é achar uma placa que possa capturar 60 campos por segundo não uma que apenas captura 30 frames como a maioria.

Placas analógicas M-JPEG foram as primeiras na captura digital ela perdeu seu espaço depois da ascensão do MPEG e do DV, mas ainda você poderá encontrar dessas placas por ai, são bem mais baratas que as modernas e é possível se fazer bons trabalhos com ela.

 

captu1.jpg

 

O Sistema Analógico MPEG acompanha dois “sabores”: MPEG-1 e MPEG-2. Se você quer realmente editar vídeos pesados o melhor seria escolher o sistema MPEG-2. Quem sabe algum dia você querer colocar seus vídeos em DVD. Sistemas MPG-1 podem ser perfeitamente adequados mas a qualidade as vezes nem sempre é satisfatória.

 

O sistema de captura DV são para casos especiais e requer uma câmera DV ou um Vídeo DV de entrada. Esse sistema pode ser dividido em duas categorias; interno e externo. Nesse caso nos estamos falando sobre onde o proprietário desses Chips de DV estão localizados. Alguns sistemas de DV antigos usavam os chips na camcorder para processar o vídeo. Elas poderiam capturar o vídeo de DV da câmera, converter em outro formato de vídeo como o AVI e então mandar o vídeo de volta para o camcorder para ele codificar em DV. N começo não era tudo isso, mas com o passar dos anos as coisas melhoraram.

 

Alguns dos sistemas de DV são bons porque já passam o filme diretamente para AVI e assim fazendo o filme ficar bem menor em tamanho dentro do seu HD.

 

 

:: Conclusão ::

 

Para se editar vídeos você vai precisar de dinheiro, tempo e paciência como já foi dito, mas o principal é entender todos esses conceitos e tentar trabalhar com o que é melhor para seu tipo de trabalho. Não adianta comprar uma placa muito sofisticada para editar vídeos caseiros , o importante é gastar o necessário para o tipo de coisa que ela vai ser usada.

 

 

lan.gif

 

:: Introdução ::

 

Uma placa de rede é necessária para se fazer uma rede entre computadores. Sem ela você não pode se comunicar com outros computadores. Existem algumas coisas que é preciso saber para fazer uma boa rede: se você tem uma placa lenta de um lado e rápida do outro lado não vai adiantar essa placa rápida porque a primeira vai "segurar a informação".

 

rede1.jpg

 

 

:: História da Ethernet ::

 

A ethernet é um sistema para ligar computadores dentro de um prédio e assim todos usando os mesmos arquivos, softwares etc. É diferente da internet, que conecta remotamente computadores por linhas de telefone, protocolos e hardware.

 

Robert Metcalfe era membro do grupo de pesquisa da Xeros no Centro de Pesquisa de Palo Alto (PARC) onde alguns dos primeiros computadores pessoais foram feitos.

 

Metcalfe foi requisitado para constuir um sistema de rede para os computadores do PARC, a motivação da Xerox para realizar esse projeto foi a construção da primeira impressora laser do mundo e eles queriam que todos os computadores do PARC fossem capazes de imprimir com essa impressora.

 

Então Metcalfe tinha dois desafios: a rede teria que ser rápida o bastante para acompanhar a nova impressora laser; e de quebra teria que conectar centenas de computadores no mesmo prédio.

 

Nunca se havia conectado centenas de computadores no mesmo prédio, no máximo um ou no máximo três computadores isso quando não se pensava ainda em uma grande rede.

 

A imprensa diz que a ethernet foi inventada em 22 de maio, 1973, quando Metcalfe escreveu um memorando para seu chefe dizendo do potencial da ethernet, mas Metcalfe sabe que a ethernet foi criada relativamente com o tempo e avanços e descobertas de terceiros.

 

Em 1976, Metcalfe e David Boggs (Assistente de Metcalfe) publicaram uma nota, "Ethernet: Distributed Packet-Switching For Local Computer Networks."

Robert Metcalfe deixou a Xerox em 1979 para promover o uso de computadores pessoais e redes locais (LANs).

 

Ele conseguiu convencer a Digital Equipment, Intel e a Xerox Corpotarions para trabalharem juntas no padrão da ethernet. Agora existe até uma indústria internacional que controla os padrões da ethernet.

 

rede3.jpg

 

 

:: Tipos de Ethernet ::

 

Muitos dizem que a primeira placa de rede foi a Thicknet, 10base5. A indústria usou a Thicknet até os anos 80 quando a Thinnet 10Base2 apareceu. Comparando a Thicknet com a Thinnet, a primeira oferecia 5 milímetros e a segunda oferecia 10 milímetros, e a flexibilidade dos cabos ajudaram nas redes quando eram feitas nos escritórios.

A forma mais comum de Ethernet, porém, é 10Base-T. 10Base-T oferece melhores propriedades elétricas do que a Thinnet, porque 10Base-T utiliza cabo de par trançado sem proteção (UTP) é melhor que o cabo coaxial.

 

rede4.jpg

 

 

Ethernet Rápida

 

No meio dos anos noventa, a Ethernet rápida já estava bem madura e teve alguns marcos:

- GRande aumento da velocidade da Ethernet

- Não se necessitava trocar os cabos existentes, apenas as placas de rede.

 

 

Existem dois tipos de Ethernet Rápidas.

 

-100Base-T (Usando par trançado)

-100Base-FX (Usando cabos de fibra óptica)

Os 100Base-T mais populares são:

- 100Base-TX (Categoria 5 UTP)

- 100Base-T2 (Categoria 3 UTP)

- 100Base-T4 (Categoria 3 UTP)

 

 

:: Conclusão ::

 

Nos dias de hoje uma rede de computadores é quase que obrigatório para um escritório, mesmo este sendo de pequeno porte. As placas de rede fazem o trabalho de comunicação entre computadores e sem elas estariamos até hoje usando o computador "solo" coisa que não era muito dinâmica.

 

rede5.jpg

 

 

modem.gif

 

:: Introdução ::

 

O modem é um aparelho que faz dois computadores se comunicarem entre si através de uma linha telefônica. A palavra MODEM devira da combinação de palavras inglesas modulation e demodulation (Modulação e demodulação). São nomes de duas funções que o modem realiza. Explicando melhor, os dados do computador são passados para sinal analógico para ser transmitido via linha telefônica. Do outro lado, outro modem demodula o sinal para digital e assim o outro computador pode interpretar. Mas o fax modem como é chamado no Brasil foi derivado de outra invenção o Fax.

 

modem1.jpg

 

 

:: História do Fax ::

 

O fax ou fac-símile como é chamado também, foi inventado por Alexander Bain, um mecânico escocês que em 1843 recebeu a patente britânica de "melhoria em produzir e regular correntes elétricas e melhoramento no tempo de impressão elétrica e sinais telegráficos." Sete anos antes, Samuel Morse inventou o Telegráfo e o Fax derivou da tecnologia do telegráfo.

Alexander Bain havia criado um fax trasmissor que era projetado para verificar em uma superfície plana (Feita de Metal) usando uma agulha que era colocada em um pêndulo e a agulha copiava a imagem que estava na superfície da placa de metal. Alexander Bain era um amador da arte de fazer relógios e adaptou mecanismos do relógio com o telegráfo e assim inventou o Fax.

 

modem3.jpg

 

 

Os primeiros faxes da história

 

- Em 1902, Doutor Arthur Korn inventou um fax prático, o sistema fotoelétrico.

 

- Em 1914, Edouard Belin estabeleceu o conceito para foto fax/E transmissão de textos.

 

- A empresa American Telephone & Telegraph Company (AT&T) trabalhou para melhorar a tecnologia de fac-símile, e em 1924, e o telefotográfo era usado para mandar fotos de convenções políticas para longas distâncias para publicações em jornais.

 

- Em 4 de Março, 1955, a primeira transmissão via rádio de um fax foi enviada atráves do continente.

 

modem7.jpg

 

 

:: História do Fax Modem ::

 

Foi em 1950 que o primeiro modem começou a ser desenvolvido. Existia uma grande necessidade de se transmitir dados para a defesa aérea americana, então muitos esforços foram feitos para conseguir a transmissão de dados via linhas telefônicas já existentes. A defesa aérea já usava modems no final dos anos 50, mas o primeiro modem comercial não foi lançado no mercado até 1962. O nome do primeiro Modem comercial do mundo foi o Bell 103, da AT&T.

 

modem2.jpg

 

Esse primeiro modem permitia transmissão dupla, e tinha uma taxa de dados de 300 bits por segundo. Em pouco tempo depois do lançamento do Bell 103, veio o Bell 212, que tinha a velocidade de 1200 bits por segundo. Ele também empregou um método de modulação chamado phase-shift Keying (PSK). Esse era um passo para o método frequency-shift Keying (FSK) que o Bell 103 adotou.

 

modem4.jpg

 

E nos próximos 15 anos depois do lançamento do Bell 103 os esforços foram para fazer os modems transmitirem dados em uma taxa muito alta. Mas para conseguir essa façanha, o sistema telefônico precisaria de melhorias. Mas as interferências era altas demais em todo o sistema, e todos os sinais ficavam muito "sujos".

 

modem6.jpg

 

Para compensar isso, equalizadores eram necessários serem aplicados nas linhas telefônicas. O equalizador automâtico foi inventado em 1965 na Bell Laboratories pelo Robert Lucky. Enquanto os equalizadores eram usados por algum tempo, eles precisavam da intervenção humana para serem ajustados corretamente. Com o advento do equalizador automático, os dados podiam ser trasmitidos em taxas altas, como foi desejado. A tecnologia dos modems evoluiu bastante nesse período, e em 1980, já existiam modems que transmitiam 14.4 kilobits por segundo por 4 fios.

 

modem9.jpg

 

Em 1984, modems já transmitiam 9.6 kilobits por segundo em um fio só no sistema telefônico. Já em 1991 os modems já tinha a velocidade de 14.4 kilobits por segundo usando um único fio do sistema telefônico. Então, em 1994, essa velocidade dobrou, já eram 28.8 kilobits por segundo. Já um pouco depois já estava em 33.6. E já em pouco tempo já estava em 56k.

 

modem5.jpg

 

 

floopy.gif

 

:: Introdução ::

 

Floppy disks são mídias de armazenamento magnético. Embora os floppy’s atuais serem selados com uma capa dura de plástico, dentro deles contém um disco magnético que lê e grava os dados. Existem diversos tipos de discos Os novatos em informática só conhecem aquele pequeno disco de 3 1/2 pol que armazena 1.4 mb e nem imaginam que para se chegar a esse estágio de armazenamento em disco existiram alguns bem diferentes.

 

flop1.jpg

 

 

:: História do Floppy ::

 

O Floppy disk de 8 polegadas foi considerado na época revolucionário para seu tempo, ele era muito fácil de se carregar de computador para computador.

Alguns anos depois a revolução foi o CD-R que teve o mesmo impacto, para ter idéia o CD armazena 700 Mb, já o disquete armazena 1.4 Mb, então podemos concluir que foi o mesmo impacto para o mundo da informática anos depois.O “floppy” foi inventado pelos engenheiros da IBM comandados por Alan Shugart. Os primeiros discos foram projetados para carregar micro códigos no controlador do Merlin (IBM 3330).

 

flop5.jpg

 

Em 1976, o disco de 5 ¼ polegadas foi desenvolvido por Alan Shugart para os laboratórios Wang. Wang queria um pequeno floppy disk para usar em seus computadores. Em 1978, mais de 10 fabricantes estavam produzindo floppy’s de 5 1/4.

Em 1981, a Sony introduziu no mercado o primeiro floppy de 3 ½ e disquetes do respectivo tamanho. Esse é o floppy que é usado nos dias de hoje.

 

flop2.jpg

 

 

:: Como o Floppy Funciona ::

 

É um circulo de material magnético similar a gravadores de fita cassete; um ou dois lados do disco podem ser usados para gravação. Quando o disco está dentro do floppy ele roda o disco dentro como se fosse uma vitrola. A cabeça do floppy é como se fosse a agulha da vitrola e toca na fita magnética que tem dentro do disco. O primeiro Floppy Shugart armazenava 100 KBs de dados.

 

flop4.jpg

 

 

:: Conclusão ::

 

O floppy disk está caminhando para o seu fim. Em breve eles serão substituídos por drives de cd graváveis, mas essa geração jamais irá esquecer tudo que o floppy fez pelo mundo da informática, sem ele você não poderia gravar os trabalhos de escola, planilhas para seu chefe e etc. e mesmo lembrando das vezes que você gravou um trabalho de escola gigante e ele deu problema ainda vai sentir algum carinho por esse disco tão usado desde os 80 e 90.

 

flop3.jpg

 

 

cdrom.gif

 

:: Introdução ::

 

Players de CD e CD-ROMS se tornaram uma parte integral de nossas vidas. Com o tempo depois do lançamento do KIT MULTIMEDIA, tudo mudou nos computadores, que na época eram os 386 e 486. Antes não se conheciam filmes digitalizados e com o advento do CD-ROM tudo ficou mais fácil. Foi uma verdadeira revolução em todos os sentidos no mundo dos computadores.

 

cdrom1.jpg

 

 

:: Como Funciona? ::

 

O driver de CD-ROM funciona como os Cd players que temos em casa. Nos CD’s, o código binário é representado por claridade e escuridão. Nos Cd’s existem milhões dessas superfícies claras e escuras. O CD-ROM usa laser para ler os códigos binários. Quando o laser passa por cima de uma superfície escura, a luz não volta para o sensor. Isso significa 0. E quando o laser passa por cima de uma superfície clara, existe a reflexão para o sensor dai ele registra 1. E diferente do que muitos pensam, o cd mesmo não tem seus dados gravados na parte que fica para baixo, mas sim em cima, onde está a identificação do cd.

 

cdrom2.jpg

 

Gravadores de Cd

 

Os cd’s que são copiados em drivers normais de queimar CD’s são totalmente diferentes dos que se vendem em lojas como, softwares, cds de música etc. É por isso que alguns aparelhos de Cd player antigos não tocam CD-R (Cds copiados em casa).

 

Cd-r’s não tem os mesmos materiais que o CD que é vendido em grande escala. O gravador de cd funciona de uma forma parecida com a de leitura. Ele tem dois tipos de raios, o de ler e o de gravar, o de ler não é forte o suficiente para esquentar o cd para fazer os “buracos” nos Cds, agora o raio de gravar é forte o suficiente para esquentar o cd e assim “queimar” o cd, agora dá para se entender o porque do uso dessa palavra BURN a CD (queimar um cd).

 

Cd-RW

 

A mesma idéia dos Cd-r’s são usadas no CD-RW, a diferença entre os dois, é que o CD-RW pode ser reescrito. Mas como ele faz isso é o interessante. Os Cd-rws usam uma mistura de antimônio, telúrio e índio, e quando essa mistura é aquecida, ela se torna líquida e continua nesse estado depois de esfriar. Se a mistura é aquecida a 200 graus centígrado, ela se torna sólida. A forma sólida dessa mistura vai refletir luz enquanto a forma líquida não vai refletir toda a luz. Infelizmente essa mistura não reflete muita luz e assim Cd-roms antigos e player não funcionam com Cd-rw’s.

 

 

:: História do Cd ::

 

O disco compacto digital (Digital Compact Disc) o CD, que é muito comum em aparelhos de som e computadores, foi inventado no final dos anos 60 por James T. Russell.

 

Russell nasceu em Bremerton, Washington em 1931. Aos 6 anos, ele inventou um barco de controle remoto, e dentro do barco ele guardava o seu lanche para escola. Russel foi para faculdade de física de Reed College em Portland em 1953. Posteriormente, ele já estava trabalhando como físico na General Electric perto dos laboratórios em Richland, Washington.

 

Na GE, Russel iniciou muitos experimentos. Ele estava entre os primeiros a usar a tv em cores e o teclado que na verdade era o inicio dos computadores modernos. Ele projetou e construiu o primeiro ferro de soldar eletrônico. Em 1965, quando foi inaugurado o Memorial Institute no Pacifico em Richland, Russel fez muitos esforços e conseguiu entrar como cientista no instituto. E a partir daí ele já sabia qual tipo de pesquisa ele iria fazer.

 

cdrom3.jpg

 

Russel era um viciado em música. Como todos de sua época, usavam disco de vinil, e reclamavam da falta de qualidade de som e queriam algo com melhor tecnologia. Em seus experimentos para melhorar o som ele usou como agulha um espinho de um cacto. Sozinho em sua casa em um sábado a tarde, Russell começou a esboçar um novo sistema de gravar música, e teve uma inspiração revolucionária.

Russel visionou um sistema que poderia gravar e tocar sons sem o contato físico entre o disco e o player, e ele percebeu que o melhor jeito de se fazer isso era usando luz. Russell já tinha familiaridade com dispositivos de gravar dados em cartões perfurados e fitas magnéticas. Ele percebeu que se representasse os números binários 0 e 1 com claro e escuro, o aparelho poderia tocar sons, ou então qualquer informação sem ao menos ter uma agulha. Ele conseguiu perceber se conseguisse deixar o código binário pequeno o bastante conseguiria guardar não só sinfonias mas sim enciclopédias inteiras em um pequeno pedaço de filme.

 

cdrom4.jpg

 

Russell teve alguns anos de trabalho, e finalmente teve sucesso em inventar o primeiro sistema de gravar e tocar de digital-para-ótico (patenteado em 1970). Ele conseguiu gravar em uma placa de plástico sensível a luz que eram sensíveis a pequenos “bits” de claridade e escuridão, cada um com um micro diâmetro, um laser lia os dados binários, e o computador converteu em dados para serem lidos.

 

Esse foi o primeiro compact disc, embora Russell já naquela época previa que existiriam os futuros disc-man que caberiam dentro de um bolso, e que os vídeos no futuro seriam gravados em CD. Nos anos 70, Russel continuou a refinar o CD-ROM, adaptando para todo tipo de dados. Como muitas idéias a frente de seu tempo, o CD-ROM achou muitos investidores sérios, os primeiros a comprar as licenças.

 

cdrom5.jpg

 

Em 1985, Russell ganhou 26 patentes para o tecnologias do CD-ROM. Então ele fundou sua própria firma de consultoria, onde ele continuou a criar melhorias para o CD-ROM. A sua invenção mais recente e revolucionária foi um gravador e player que não tem peças móveis.

 

 

zip.gif

 

:: Introdução ::

 

O nome já diz tudo: as placas de som são dispositivos responsáveis por prover o áudio gerado em seu computador. No início da era dos PCs, esse item nem existia - o único dispositivo sonoro presente em alguns computadores era o "PC Speaker", utilizado até os dias de hoje para emitir avisos sonoros da placa-mãe. Mas, não demorou muito para as placas de som se tornarem comuns. Hoje, é até difícil encontrar uma placa-mãe nova que não tenha uma placa de som integrada (onboard). Neste artigo, você conhecerá as principais características das placas de som e, a partir disso, terá meios de avaliar os vários modelos desse componente disponíveis no mercado.

 

 

:: Características das placas de som ::

 

Conversores ADC e DAC

 

As placas de som são constituídas por dispositivos com um ou mais chips responsáveis pelo processamento e emissão do áudio gerado pelas aplicações. Para que isso seja possível nos computadores, é necessário trabalhar com sinais sonoros digitais. É neste ponto que entra em cena os conversores denominados ADC (Analog-to-Digital Converter - Conversor Analógico-Digital) e DAC (Digital-to-Analog Converter - Conversor Digital-Analógico).

 

Ao ADC (também conhecido como Conversor A/D) cabe a tarefa de digitalização dos sinais sonoros. A placa de som recebe esses sinais de um dispositivo externo, por exemplo, um microfone ou um instrumento musical. O som oriundo desses dispositivos é disponibilizado por sinais analógicos. Todavia, os computadores só trabalham com informações digitais, sendo necessário, portanto, fazer uma conversão de analógico para digital. É exatamente isso que o ADC faz.

 

Para ouvirmos o som emitido pelos computadores, conectamos à placa de som caixas acústicas ou fones de ouvido. Para o áudio chegar até os nossos ouvidos por esses dispositivos, é necessário fazer outra conversão: a de sinais digitais (isto é, os sinais trabalhados pela máquina) para sinais analógicos. Essa tarefa é feita pelo DAC (também conhecido por Conversor D/A).

 

É claro que há situações em que é necessário trabalhar com ambos os conversores ao mesmo. Isso é possível na maioria das placas de som, em um recurso denominado fullduplex.

 

Resolução das placas de som

 

É comum encontrar nas especificações das placas de som indicações que sugerem que o dispositivo trabalha a 32, 64 ou 128 bits. Na verdade, a maioria das placas sonoras trabalha com resoluções de 16 bits (as mais antigas trabalhavam apenas com 8 bits), com exceção para alguns modelos mais sofisticados, que podem trabalhar com mais bits.

 

Os números superiores a 16 informados nas especificações, geralmente indicam a quantidade de tons simultâneos que a placa pode trabalhar (polifonia). Os tradicionais 16 bits são suficientes para reproduzir com alta qualidade sonora os sons que somos capazes de ouvir, por isso não há a necessidade de trabalhar com mais bits. As placas que possuem 20 bits (ou mais) geralmente são usadas para evitar perda de qualidade em certas aplicações. Isso significa que possuem alta fidelidade sonora, embora nem sempre notemos a diferença.

 

Resposta de freqüência

 

A resposta de freqüência indica a faixa de freqüências que a placa de som pode oferecer. Nos dispositivos mais comuns, esse intervalo fica entre 20 Hz e 20 KHz, um valor satisfatório aos ouvidos humanos.

 

Dependendo da freqüência, pode haver desvios, isto é, perdas ou ganhos. Esse parâmetro é medido em decibéis (dB). Placas que possuem esse desvio numa taxa inferior a 1 dB (para mais ou para menos) são indicadas para se obter uma boa qualidade de áudio nos mais diversos tons.

 

SNR e THD

 

O SNR (Signal to Noise Ratio ou Relação Sinal/Ruído) indica o nível de ruído (uma espécie de interferência) existente na placa de som. Esse indicativo é medido em decibéis. Placas de boa qualidade geralmente têm SNR acima de 90 dB.

 

Quanto ao THD (Total Harmonic Distortion ou Distorção Harmônica Total), trata-se de um indicativo do nível de distorção, neste caso, um ruído captado durante a emissão do áudio para as caixas de som ou para os fones. Essa medição é feita em porcentagem e, quanto menor esse valor, melhor.

 

É curioso notar que nem sempre os fabricantes indicam os valores de SNR e THD. Geralmente, essas taxas só são especificadas quando a placa de som tem qualidade muito boa.

 

Sintetizadores e MIDI

 

Quando um som é gerado no computador, o arquivo final costuma ficar muito grande, fazendo com que seja necessário usar formatos de compactação de áudio (como MP3 e Ogg Vorbis) e, principalmente, sintetizadores. Estes são "orientados" por um padrão conhecido como MIDI (Musical Instrument Data Interface).

 

Os arquivos MIDI são muito pequenos, se comparados aos formatos de áudio tradicionais. Isso se deve ao fato desse formato conter, na verdade, seqüências de notas musicais. Assim, cabe aos sintetizadores a tarefa de seguir essas seqüências para gerar o áudio.

 

O sintetizador FM (Freqüência Modulada) é um dos mais comuns, já que permite a geração de áudio na placa de som sem a necessidade de usar áudio digitalizado. Os efeitos sonoros existentes em jogos, por exemplo, podem ser gerados dessa forma.

 

Para garantir um áudio mais real, as placas de som também podem utilizar um tipo de sintetizador conhecido como Wave Table. Por meio dele, é possível constituir áudio através de amostras oriundas de instrumentos sonoros reais. Neste caso, as amostras podem ficar gravadas em uma memória própria da placa de som. Esse sintetizador também pode ser emulado por software.

 

DSP (Digital Signal Processor)

 

O DSP é um item importante para a qualidade do áudio, portanto, sua presença é praticamente obrigatória em placas de som mais sofisticadas. Trata-se de um chip dedicado a processar informações sonoras, liberando o processador do computador de tal tarefa. O DSP é especialmente importante na edição de áudio, já que torna mais rápida a aplicação de efeitos e de outros recursos de manipulação.

 

Algumas placas-mãe de qualidade superior possuem DSPs integradas. Isso é importante para evitar que o usuário tenha que comprar uma placa de som offboard (isto é, uma placa de som "separada", não integrada à placa-mãe) por falta de qualidade do áudio onboard.

 

Canais de áudio

 

Os canais de áudio indicam quantas caixas de som você pode conectar na placa. As mais simples suportam dois canais, isto é, os canais direito e esquerdo. Placas que suportam, por exemplo, a tecnologia Surround, costumam ter canais extras para prover um melhor aproveitamento de tal recurso.

 

O que quer dizer então, sistemas de som 5.1, por exemplo? Esse número indica que a placa de som é capaz de trabalhar com kits acústicos compostos por cinco caixas de som e uma caixa subwoofer (usada para tons graves). O mesmo vale para kits 6.1 e 7.1.

 

Vale frisar, no entanto, que a expressão "canais de áudio" também pode fazer alusão à quantidade de sons que a placa pode executar ao mesmo tempo (a já mencionada polifonia).

 

Conexões

 

As placas de som podem ter vários tipos de conexões, tudo depende do modelo e da finalidade de uso do dispositivo. A lista abaixo mostra os tipos de conexão mais comuns:

 

- MIC: entrada para microfone;

- Line-In: entrada para conectar aparelhos sonoros, como um rádio, por exemplo;

- Line-Out: entrada para conectar caixas de som ou fone de ouvido;

- Speaker: nesta entrada, pode-se ligar caixas de som sem amplificação;

- Joystick/MIDI: entrada para ligar joystick (controle para jogos) ou instrumentos MIDI;

- SPDIF: entrada para conexão de aparelhos externos.

 

No caso da conexão SPDIF (Sony/Philips Digital Interface), cabe uma observação: esse padrão, na verdade, é composto por vários tipos de conexão, uma delas serve para conectar um drive de CD/DVD à placa de som, fazendo com que esta tenha a tarefa de converter os sinais digitais para analógicos do áudio de CDs de música. Além disso, o SPDIF também pode usar conectores ópticos e coaxiais, onde pode-se ligar, por exemplo, um home theater.

 

Como mostra a tabela abaixo, convencionou-se aplicar cores para cada conexão. Essas cores podem ser aplicadas nos dispositivos a serem encaixados, assim fica mais fácil localizar qual a entrada correta para cada um. Vale frisar, no entanto, que não são todas as placas que utilizam esse esquema. Aqui no InfoWester, por exemplo, já foi testada uma placa Sound Blaster X-FI Platinum cujos encaixes eram dourados.

 

Finalizando

 

Como dito no início desse artigo, a quase totalidade das placas-mãe atuais vêm com placa de som integrada. Isso é bom, já que representa uma despesa a menos na aquisição de um computador. Por outro lado, deve-se observar as características do áudio oferecido para não comprar um produto de baixa qualidade. As placas-mãe de qualidade superior costumam oferecer um bom sistema de áudio.

 

Agora, se o que você quer é um som de altíssima fidelidade e compatível com as tecnologias de áudio mais recentes, não tenha dúvida, compre uma placa de som de qualidade. Assim você terá uma ótima experiência ao ouvir suas músicas, jogar seus games preferidos, assistir a um filme e, se for o seu caso, trabalhar com edição de áudio. Não se esqueça de utilizar caixas de som ou fones de ouvido de qualidade para usufruir de tudo o que sua placa de som oferece!

 

Galera Apartir de agora, (SÓ NOS TÍTULOS) não vou poder postar imagens, é porque eu utilizei o máximo de imagens !

 

placasom.gif

 

:: Introdução ::

 

Placa de som é um dispositivo de hardware que envia e recebe sinais sonoros entre equipamentos de som e um computador executando um processo de conversão com um mínimo de qualidade e também para gravação e edição.

 

 

:: Histórico ::

 

Antes que se pensasse em utilizar placas, com processadores dedicados, os primeiros IBM PC/AT já vinham equipados com um dispositivo para gerar som, que se mantém até hoje nos seus sucessores, os speakers, pequenos alto-falantes, apesar dos PCs atuais contarem com complexos sistemas de som tridimensional de altíssima resolução.

 

O funcionamento destes dispositivos era, e ainda é, bem primitivo. Um oscilador programável recebe um valor pelo qual dividirá a frequência base, e um flip-flop, liga e desliga o alto-falante. Não há como controlar o volume, mas isso não impede que ao utilizar-se de recursos de algoritmos bastante complexos, um programador possa conseguir um razoável controle. Tanto o beep inicial que afirma que as rotinas de inicialização do computador foram concluídas com sucesso, quando os beep informando falhas neste processo, e as musicas dos jogos são gerados do mesmo modo.

 

 

Fabricantes

 

Estão entre os principais fabricantes de placas e chipsets de som:

 

Creative Labs

VIA Technologies

Analog Devices

AdLib Inc

C-Media

Realtek

 

 

teclado.gif

 

:: Introdução ::

 

A origem dos teclados de hoje em dia veio da invenção da máquina de escrever criada por Christopher Latham Sholes em setembro de 1867. A máquina de escrever foi patenteada no ano seguinte. Começou a ser fabricada pela Remington Company em 1877. No começo do século vinte a máquina de escrever entrou no mundo dos negócios.

 

:: História do teclado ::

 

Diversos dispositivos que imprimiam dados alfanuméricos eram usados no começo do século vinte. Fitas de papeis perfurados foram testados usando o telégrafo antes de 1881. O código Morse sonoro foi usado até meados de 1917 quando os circuitos principais, especialmente aqueles que usavam cabos como a API e a UPI foram convertidos para usar impressoras mecânicas. Sistemas de cartões perfurados, que eram usados a muitos anos para controlar máquinas de confeccionar, além disso começaram a criar empregos para as pessoas que guardavam os dados com as máquinas de tabulação.

 

No século vinte a máquina de teletipo se uniu com a máquina de escrever, onde resultou em um nova forma de comunicação telegrafica, em 1930. Inicialmente essas máquinas imprimiam em uma fita de papel estreita, mas no final dos anos 30 papeis maiores poderiam ser usados. A tecnologia de cartões perfurados criada em 1881 ajudou a criar a guardar mensagens e depois poderiam ler de novo com um leitor mecânico.

 

 

Sistemas de cartões perfurados similares foram ligados a máquinas de escrever como teclados, isso facilitava a entrada de dados numéricos. Desta maneira o sistema de cartão perfurado, junto com as perfuradoras, eram a base das máquinas de calcular que a IBM estava vendendo a mais de um milhão de unidades em 1931. Deste modo o que predominou na segunda guerra foram essas tecnologias.

 

A segunda grande guerra ajudou na criação de computadores para quebrar códigos de mensagens crptografadas de guerra fazendo cálculos realmente rápidos para sua época. Mesmo antes da guerra algumas companhias como a Bell Laboratories começavam a trabalhar com computadores. Em setembro de 1940 G.R. Stibitiz demonstrou o MODEL 1 que utilizava uma entrada de teclado do teletipo. Essa demonstração foi única porque foi feita através de linhas telefônicas, algo que não seria repetido por mais de uma década.

 

Entretanto o próximo marco milionário foi o desenvolvimento do computador ENIAC em 1946. Esse computador utilizava um leitor de cartão perfurado que era lido pelo ENIAC. Essa máquina foi seguida pelo BINAC em 1948 que utilizava um teclado de máquina de escrever que escrevia dados diretamente nas fitas magnéticas. A fita era lida pelo ENIAC e os cálculos eram feitos e depois os dados saiam em uma máquina de escrever eletromecânica. Esses modos de operação eram conhecidos como modo de grupo, onde as coisas eram feitas uma de cada vez.

 

Os anos 50 viram o começo da comercialização do computador. Computadores como o UNIVAC tinham um teclado que era usado para controlar o console, mas antes eles eram apenas para calcular números de maneira mais fácil.

A entrada de dados era completa via modo de grupo, predominantemente com o uso dos cartões perfurados. A saída de dados era feita via linhas de impressão como uso da máquina de escrever para maior rapidez. O desenvolvimento comercial das máquinas de escrever eletromecânicas semelhante a IBM Selectric, contribuiu para a comercialização desses main frames que eram bem mais “fáceis” de se mexer do que os computadores antigos como o ENIAC. Esse foi um fator que fez a diferença para a comercialização dos main frames.

 

:: Surgimento do VDT ::

 

Mais tarde o modo de grupo foi comercializado pelas as universidades como a MIT que começou a experimentar sistema multi usuários, conhecido como a era de compartilhar sistemas, onde cada usuário poderia compartilhar simultaneamente recursos de seus terminais de teletipo. O experimentos antecederam esses começaram no final dos anos 50. Em 1964, a MIT, Bell Laboratories e a General Eletric desenvolveram um tipo de sistema compartilhado chamado de MULTICS. O desenvolvimento dos sistemas compartilhados criaram uma nova necessidade de se fazer uma interface melhor do que a atrapalhada interface do velho teletipo. Com isso a desenvolvimento de vídeo terminais ( VDT de vídeo display terminals)aumentaram cada vez mais no final dos anos 60. O VDT juntou a capacidade das máquinas de escrever com de se escrever na tela de uma tv, esses foram os primeiros teclados sem ter que usar a imprissão em algum papel, eles apareciam direto na tela, e assim fazendo o trabalho muito mais rápido.

 

Mais tarde em 1967 Control Data e Sanders estavam produzindo VDT’s. Harris estava vendendo eles em 1969,e a Hewlett Packard (HP) em 1972. Com o desenvolvimento do VDT usado em cooperação com o compartilhamento entre computadores respresentou uma grande mudança para a utilização do teclado como um dispositivo de entrada. Antes do advento do VDT, os teclados usados para acessar teletipos. Essas máquinas tinham a inerente limitação de velocidade por causa do mecanismo eletromecânico. O VDT não tinha nenhuma limitação quanto a isso. Os interruptores ligados nas teclas mandavam impulsos elétricos diretamente para os computadores, onde não havia envolvimento mecânico que era sinônimo de lentidão. A única limitação do VDT era a velocidade com que ela era escrita na tela, que no começo era relativamente lenta para a capacidade humana de digitar. Mas isso tudo mudará com a revolução do computador pessoal.

 

Quase que simultaneamente com a comercialização do sistema de multi usuário no fim dos anos 60 foi introduzido os minicomputadores pela companhias como a Data General, Prime Computer, Hewlett Packard e outras. Esses computadores eram pequenos e geralmente utilizavam o console de máquina de escrever. Eles se tornaram mais populares durante os anos 70, onde a interface de máquina de escrever foi abandonada a favor da tecnologia VDT para essas pequenas máquinas.

 

Os anos 70 viram a rápida expansão do main frame e do sistema de compartilhamento nas universidades e companhias privadas. Esses sistemas eram utilizados via modo de grupo para main frames, ou por VDT para sistemas de compartilhamento. No final dos 70 e começo dos 80 de qualquer modo o uso de cartões perfurados parou quando a IBM, com o sucesso no comercio dos main frames, trocou todas as antigas máquinas por main frames. Foi ai que o VDT alcançou o paradigma do domínio da interface dos computadores.

 

No final dos anos 70 o uso dos computadores expandiu significantemente porém ainda continuava sendo as universidades e grandes empresas que gastavam com essas máquinas pesadas. A expansão dos mini computadores contudo foi graças a um certo hobby que alguns universitários tinham de fazer computadores por eles mesmo. Assim muitos computadores vieram dessa época onde era “fácil” montar computadores caseiros.

 

:: QWERTY ::

 

A rápida expansão dos computadores não ajudou na prevenção das doenças que os teclados causariam nas pessoas por movimento repetitivo. Quando em 1984 a IBM lançou o PC/AT ele bem popular e qualquer pessoa conseguia digitar nele, o grande problema foi esse, quase que uma epidemia de pessoas com problemas nos braços por movimentos repetitivos

 

Uma emissão que ainda não havia sido mencionada era o layout do teclado. A industria de layout de teclados padrões possuía um monopólio virtual nos computadores. O QWERTY(olhe no seu teclado e veja essas teclas), é diferente de quando foi criado o teclado em 1880, o de antigamente era para se usar apenas com dois dedos e esse novo design é feito para se usar os dez dedos. E com isso os problemas de movimentos repetitivos pioraram drasticamente.

Outros layouts de teclado existiram. O mais notável foi um que se chamava Dvorak, esse nome veio de seu inventor o August Dvorak que era pesquisador ergonomista na universidade de Washigton. Em 1936 ele analizou a língua inglesa e viu quais eram as letras mais usadas mais freqüentemente.

 

Então ele reorganizou as teclas no teclado na caixa alta deixando as mais usadas em cima, e em baixo ele colocava as letras mais usadas depois das de cima e por ai vai. Infelizmente esse layout não pegou, tudo porque ele era menos eficiente que o outro. O layout QWERTY se tornou de fato o padrão, e ele é o mesmo que se usava a um século atrás, isto porque os fabricantes não queriam que os que já sabiam digitar nas máquinas de escrever tivessem que reaprender a digitar.

 

Com essa ascensão do teclado no uso com o VDT surgiram outros dispositivos que ajudariam muito os usuários de computador. Os dispositivos de ponteiros(dispositivos que selecionasse alguma localização no VDT), o famoso mouse, inventado em 1968 por Douglas Engelbart. O mouse não foi o primeiro dispositivo de ponteiro inventado. Canetas óticas, que usavam um censor de luz para mandar sinais para o computador e mover o ponteiro.

 

Com a introdução do Macintosh no meio dos anos 80 pela Apple, começou a fazer computadores já terem o mouse como padrão quando adquiridos. O Macintosh foi o primeiro computador feito em grande escala com recursos gráficos usando o mouse..Antes do Macintosh os PC IBM usavam linhas de instrução para executar comandos, com o surgimento do Macintosh o usuário não precisaria mais decorar linhas de comando para executar os programas, e isto prova que não foi o Windows o primeiro sistema operacional que usava ponteiros.

 

E o tempo passou, e ainda temos QWERTY como o padrão de teclados no mundo. Mas no futuro os computadores não terão mais teclado, será por reconhecimento de voz, e tudo que se fala será “digitado” na tela. Enquanto esse tempo não chega teremos os problemas de movimentos repetitivos por uso dos teclados QWERTY.

 

 

monitor.gif

 

:: Introdução ::

 

O monitor é um dispositivo de saída do computador, cuja função é transmitir informação ao utilizador através da imagem, estimulando assim a visão.

 

Os monitores são classificados de acordo com a tecnologia de amostragem de vídeo utilizada na formação da imagem. Atualmente, essas tecnologias são duas: CRT e LCD. À superfície do monitor sobre a qual se projecta a imagem chamamos tela, ecrã ou écran.

 

:: Tecnologias ::

 

CRT

 

Monitor CRT da marca LG.CRT (Cathodic Ray Tube), em inglês, sigla de (Tubo de raios catódicos) é o monitor "tradicional", em que a tela é repetidamente atingida por um feixe de elétrons, que atuam no material fosforescente que a reveste, assim formando as imagens.

 

Este tipo de monitor tem como principais vantagens:

 

1.sua longa vida útil;

2.baixo custo de fabricação;

3.grande banda dinâmica de cores e contrastes; e

4.grande versatilidade (uma vez que pode funcionar em diversas resoluções, sem que ocorram grandes distorções na imagem).

 

As maiores desvantagens deste tipo de monitor são:

 

 

1.suas dimensões (um monitor CRT de 20 polegadas pode ter até 50cm de profundidade e pesar mais de 20kg);

2.o consumo elevado de energia;

3.seu efeito de cintilação e

4.a possibilidade de emitir radiação que está fora do espectro luminoso (raios x), danosa à saúde no caso de longos períodos de exposição. Este último problema é mais freqüentemente constatado em monitores e televisores antigos e desregulados, já que atualmente a composição do vidro que reveste a tela dos monitores detém a emissão dessas radiações.

5.Distorção geométrica.

 

LCD

 

LCD (Liquid Cristal Display, em inglês, sigla de tela de cristal líquido) é um tipo mais moderno de monitor. Nele, a tela é composta por cristais que são polarizados para gerar as cores.

 

Tem como vantagens:

 

 

1.O baixo consumo de energia;

2.As dimensões reduzidas;

3.A não-emissão de radiações nocivas;

4.A capacidade de formar uma imagem praticamente perfeita, estável, sem cintilação, que cansa menos a visão - desde que esteja operando na resolução nativa;

As maiores desvantagens são:

 

 

1.o maior custo de fabricação (o que, porém, tenderá a impactar cada vez menos no custo final do produto, à medida que o mesmo se for popularizando);

2.o fato de que, ao trabalhar em uma resolução diferente daquela para a qual foi projetado, o monitor LCD utiliza vários artifícios de composição de imagem que acabam degradando a qualidade final da mesma; e

3.o "preto" que ele cria emite um pouco de luz, o que confere à imagem um aspecto acinzentado ou azulado, não apresentando desta forma um preto real similar aos oferecidos nos monitores CRTs;

4.o contraste não é muito bom como nos monitores CRT ou de Plasma, assim a imagem fica com menos definição, este aspecto vem sendo atenuado com os novos paineis com iluminação por leds e a fidelidade de cores nos monitores que usam paineis do tipo TN são bem ruins, os com paineis IPS, mais raros e bem mais caros, tem melhor fidelidade de cores, chegando mais proximo da qualidade de imagem dos CRTs;

5.um fato não-divulgado pelos fabricantes: se o cristal líquido da tela do monitor for danificado e ficar exposto ao ar, pode emitir alguns compostos tóxicos, tais como o óxido de zinco e o sulfeto de zinco; este será um problema quando alguns dos monitores fabricados hoje em dia chegarem ao fim de sua vida útil (estimada em 20 anos).

Apesar das desvantagens supra mencionadas, a venda de monitores e televisores LCD vem crescendo bastante.

 

:: Principais características técnicas ::

 

Para a especificação de um monitor de vídeo, as características técnicas mais relevantes são:

 

Luminância;

Tamanho da tela;

Tamanho do ponto;

Temperatura da cor;

Relação de contraste;

Interface (DVI ou VGA, usualmente);

Frequência de sincronismo horizontal;

Frequência de sincronismo vertical;

Tempo de resposta; e

Frequência de atualização da imagem.

 

 

mouse.gif

 

:: Introdução ::

 

Quase todo computador já vem com um mouse da loja. De fato, o mouse se tornou obrigatório na computação moderna. Aqui você encontrará a história e a tecnologia dos mouses atuais, como escolher um bom mouse para seu tipo de trabalho e ver os tipos de mouses alternativos.

 

:: História do Mouse ::

 

O mouse que conhecemos hoje foi criado por Douglas Englebart no Instituto de Pesquisa Stanford em meados de 1964. Englebart foi responsável por inúmeros conceitos na computação, como o hypertext e o sistema “windowing” (que vem do Windows). O primeiro mouse do mundo era feito de madeira e era muito popular entre os grupos de pesquisadores isto porque era fácil manuseio e mais preciso do que os trackballs e joysticks que já haviam sido feitos. As canetas óticas e as mesas digitalizadoras sempre foram grandes competidores do mouse, mas nunca ganharam porque o mouse é mais popular e mais fácil de se utilizar.

 

Em meados de 1979, Steve Jobs fez uma visita ao Centro de pesquisa Palo Alto da Xerox e viu muito dos equipamentos experimentais sendo testados, que eram criados nesse centro, incluindo muitos mouses. Por isso não existiu coincidência quando o primeiro computador popular fabricado em 1984 por Steve Jobs o Apple Macintosh já vinha com um mouse. Foi então que o mouse começou a se tornar popular. De fato, a Microsoft lançou o primeiro mouse em 1983, mas apenas após o lançamento do Windows o mause começou a ser usado em PC's.

 

:: Funcionamento do Mouse ::

 

O mouse mecânico:. funciona mediante o rastreamento de uma bolinha que gira dentro do mouse, conforme ele é aarastado. Se você olhar dentro do mouse poderá ver algo muito parecido com um diagrama dentro. A bolinha do mouse entra em contato com dois rolos, cada um se move para uma direção diferente. Quando o mouse se move sobre algo como um mousepad, ele manda as informações coletadas via sua porta serial para o sistema operacional, e com isso ele move a seta através da tela.

 

A simplicidade desse mecanismo de bolinha está em decadência. Os mouses óticos vieram para enterrar o mouse mecânico, que era muito sensível a sujeira, qualidade da superfície de uso, etc. Quantas vezes você ja nao teve de desmontar seu mouse mecânico e limpá-lo?

 

O mouse ótico usa uma luz de baixa intensidade (geralmente um LED vermelho) que fica sempre ativada, iluminando a superficie de arraste. Qualquer movimento mínimo é detetado pelo sensor que é enviado pela porta serial ou USB para computador.

 

:: Escolhendo um Mouse ::

 

Se você usa muito o computador no seu dia-a-dia, é provável que não demore para jogar seus mouses na lata do lixo. Os mouses que vem junto com computadores quando adquiridos, são em sua maioria muito ruins e em pouco tempo já estão indo para lata do lixo. Mesmo limpando com cuidado e tratando o mouse como um filho acontece o inevitável, o “falecimento” do mouse. Aqui você poderá ver como comprar um mouse.

 

Um fio comprido

 

Não compre um mouse com um fio curto. Os maioria dos fabricantes de mouse usam a medida de 2 metros, mas algumas marcas ruins vem com um fio curto e ruim de se usar.

 

Resolução

 

Resolução em um mouse é o pequeno movimento que mouse consegue distinguir, geralmente de um ponto por polegada. Conseqüentemente, um mouse de 300 dpi consegue detectar movimentos de 1/300th de uma polegada, enquanto o mouse de 525dpi consegue detectar movimentos de 1/525th de uma polegada. A maioria dos mouses modernos detectam de 350dpi e 600dpi, então quanto maior os dpi melhor vai ser a performance do mouse.

 

Número de botões

 

A maioria dos mouses para PCs tem dois botões, que são necessários para usar com o Windows, enquanto os mouses para Mac tem apenas um botão. Alguns mouses para PCs tem um terceiro botão entre os dois, ou além do terceiro temos mouses com uma “roda” que facilita a navegação nos softwares. Existem também alguns mouses com vários botões onde podemos gravar macros (Ex: Fazer um dos botões funcionar como control C(Cortar)e outro botão como control V(Colar)).

 

Interface

 

A interface seria que tipo de entrada o mouse tem, exemplo do USB, se você comprar um mouse USB e sua máquina apenas tiver entradas SERIAIS então você terá que comprar uma placa para entradas USB ou então trocar o mouse, esse é um cuidado principal para comprar um mouse novo.

 

Tamanho

 

Assim como com as roupas, você precisa comprar um mouse para o seu seu tamanho. Não escolha mouses que façam você esticar os seus dedos demais, o resultado de usar um mouse desse tipo por muito tempo causar tendinite. Escolha sempre mouses que encaixam na sua mão.

 

O Mouse Pad

 

A qualidade de um mouse pad pode mudar drasticamente o funcionamento do mesmo, isto porque alguns mouse pads contribuiem para a sujeira dentro dos mouses mecânicos assim prejudicando a performance do mouse. Um bom mouse pad é aquele que é fácil de se limpar e que deixe a bolinha do mouse andar facilmente sem travamentos.

 

:: Mouses Alternativos ::

 

Como os computadores estão difundidos em diversas áreas de trabalho, vários novos componentes são criados para ajudar em alguns trabalhos, aqui vai alguns deles:

 

Mesas digitalizadoras

 

As mesas digitalizadoras são mais usadas na área de desenho em geral, desde arquitetos até publicitários. Ela funciona como um “papel”, existe um dispositivo que é igual um pequeno caderno onde existe uma caneta que pode escrever sobre esse dispositivo e tudo que acontece na mesa vai para o programa que o computador está usando.

 

Touchpads

 

Originalmente projetados para laptops, para os desktops são fabricados na maioria das vezes junto com o teclado como no laptops. O seu funcionamento depende apenas de um toque de dedo na sua superfície que quando arrasta-se o dedo a seta do Windows se move. O nome vem de TOUCH que em inglês quer dizer TOCAR por isso o nome.

 

Trackballs

 

O trackball foi inventado antes do mouse. Quando Douglas Englebart (Criador do mouse) pensou no mouse original, ele imaginou um o trackball de cabeça pra baixo. O TrackBall é bem mais difícil de se usar, e é muito usado por pessoas que precisam usar o computador mas estão com tendinite.

 

 

Espero que tenham gostado !

 

Créditos:

É necessário se cadastrar para acessar o conteúdo.

[/b]

Link para o comentário
Compartilhar em outros sites

#Tópoico

Somente Uma Palavra FIXO !

Cara Manolo Demoro Qaunto Tempo ?

Não Sabi Disso Tudo Man !

Caraca Merece Fixo Comcerteza

Espero Ter Ajudado

Abrasz'

Do Titio -Agaiin!

It's like I'm sleepwalking

ySc6I.png

Back?

Link para o comentário
Compartilhar em outros sites

Ótimo tópico.

Esta bem explicado detalhe por detalhe,

desde 4000 AC ate 2004 DC. NUUS.

Deve ter demorado bastante para fazer.

Estou sem palavras tópico com imagens e tal's.

Na minha opinião merece fixo.

Com bastante conteúdo para todos lermos.

 

Obs: Se pegou ou copiou de algum lugar, as imagens, o texto, etc por favor poste os creditos.

nRtQ6.png

Link para o comentário
Compartilhar em outros sites

#Todo Mundo

 

Galera Obrigado Pelos Elogios

Senti Que Estava Faltando Uma Coisa Nessa Área

Então Resolvi Trazer Esse Tópico a Você

Não Só Estarei na VGZ Pra Postar Tópicos, Estarei Também Para Ajudar Os Membros

OBS : Os Créditos são de mim Mesmo

Link para o comentário
Compartilhar em outros sites

  • Velha Guarda Ex-Staffer

Ótimo tópico.

Bem organizado.

Lotado de conteúdo.

Creio que irá ajudar mesmo..

Se não tiver algo parecido merece um fixo.

Parabéns pelo trabalho.

Espero que faça mais.

META: tibia.png

Link para o comentário
Compartilhar em outros sites

#Topic

- Muito Organizado .

- Muito Conteúdo .

- Cores .

- ScreenShots .

- Muito bom, irá ajudar muitas pessoas (merece fixo)

 

#Coment

- Cara você é muito doente, deve ter levado uns 3 dias pra fazer este tópico.

- Só não vou da um +Agradecer porque não quero passar dos 78 agradecimentos.

- Obrigado por Compartilhar !

Link para o comentário
Compartilhar em outros sites

Nossa, que Super Tópico!!

Muito bom, com imagens,

tudo bem Explicao.Acho que fica

bem nítido pra quem ta lendo

concerteza Merece FIXO.

Continue assim, ajudando aos membros

dessa área,

Vlw por compartilhar!

Abraçz! :amor:

Link para o comentário
Compartilhar em outros sites

#Todo Mundo[/color][/b]

 

Galera Obrigado Pelos Elogios

Senti Que Estava Faltando Uma Coisa Nessa Área

Então Resolvi Trazer Esse Tópico a Você

Não Só Estarei na VGZ Pra Postar Tópicos, Estarei Também Para Ajudar Os Membros

OBS : Os Créditos são de mim Mesmo[/center]

 

Os créditos não são seus.

Os créditos são do site Museu do Computador.

Por favor coloque os devidos créditos. ;)

É necessário se cadastrar para acessar o conteúdo.

 

@Topico

 

O tópico está realmente muito bom mesmo.

Na área não tem nada parecido com esse tópico.

Super completo explicando várias coisas sobre o computador.

Irá ajudar com certeza, tomará que ganhe fixo.

Obg por compartilhar !

Kissies'z :amor:

Link para o comentário
Compartilhar em outros sites

Galera o Denke Mesmo disse Pra Mim Que Os Créditos São Dele

Ele É Dono de Lá !

 

@Topic

Adorei

Tópcio Bem Feito

Bem Organizado, Deve Ter Demorado Uns 5 Dias

Parábéns

Mereçe FIXOO

Alguem Fala Aew Pro Posseidon Fixa !

Link para o comentário
Compartilhar em outros sites

  • 1 mês depois...
Este tópico está impedido de receber novos posts.
 Compartilhar

×
×
  • Criar Novo...

Informação Importante

Nós fazemos uso de cookies no seu dispositivo para ajudar a tornar este site melhor. Você pode ajustar suas configurações de cookies , caso contrário, vamos supor que você está bem para continuar.