terça-feira, 5 de junho de 2012

Discos SCSI

SCSI (pronuncia-se "scãzi"), sigla de Small Computer System Interface, é uma tecnologia que permite ao usuário conectar uma larga gama de periféricos, tais como discos rígidos, unidades CD-ROM, impressoras e scanners.
(HD com Entrada SCSI)
Existe uma grande variedade de padrões de dispositivos SCSI, sendo que estes inicialmente usavam interfaces paralelas. Alguns exemplos: SCSI-1 (barramento de 8 bits, clock de 5 MHz e taxa de transferência de 5 MB/s), Fast SCSI (barramento de 8 bits, clock de 10 MHz e taxa de transferência de 10 MB/s), Ultra SCSI (barramento de 8 bits, clock de 20 MHz e taxa de transferência de 20 MB/s), Ultra2 Wide SCSI (barramento de 16 bits, clock de 40 MHz e taxa de transferência de 80 MB/s) e Ultra-320 SCSI (barramento de 16 bits, clock de 80 MHz DDR e taxa de transferência de 320 MB/s).
SCSI é mais comumente usado em discos rígidos e unidades de fita, mas também pode ser conectado em uma grande gama de dispositivos, incluindo scanners e drivers de CD.
Posteriormente foram também criadas interfaces seriais, como a SSA (Serial Storage Architecture), com taxa de transferência de 40 MB/s e SAS (Serial Attached SCSI) de 300 MB/s, também chamado de SASCSI.



Como Funciona?
Para que um dispositivo SCSI funcione em seu computador é necessário ter uma equipamento que realize a interface entre a máquina e o hardware SCSI. Essa interface é chamada de “Host Adapter”.
O máximo de conexões permitidas no padrão SCSI é de 15 dispositivos que são identificados por um código binário, chamado ID SCSI. Só é permitida a transmissão entre dois dispositivos de cada vez.

quarta-feira, 16 de maio de 2012

Hierarquia de Memórias

O termo Hierarquia de memória se refere a uma classificação de tipos de memória em função de desempenho. Essa classificação geralmente segue duas dimensões: tamanho e velocidade de acesso, sendo tradicionalmente representada por uma pirâmide.
A base da pirâmide representa dispositivos de armazenamento de massa, de baixo custo por byte e, comparativamente, baixa velocidade de acesso. O preço baixo faz com que esse tipo de armazenamento esteja disponível em grandes volumes. Um exemplo é o DVD.
No topo da pirâmide encontram-se dispositivos extremamente velozes e, ao mesmo tempo, de custo elevado. Exemplo são células de memória 6T usadas na construção de memória cache. Devido ao alto preço, esse tipo de memória aparece em máquinas em pequenas quantidades.
Imagine uma pessoa responsável pela execução de algumas tarefas de uma empresa. Este trabalhador fica em sua mesa buscando informações e fazendo contas, assim como um processador. Imagine então que todas as informações estão armazenadas no depósito da empresa. Esse depósito poderemos comparar com um disco rígido no computador. Seria interessante então que este funcionário buscasse os documentos que ele mais utiliza e os deixasse em sua própria sala, dentro de uma armário. Este armário pode ser comparado com uma memória RAM. O acesso ao armário é muito mais rápido que o acesso ao depósito.
Tentando melhorar ainda sua produtividade, este mesmo trabalhador poderia guardar em suas gavetas os documentos que ele consulta frequentemente. A gaveta estaria aqui fazendo o papel de uma memória cache L2. Neste acesso o nosso trabalhador nem mesmo precisa se levantar para buscar os dados. Guardada as devidas proporções, é com essa agilidade que computador acessa sua memória cache L2. Como última tentativa de se tornar mais produtivo, esse mesmo trabalhador decide deixar sobre sua mesa algumas folhas que ele precisa ler com maior frequencia. Sua mesa seria a cache L1. A menor de todas, por ser apenas uma mesa cara, e a mais rápida.
Por fim, nosso trabalhador guarda algumas informações em sua própria cabeça. Essas são consultadas quase que instantâneamente. Este primeiro nível de armazenamento pode ser comparado com registradores.

É importante observar que a leitura de um dado da memória RAM pode seguir um caminho direto aos registradores da CPU, ao longo do qual cópias serão realizadas nos diferentes níveis de cache. De modo similar, uma instrução OUT pode transferir o conteúdo de um registrador da CPU diretamente a uma porta de saída, para um dispositivo como um disco rígido. Assim, ao contrário do exemplo figurado acima, um dado não necessariamente trafega de nível em nível da hierarquia até chegar ao destino.

Memórias RAM Estática e Dinâmica e o Funcionamento de Memórias

Primeiramente vamos entender como funcionam as Memorias RAM Estática e Dinâmica. (SRAM e DRAM)


Seu computador provavelmente usa tanto memória RAM estática como dinâmica ao mesmo tempo, mas para funções diferentes, devido à diferença de custo entre elas. Se você entender como funcionam os chips de memória RAM dinâmica e estática por dentro, fica fácil perceber por que existe a diferença de custo, e você também vai entender o porquê dos nomes.
A RAM dinâmica é o tipo de memória mais comum em uso hoje. Dentro de um chip de RAM dinâmica, cada célula de memória guarda um bit de informação e é composta por duas partes: um transistor e um capacitor. Esses transistores e capacitores são muito pequenos para que milhões deles caibam em um único chip de memória. O capacitor armazena um bit de informação: um 0 ou um 1 (veja Como funcionam os bits e os bytes para mais informações sobre bits). O transistor funciona como uma chave que permite que o circuito de controle do chip de memória leia o capacitor ou mude seu estado.
O capacitor pode ser comparado a um pequeno balde que armazena elétrons. Para armazenar um 1 na célula de memória, o balde se enche de elétrons. Para armazenar um 0, ele é esvaziado. O problema é que o balde do capacitor tem um vazamento. Um balde cheio é esvaziado em questão de poucos milissegundos. Portanto, para a memória dinâmica funcionar, o processador ou o controlador de memória tem que entrar em cena e recarregar todos os capacitores que armazenam um 1 antes que percam a carga. Para fazer isto, o controlador da memória lê a memória e então reescreve seu conteúdo. Esta operação de atualização (conhecida como refrescamento) acontece automaticamente milhares de vezes por segundo.
O nome da RAM dinâmica vem desta operação de refrescamento. A RAM dinâmica precisa ser atualizada dinamicamente o tempo todo senão ela "esquece" o que está armazenando. O ponto negativo desta atualização é que leva tempo e diminui a velocidade da memória.
A RAM estática usa uma tecnologia totalmente diferente. Na RAM estática, um tipo de circuito biestável armazena cada bit de memória (veja Como funciona a lógica booleana para mais informações). O flip-flop é composto por 4 ou 6 transistores e fios, mas não precisa ser refrescado. Por isto, a RAM estática é muito mais rápida do que a dinâmica. Mas, como tem mais componentes, uma célula de memória estática ocupa muito mais espaço em um chip do que uma célula da memória dinâmica. Portanto, temos menos memória por chip, fazendo a RAM estática ser muito mais cara.
Ou seja, a RAM estática é rápida e cara e a dinâmica é mais barata e mais lenta. É por isto que a RAM estática é usada no cache, que depende de velocidade, enquanto a RAM dinâmica constitui os grandes sistemas de memória RAM do sistema.
Funcionamento de Memórias

Segundo vamos entender extamente o que é uma memória RAM.

O termo é Random Access Memory, isto é, memória de acesso aleatório. Isso implica que esta memória pode acessar os dados de forma não sequencial (ao contrário de uma fita cassete, por exemplo), acelerando em muito os processos de leitura e escrita. Qualquer setor livre ou já preenchido é imediatamente encontrado e processado.


Entretanto, ao contrário de um disco rígido, a memória RAM é totalmente volátil, o que significa que todos os dados armazenados podem ser perdidos quando o dispositivo não é devidamente alimentado. Mas se há este contratempo, saiba que ela é milhares de vezes mais rápida que a varredura do disco físico.


Voltando ao Assunto...


Tudo começa com os cálculos da CPU (unidade de processamento central, ou processador), que são realmente volumosos.


Todos estes dados processados podem ser requisitados para uma operação futura, entrando em cena a necessidade de um componente que armazene temporariamente as informações. Temos então as memórias cache, RAM e o próprio disco rígido atuando como um único sistema.


Como o volume de dados é gigantesco (passando da ordem de bilhões de bytes por segundo), é necessária, em primeiro lugar, uma memória extremamente rápida, capaz de acompanhar este ritmo frenético. A solução para isso é a memória cache (um tipo de memória estática, como já vimos), que fica acoplada diretamente no processador, fornecendo um espaço de trabalho com o mínimo de latência possível.




Esta memória cache também é dividida em vários níveis (tais como L1, L2, L3 e assim por diante), sendo L1 a mais próxima do processador e as demais as mais afastadas, com capacidades maiores e maiores latências, mas ainda assim com um canal direto de comunicação, permitindo acesso praticamente imediato aos dados.


Mas pode acontecer da memória sobrecarregar?
Sim!
Então pode acontecer outras adaptações como por exemplo o "Plano B" que normalmente é o que acontece com todos computaores que acabam usando a memória virtual do Hard - Disk fazendo com que os travamentos por causa da memória sejem amenizados.

quinta-feira, 3 de maio de 2012

Eai Meninos da 2srt ou demais ...
Aqui está um questionario sobre o Texto acima !

  1. 1-      Oque são dispositivo de entrada e saída?
    2-      Porque o modem é um dispositivo de entrada e saída?
    3-      Como ocorre a transformação dos elementos físicos utilizados pelo ser humano ou máquina em informação digital?
    4-      Dê 8 exemplos de dispositivos de entrada e saída.
    5-      A tela touch screen  é um dispositivo de:
    ( )Entrada
    ( )Saída
    ( )Entrada e saída

    Agora Quem respondeu , mande a Resposta para guigui_sophia@hotmail.com ou Alunos,  Mandem a resposta no email da Pedreira ! Boa Sorte ;D

quarta-feira, 2 de maio de 2012

Dispositivos de Entrada e de Saida


Dispositivos de Entrada e Saída

Entende-se dispositivo de entrada como um sistema que permite introduzir dados de fora de um computador ou outro sistema informático com o objetivo de processá-los ou de servirem para controle do processamento. Ao contrário, dispositivo de saída é qualquer sistema que permite ao computador disponibilizar informação para fora para que seja posteriormente utilizada. No entanto, por esta definição considera-se uma interface de rede ou um modem como um dispositivo de introdução e saída de dados. Na realidade, considera-se que um dispositivo de entrada ou saída de dados converte elementos físicos utilizados pelo ser humano ou máquina, em informação digital utilizável pelo computador propriamente dito. Considera-se, por exemplo, um teclado, ou um sensor de temperatura como um dispositivo de entrada de dados, pois o teclado converte a ação do utilizar sobre determinada tecla num sinal digital correspondente. O sensor de temperatura converte uma grandeza mensurável em graus (celcius ou fernheit) num valor digital correspondente.
Apresentam-se em muitos tipos e funções, as abordagens de estudo poderiam ser muitas e complexas, mas neste caso faremos talvez a mais simples e menos complexa e que é enumerar alguns e descrever a seu funcionamento genérico e situações de utilização.
http://digitalbooktopo.files.wordpress.com/2011/09/teclado.jpg
Teclado é um dispositivo de entrada

http://www.papelariadistrito.com.br/img/caixasom.jpg
A caixa de som já é um exemplo de dispositivo de saída, pois ela transmite algo digital para algo físico, como por exemplo NÓS.

terça-feira, 13 de março de 2012

História dos Computadores

Hoje em dia, os computadores estão presentes em nossa vida de uma forma  nunca vista anteriormente. Sejam em casa, na escola, na faculdade, na empresa, ou em qualquer outro lugar, eles estão sempre entre nós. Ao contrário do que parece, a computação não surgiu nos últimos anos ou décadas, mas sim há mais de 7 mil anos atrás.

Por este motivo, desenvolvemos este artigo, que conta a história e a evolução da computação e dos computadores em geral, desde a antiguidade até os dias de hoje. Desta maneira, você poderá ficar por dentro das principais formas de computação utilizadas pela humanidade. O texto está dividido em 4 partes e irá abordar temas diversos como ábaco: máquina de pascal, lógica de Boole, computadores mainframes, Steve Jobs, Bill Gates, entre vários outros.

Para começar, vamos falar sobre uma forma de calcular muito simples mas que também foi muito útil nas culturas antigas: o ábaco.

Ábaco, a primeira calculadora da história


Exemplo de ábaco russoMuitos povos da antiguidade utilizavam o ábaco para a realização de cálculos do dia-a-dia, principalmente nas áreas de comercio de mercadorias e desenvolvimento de construções civis. Ele pode ser considerado como a primeira máquina desenvolvida para cálculo, pois utilizava um sistema bastante simples, mas também muito eficiente na resolução de problemas matemáticos. É basicamente um conjunto de varetas de forma paralela, que contém pequenas bolas que realizam a contagem.

Seu primeiro registro é datado no ano de 5500 a.c., pelos povos que constituíam a Mesopotâmia. Contudo, o ábaco também foi usado posteriormente por muitas outras culturas: Babilônia, Egito, Grécia, Roma, Índia, China, Japão, etc. Cada um destes povos possui uma versão de específica desta máquina, entretanto, preservando a sua essência original. Seu nome roma antiga era "Calculus", termo de onde a palavra cálcuo foi derivada.

O fato deste instrumento ter sido difundido entre todas estas culturas se deve principalmente a dois fatores. O contato entre povos distintos é o primeiro deles, o que fez com que o ábaco fosse copiado de um lugar para vários outros no mundo. Por outro lado, a necessidade da representação matemática fez com os sistemas de contagens utilizados no cotidiano fossem implementados de forma mais prática.

Sobre as operações matemáticas, ele é bastante útil para a soma e subtração. Já a multiplicação e divisão, o ábaco comum não é muito recomendado, somente algumas versões mais complexas que padrão.

Régua de Cálculo

Durante vários séculos, o ábaco foi sendo desenvolvido e aperfeiçoado, sendo a principal ferramenta de cálculo por muito tempo. Entretanto, os principais intelectuais da época do renascimento necessitavam descobrir maneiras mais eficientes de efetuar cálculos. Logo, em 1638, depois de Cristo, um padre inglês chamado William Oughtred , criou uma tabela muito interessante para a realização de multiplicações muito grandes. A base de sua invenção foram as pesquisas sobre logaritmos, realizadas pelo escocês John Napier.
Régua de Cálculo
Até este momento, a multiplicação de números muito grandes era algo muito trabalhoso e demorado de ser realizado. Porém, Napier descobriu várias propriedades matemáticas interessantes e as deu o nome de logaritmos.  Após, disso, multiplicar valores se tornou uma tarefa mais simples.

O mecanismo do William era consistido de um régua que já possuía uma boa quantidade de valores pré-calculados, organizados em forma que os resultados fossem acessados automaticamente. Uma espécie de ponteiro indicava o resultado do valor desejado.

Máquina de Pascal

Apesar da régua de cálculo de William Oughtred ser útil, os valores presentes nela ainda eram pre-definidos, o que não funcionaria  para calcular números que não estivessem presentes na tábua. Pouco tempo depois, em 1642, o matemático francês Bleise Pascal desenvolveu o que pode ser chamado da primeira calculadora mecânica da história, a máquina de Pascal.
Máquina de Pascal


Seu funcionamento era baseado no uso de rodas interligadas, que giravam na realização dos cálculos. A ideia inicial de Pascal era desenvolver uma máquina que realizasse as quatro operações matemáticas básicas, o que não aconteceu na prática, pois ela era capaz apenas de somar e subtrair. Por esse motivo, ela não foi muito bem acolhida na época.

Alguns anos após a Máquina de Pascal, em 1672, o alemão Gottfried Leibnitz conseguiu o que pascal não tinha conseguido, criar uma calculadora que efetuava a soma e a divisão, além da raiz quadrada.

O Advento da programação funcional

Em todas as máquinas e mecanismos mostrados na parte 1, as operações já estavam previamente programadas, não sendo possível inserir novas funções. Contudo, no ano de 1801, o costureiro Joseph Marie Jacquard desenvolveu um sistema muito interessante nesta área.

A indústria de Jaquard atuava no ramo de desenhos em tecidos, tarefa que ocupava muito tempo de trabalho manual. Vendo este problema, Joseph construiu a primeira máquina realmente programável, com o objetivo de recortar os tecidos de forma automática.

Tal mecanismo foi chamado como Tear Programável, pois aceitava cartões perfuráveis com entrada do sistema. Desta maneira, Jaquard perfurava o cartão com a desenho desejado, e a máquina o reproduzia no tecido. A partir desse momento, muitos esquemas foram influenciados pelo Tear, incluindo o que vamos explicar logo abaixo.

A Máquina de Diferenças e o Engenho Analítico


No ano de 1822, foi publicado um artigo científico que prometia revolucionar tudo o que existia até o exato momento, no ramo do cálculo eletrônico. O seu autor, Charles Babbage, afirmou que sua máquina era capaz de calcular funções de diversas naturezas (trigonometria, logaritmos), de forma muito simples. Este projeto possuía o nome de Máquina de Diferenças.
Máquina de Diferenças
Houve um grande boom na época por causa disso, pois as ideias aplicadas no projeto estavam muito a frente do seu tempo. Por causa de limitações técnicas e financeiras, a Máquina de Diferenças só pôde ser implementada muitos anos depois.

Engenho AnalíticoApós um período, no ano de 1837, Babbage lançou uma nova máquina, chamado de Engenho Analítico (Máquina Analítica). Ela aproveitava todos os conceitos do Tear Programável, como o uso dos cartões.  Além disso, instruções e comandos também poderiam ser informados pelos cartões, fazendo uso de registradores primitivos. A precisão chegava a 50 casas decimais.

Novamente, ela não pôde ser implementada naquela época, pelo mesmo motivo de limitações técnicas e financeiras. Simplesmente a tecnologia existente não era avançada o suficiente   para a execução do projeto. Contudo, a contribuição teórica de Babbage foi tão grande, que muitas de suas idéias são usadas até hoje.

A Teoria de Boole

Se Babbage é o avô da computador do ponto de vista de arquitetura de hardware, o matemático George Boole pode ser considerado o pai da lógica moderna. Boole desenvolveu, em 1847, um sistema lógico que reduzia a representação de valores através de dois algarismos: 0 ou 1.

Em sua teoria, o número “1” tem significados como: ativo, ligado, existente, verdadeiro. Por outro lado, o “O” representava o inverso: não ativo, desligado, não existente, falso.  Para representar valores intermediários, como “mais ou menos” ativo, é possível usar dois ou mais algarismos(bits) para a representação. Por exemplo:
  • 00 – desligado
  • 01 – carga baixa
  • 10 – carga moderada
  • 11 – carga alta

Todo o sistema lógico dos computadores atuais, inclusive o do qual você está usando, usa a teoria de Boole de forma prática. Para mais informações sobre o assunto, visite o seguinte artigo.
 
Máquina de Hollerith

O conceito de cartões desenvolvidos na máquina de Tear Programável também foi muito útil para a realização do censo de 1890, nos estados unidos. Nessa ocasião, Hermann Hollerith desenvolveu uma máquina que acelerava todo o processo de computação dos dados computados.

Ao invés da clássica caneta para marcar X em “sim” e “não” para perguntas como sexo, idade, os agentes do censo perfuravam estas opções nos cartões. Uma vez os dados coletados, o processo de computação da informação demorou aproximadamente 1/3 do comum.  Foi praticamente uma revolução na maneira de se coletar dados.
Máquina de Hollerith

Aproveitando todo o sucesso ocasionado por sua máquina, Hollerith fundou sua própria empresa, a Tabulation Machine Company, no ano de 1896. Após algumas fusões com outras empresas e anos no comando do empreendimento, Hoolerith veio a falecer. Quando um substituto assumiu o seu lugar, em 1916,  o nome da empresa foi alterado para Internacional Business Machine, a mundialmente famosa IBM.

Computadores Pré-modernos 

Na primeira metade do século XX, várias computadores mecânicos foram desenvolvidos, sendo que com o passar do tempo, componentes eletrônicos foram sendo adicionados aos projetos. Em 1931, Vannevar Bush implementou um computador com uma arquitetura binária propriamente dita, usando os bits 0 e 1.  A base decimal exigia que a eletricidade assumisse 10 voltagens diferentes, o que era muito difícil de ser controlado. Por isso, Bush fez uso da lógica de Boole, onde somente dois níveis de voltagem já eram suficientes.

A segunda guerra mundial foi um grande incentivo no desenvolvimento de computadores, visto que as máquinas cada vez mais estavam se tornando mais úteis em tarefas de desencriptação de mensagens inimigas e criação de novas armas mais inteligentes.  Entre os projetos desenvolvidos neste período, o que mais se destacou foi o Mark I, no ano de 1944, criado pela Universidade de Harvard (EUA), e o Colossus, em 1946, criado por Allan Turing.
Painel lateral do Mark I

Sendo uma das figuras mais importantes da computação, Allan Turing focou sua pesquisa na descoberta de problemas formais e práticos que poderiam ser resolvidos através de computadores. Para aqueles que apresentavam solução, foi criada a famosa teoria da “Máquina de Turing”, que através de um número finito de operações, resolvia problemas computacionais de diversas ordens diferentes. A máquina de Turing foi colocada em prática através do Computador Colosssus, citado acima.

Computação moderna 

A computação moderna pode ser definida pelo uso de computadores digitais, que não utilizam componentes analógicos com base de seu funcionamento. Ela pode ser dividida em várias gerações:

Primeira Geração (1946 - 1959) 

A primeira geração de computadores modernos tinha com principal característica o uso de válvulas eletrônicas, possuindo dimensões enormes. Eles utilizavam quilômetros de fios, chegando a atingir temperaturas muito elevadas, o que frequentemente causava problemas de funcionamento.  Normalmente, todos os programas eram escritos diretamente na linguagem de máquina.  Existiram várias máquinas dessa época, contudo, vamos focar no ENIAC, que foi a famosa de todas.

ENIAC 

No ano de 1946, ocorreu uma revolução no mundo da computação, como o lançamento do computador ENIAC (Electrical Numerical Integrator and Calculator), desenvolvido pelos cientistas norte-americanos John Eckert e John Mauchly. Esta máquina era em torno de 1000 vezes mais rápida que qualquer outra que existia na época.
Um pedaço de um computador ENIAC

A principal inovação nesta máquina é a computação digital, muito superior aos projetos mecânicos-analógicos desenvolvidos até o exato momento. Com o ENIAC, a maioria das operações eram realizadas sem a necessidade de movimentar peças de forma manual, mas sim somente pela entrada de dados no painel de controle. Cada operação podia ser acessada através de configurações padrões de chaves e switches.

As dimensões desta máquina são muito grandes, com aproximadamente 25 metros de comprimento por 5,50 m de altura. O seu peso total era de 30 toneladas. Esse valor representa algo como um andar inteiro de um prédio.  

Segunda Geração (1959 - 1964) 

Na segunda geração, houve a substituição das  válvulas eletrônicas por transístores, o que diminiu em muito tamanho do hardware. A tecnologia de circuitos impressos também foi criada, assim evitando que os fios e cabos elétricos ficassem espalhados por todo lugar. É possível dividir os computadores desta geração em duas grandes categorias: supercomputadores e mini-computadores.

IBM 7030IBM 7030 

O IBM 7030, também conhecido por Strech, foi o primeiro supercomputador lançado na segunda geração, desenvolvido pela IBM. Seu tamanho era bem reduzido comparado com máquinas como o ENIAC, podendo ocupar somente uma sala comum. Ele era utilzado por grandes companhias, custando em torno de 13 milhões de dólares na época. 

Esta máquina executava cálculos na casa dos microssegundos, o que permitia até um milhão de operações por segundo.  Desta maneira, um novo patamar de velocidade foi atingido. Comparado com os da primeira geração, os supercomputadores, como o IBM 7030, eram mais confiáveis.

Várias linguagens foram desenvolvidas para os computadores de segunda geração, como Fortran, Cobol e Algol. Assim, softwares já poderiam ser criados com mais facilidade Muitos Mainframes (modo como as máquinas dessa época são chamadas) ainda estão em funcionamento em várias empresas no dias de hoje, como na própria IBM.


PDP-8 


PDP-8 foi um dos mini-computadores mais conhecidos da segunda geração. Basicamente, foi uma versão mais basica do supercomputador, sendo mais atrativo do ponto de vista financeiro (centenas de milhões de dólares).  Eram menores do que os supercomputadores, mas mesmo assim ainda ocupavam um bom espaço no cômodo.

Terceira geração (1964 – 1970) 

Painel de controle do IBM 360Os computadores desta geração foram conhecidos pelo uso de circuitos integrados, ou seja, permitiram que uma mesma placa armazenasse vários circuitos que se comunicavam com hardwares distintos ao mesmo tempo. Desta maneira, as máquinas se tornaram mais velozes, com um número maior de funcionalidades. O preço também diminuiu consideravelmente.

Um dos principais exemplos da Terceira geração é o IBM 360/91, lançado em 1967, sendo um grande sucesso em vendas na época. Esta máquina já trabalhava com dispositivos de entrada e saída modernos para a época, como discos e fitas de armazenamento, além da possibilidade de imprimir todos os resultados em papel. 

O IBM 360/91 foi um dos primeiros a permitir programação da CPU por microcódigo, ou seja, as operações usadas por um processador qualquer poderiam ser gravadas através de softwares, sem a necessidade do projetar todo o circuito de forma manual.

No final deste período, houve um preocupação com a falta de qualidade nos desenvolvimento de softwares, visto que grande parte das empresas estavam só focadas no hardware.


Quarta geração (1970 até hoje) 

A quarta geração é conhecida pelo advento dos microprocessadores e computadores pessoais, com a redução drástica do tamanho e preço das máquinas. As CPUs atingiram o incrível patamar de bilhões de operações por segundo, permitindo que muitas tarefas fossem implementadas agora. Os circuitos acabaram se tornado ainda mais integrados e menores, o que permitiu o desenvolvimento dos microprocessadores. Quanto mais o tempo foi passando, mais fácil foi comprar um computador pessoal. Nesta era, os softwares e sistemas se tornaram tão importantes quanto o hardware.

Altair 8800 

O Altair 8800, lançado em 1975, revolucionou tudo o que era conhecido como computador até aquela época. Com um tamanho que cabia facilmente em uma mesa e um formato retangular, também era muito mais rápido que os computadores anteriores. O projeto usava o processador 8080 da Intel, fato que propiciou todo esse desempenho.
Altair 8800

Com todo o boom do Altair, um jovem programador chamado Bill Gates se interessou pela máquina, criando a sua linguagem de programação Altair Basic. O Altair funcionava através de cartões de entradas e saída, sem uma interface gráfica propriamente dita.
 
Apple, Lisa e Macintosh 


MacintoshVendo o sucesso do Altair, Steve Jobs (fundador da Apple) sentiu que ainda faltava algo no projeto: apesar de suas funcionalidades, este computador não era fácil de ser utilizado por pessoas comuns.  

Steve sempre foi conhecido por ter um lado artístico apurado, portanto, em sua opinião, um computador deveria representar de maneira gráfica o seu funcionamento, ao contrário de luzes que acendiam e apagavam. Por isso, o Apple I, lançado em 1976, pode ser considerado como o primeiro computador pessoal, pois acompanhava um pequeno monitor gráfico que exibia o que estava acontecendo no PC. Como o sucesso da máquina foi muito grande, em 1979 foi lançado o Apple II, que seguia a mesma ideia.

Seguindo na mesma linha, com os computadores Lisa (1983)  e Macintosh(1984), foram os primeiros a usarem o Mouse e possuírem a interface gráfica como nós conhecemos hoje em dia, com pastas, menus e área de trabalho. Não é um preciso dizer que esses PC tiveram um sucesso estrondoso, vendendo um número enorme de máquinas. 


Microsoft e os processadores Intel                                             

Paralelamente a Apple, Bill Gates fundou a Microsoft, que também desenvolvia computadores principiais. No começo de sua existência, no final dos anos 70 e até meados dos anos 80, Gates usou as ideias contidas nas outras máquinas para construir a suas próprias. Utilizando processadores 8086 da Intel, o primeiro sistema operacional da Microsof, MS-DOS, estava muito aquém dos desenvolvidos por Steve Jobs. Por esse motivo, Bill Gates acabou criando uma parceria com Jobs, e após algum tempo, copiou toda a tecnologia gráfica do Macintosh para o seu novo sistema operacional, o Windows.

Desta forma, em meados dos anos 80, O Machintosh e o Windows se tornaram fortes concorrentes. Com a demisão de Steve Jobs da Apple, a empresa acabou muito enfraquecida. Assim, a Microsoft acabou se tornando a líder do mercado de computadores pessoais. Desta aquela época, vários processadores da Intel foram lançados, acompanhados de várias versões de Windows. Entre os modelos da  Intel, podemos citar: 8086, 286, 386, 486, Pentium, Pentium 2, Pentium 3, Pentium 4, Core 2 Duo, i7. A AMD entrou no ramo de processadores em 1993, com o K5, lançando posteriormente k6, k7, Atlhon, Duron, Sempron, entre outros.
Processadores Pentium

Todos os computadores pessoais novos que são lançados atualmente, são bastante derivados das idéias criadas pela Apple e pela Microsoft.

Multi-core


Uma das principais tendências dos últimos anos do mercado de desktops é o chamado “multi-core”, que consiste em vários processadores trabalhando paralelamente. Assim, as tarefas podem ser divididas e executadas de maneira mais eficiente. No início da década de 2000, os transístores usados no processador já estavam muito pequenos, causando um aquecimento maior que o normal. Desta maneira, foi necessário dividir a CPU em vários núcleos. Para mais informações, clique aqui.
 
Computação de Bolso 

IPhoneFinalizando este artigo, vamos falar sobre a computação de bolso, que está cada vez mais presentes nas nossas vidas. De alguns anos para cá, cada vez mais computadores móveis são lançados no mercado, os quais podem ser carregados dentro do bolso, por isso o seu nome.

Entre estes dispositivos, podemos citar primeiramente os celulares, que cada vez mais executam funções existentes nos computadores, possuindo sistemas operacionais completos. Além deles, Palmtops, pendrives, mp3-9, câmeras fotográficas, tvs portáteis. 

Na verdade, a principal tendência do futuro, que já está ocorrendo agora,  é a união de muitas funcionalidades em um mesmo aparelho. Por isso, após alguns anos, vai ser muito comum que as pessoas tenham somente um único dispositivo portátil, que irá executar todas as tarefas desejadas. O IPhone, da Apple, é o aparelho portátil que se mais aproxima deste dispositivo único.