A história do computador mostra que o homem, curioso e ambicioso por natureza, sempre procurou melhorar a sua maneira de calcular, para limitar os erros e facilitar a sua vida, economizando tempo.
O logaritmo, também chamado de ábaco, foi inventado no ano 700 e desde então, tem sido utilizado em todos os países.
A invenção do logaritmo é atribuída ao escocês John Napier (1550-1617). Em 1614, ele demonstrou que a multiplicação e a divisão podiam juntar-se a uma série de adições. Esta descoberta levou, em 1620, à invenção da régua de cálculo. No entanto, o verdadeiro pai da teoria dos logaritmos é Mohamed Ibn Moussa Al-Khawarezmi, um cientista árabe nascido na cidade persa de Khawarezm. Este cientista também desenvolveu a Álgebra, termo que provém do árabe Al-Jabr, que significa compensação, o que implica em "buscar a variável X desconhecida para poder equilibrar os resultados dos cálculos”.
Em 1623, William Schickard inventou a primeira máquina de calcular mecânica. Em 1642, Blaise Pascal criou a máquina de aritmética (chamada Pascaline), capaz de efetuar adições e subtrações, destinada a ajudar seu pai, um coletor de impostos. Em 1673, Gottfried Wilhelm Von Leibniz acrescentou a multiplicação e a divisão à Pascaline. Em 1834, Charles Babbage inventa a máquina diferencial, que permite avaliar funções. Ao saber que uma máquina de tecelagem foi programada com placas perfuradas, ele decidiu construir uma máquina de calcular que explorou esta ideia revolucionária. Foi em 1820 que apareceram as primeiras calculadoras mecânicas com as quatro funções: adição, subtração, multiplicação e divisão. Em 1885, estas funções foram logo complementadas com um teclado para introduzir os dados. Os motores elétricos substituíram rapidamente as manivelas.
Em 1938, Konrad Zuse inventou um computador que funcionava graças à retransmissões eletromecânicas, o Z3. Este computador é o primeiro a utilizar o sistema binário ao invés do decimal. Em 1937, Howard Aiken aperfeiçou um computador programável que media 17 m de comprimento e 2,5 m de altura, permitindo calcular 5 vezes mais rápido que o homem, é o Mark I da IBM, constituído por 3.300 engrenagens, 1.400 comutadores e está ligado com 800 Km de fio elétrico. Em 1947, o Mark II foi construído e suas engrenagens foram substituídas por componentes eletrônicos.
Em 1942, surgiu o ABC (Atanasoff Berry Computer), devido ao nome dos seus inventores, J.V. Atanasoff e C. Berry. Em 1943, o primeiro computador sem peças mecânicas foi criado graças a J.Mauchly e J.Presper Eckert, o ENIAC (Electronic Numerical Integrator And Computer). Ele é composto por 18.000 lâmpadas, ocupando 1.500 m². Se destaque fica por conta do seu uso nos cálculos que serviram para aperfeiçoar a bomba H. A principal desvantagem residia na sua programação, ou seja, o ENIAC só funcionava manualmente, com roteador ou cabo.
O primeiro erro informático deve-se a um banal inseto que, atraído pelo calor, foi parar em uma das lâmpadas provocando um curto-circuito. Assim, o termo inglês para inseto - bug - deu origem ao termo que designa um erro informático, até hoje. Os tubos transmissores necessitavam de uma grande quantidade de energia elétrica, que liberava muito calor. Esta lacuna foi sanada em 1946 com o EDVAC (Electronic Discrete Variable Computer) que permitiu, então, armazenar os programas na memória (1.024 palavras na memória central e 20.000 na memória magnética).
Em 1948, o transistor foi criado pela firma Bell Labs (graças aos engenheiros John Bardeen, Walter Brattain e William Shockley). Ele permitiu, já nos anos 1950, que os computadores fossem menores, menos ávidos em energia elétrica e, consequentemente, mais baratos, revolucionando a história do computador.
O circuito integrado, aperfeiçoado em 1958 pela Texas Instruments, permite reduzir ainda mais a dimensão e o custo dos computadores, integrando em um mesmo circuito eletrônico vários transístores sem utilizar fios elétricos.
Em 1960, foi criado o IBM 7000, primeiro computador à base de transistor. Em 1964, surgiu o IBM 360, juntamente com a chegada do DEC PDP-8.
Foi em 1971 que surgiu o primeiro microcomputador, o Kenback 1, com memória de 256 bytes. Na mesma época, a Hewlett Packard (HP) comercializou a calculadora HP-35. O processador 8008 da Intel (que permitia processar 8 bits simultaneamente) apareceu em 1972. Em 1973, o processador 8080 da Intel equipou os primeiros microcomputadores, o Micral e o Altair 8800, com 256 bytes de memória. No final de 1973, a Intel comercializou processadores 10 vezes mais rápidos do que o anterior (Intel 8080), comportando 64 KB de memória. Em 1976, Steve Wozniak e Steve Jobs criaram a máquina chamada Apple I em uma garagem. Este computador possuía um teclado, um microprocessador 1 MHz, 4 KB de RAM e 1 KB de memória de vídeo. Os dois amigos não sabiam que nome dar ao computador, quando Steve Jobs, vendo uma macieira no jardim, decidiu chamar o computador Apple (Maçã). Em 1981, a IBM comercializou o primeiro PC composto de um processador 8088 cadenciado a 4.77 MHz.
Hoje em dia, é muito difícil seguir a evolução do computador. Ela segue a lei de Moore (Intel©), ou seja, pode-se colocar 4 vezes mais transístores em uma micro plaqueta a cada 3 anos.
Foto: © Mark Farias - Unsplash.