A (real) evolução da TI & PC desktop, nestes últimos 30 anos!

Visão geral

Uma crença geral em relação a Tecnologia da Informação, é de que “as coisas mudam rapidamente” e dependendo de um curto intervalo de tempo, uma determinada tecnologia (ou produto resultante) poderá ser considerada obsoleta, para os padrões atuais. Será mesmo? De fato, a TI “evolui constantemente” e neste exato momento, milhares de códigos estão sendo escritos e reescritos, para o surgimento de novos softwares e serviços, bem como o desenvolvimento de novas peças e componentes de hardware.

Mas ao contrário do que muitos pensam, esta evolução é mais lenta e gradual, do que simplesmente abrupta e disruptiva. Apesar de termos presenciado muitas transformações nestes últimos anos, a base conceitual da computação pessoal – na qual um PC desktop moderno, dotado de boas especificações de hardware, sistemas operacionais modernos e aplicações gráficas para o uso em propósitos gerais – continua existindo tal como sempre foi, há pelo menos… 30 anos!

Eis, a proposta deste artigo: analisar o cenário atual da Tecnologia da Computação e a partir dele, realizar comparativos com outros tempos e assim, conferir se realmente houve de fato (ou não), as grandes mudanças de impacto que aconteceram na computação pessoal.

Até 10 anos atrás…

Se antes, 10 anos era uma eternidade para a TI, estes últimos que se passaram até que não representaram “tantas” mudanças no cenário atual. Vivemos em uma época em que o PC desktop não é mais o “Centro do Universo”, no que se refere a computação pessoal. Os dispositivos móveis (especialmente os smartphones) assumiram este posto, embora os computadores tradicionais ainda sejam indispensáveis para os usuários, em vista da flexibilidade e disponibilidade de recursos. A execução de certas tarefas e atividades só é possível mesmo nos PCs desktops (ou notebooks, se preferirem), graças a boa e velha combinação de teclado e mouse!

Os antigos celulares se transformaram em verdadeiros PCs de bolso, graças aos modernos e poderosos smartphones. Com SoCs capazes de rivalizar com as CPUs e GPUs dos PCs desktops mais modestos, esta classe de dispositivos móveis oferece uma tela com alta definição de imagem, boa capacidade de processamento e gráfica, memória RAM mais que suficiente para as tarefas do dia-a-dia e por fim, uma bateria que apesar de não oferecer a mesma autonomia que os antigos celulares (devido aos requisitos de hardware exigidos pelas aplicações e seus recursos), ao menos nos possibilita trabalhar um dia inteiro longe das tomadas (com o uso seja moderado).

As plataformas de hardware se tornaram mais heterogêneas. Se antes, tínhamos CPUs e GPUs com papéis bem definidos, a partir desta época muitas coisas podem ser feitas utilizando o poder de cálculo das GPUs, ao passo de que certas tarefas antes relegadas a CPU podem ser feitas através de circuitos dedicados. Sem contar que com a evolução dos IGPs, eles não só substituíram as placas de vídeo de entrada, como também se tornaram parte de uma única peça de silício, dando lugar ao conceito de APUs. Por fim, a quantidade de núcleos passou a ser a principal referência, no que concerne a performance e o desempenho em geral destas unidades.

Quanto a arquitetura de processadores, o x86 aos poucos está cedendo espaços para a ARM, que apesar de ter sido concebida para o baixo consumo de energia (sacrificando a performance e o tamanho do chip), a sua grande eficiência e o bom desempenho o tornam excelente opções para concorrer com o x86, ao menos para os equipamentos de entrada. Corre por fora a arquitetura RISC-V, que apesar de não estar bastante madura e não ter uma boa participação no mercado, se mostra competitivo não só pela excelência do seu set de instruções, como também pela modalidade de licenciamento aberta: não é necessário adquirir licenças para o seu uso!

Tanto os sistemas operacionais quanto os seus aplicativos e utilitários, há tempos vem sofrendo grandes mudanças em relação ao seu formato de comercialização: saem de cena as licenças de uso, as quais o usuário precisa pagar para ter acesso ao software, para entrar as subscrições de serviços, nas quais ele precisará apenas pagar um “valor acessível” por um determinado período de tempo, para fazer uso dos recursos oferecidos por eles. Enquanto o pagamento estiver em dia, o usuário terá acesso a novos recursos, atualizações e correções para falhas de segurança e vulnerabilidades.

O acesso a Internet através de tecnologias móveis (redes sem-fio) também passou a exercer um papel fundamental nesta grande transformação. Apesar de oferecerem menos taxa de transferência, sofrerem com maiores latências e serem limitadas por cotas de dados, as conexões 4G/5G se tornaram indispensáveis para aqueles que fazem o smartphone, o seu computador pessoal #1! Mesmo com estas limitações, é possível fazer praticamente tudo o que poderíamos fazer com uma conexão de banda-larga, baseada em cabeamento.

Também surgiram uma infinidade de serviços que, ao invés de serem disponibilizados localmente na infraestrutura local, agora estão na Internet, fazendo o uso do acesso desta grande rede de computadores: eis, a bendita computação em nuvens! Ela se firmou como algo essencial para os gestores de TI, ditando os termos para a implementação da infraestrutura, bem como definindo parâmetros para a oferta de serviços e a contratação de mão de obra especializada. Não é mais preciso comprar servidores e equipamentos de redes, já que estes podem ser “contratados” através da modalidade IaaS (Infraestructure as a Service), assim como sistemas (PaaS), softwares (SaaS) e até mesmo harware (HaaS)!

E apesar de tudo, o PC desktop continua “firme e forte”! 😉

Após os primeiros 10 anos…

A partir dos 10 anos, a situação ficou um pouco mais “diferente”. O PC desktop continuava soberano e as conexões cabeadas (ADLS e a cabo) eram essenciais para o usuário; no entanto, os portáteis começaram a se popularizar, bem como o crescimento das conexões de redes sem-fio, graças aos padrões 3G e Wi-Fi 802.11g. O lançamento do primeiro iPhone se tornou o marco desta nova era (embora não tivesse suporte para as conexões 3G), já que estes dispositivos passaram a ser visto como aparelhos mais voltados para o consumo de mídia ao invés de produtividade, embora muitas aplicações e ferramentas possibilitassem a execução de tarefas de produtividade, antes possíveis apenas em PCs desktops.

Neste período, surgiram as primeiras CPUs multi-nucleares e a arquitetura x86 reinava absoluta, já que as unidades baseadas na arquitetura ARM eram fracas demais até antes do surgimento das CPUs Cortex. Para variar, a arquitetura PowerPC também sofreu um grande impacto, ao ver a Apple substituí-la pela x86 e os núcleos Intel Core em seus poderosos Macintosh, devido a crescente necessidade de contar com unidades mais econômicas, em termos de consumo de energia. Na visão da Apple, os dispositivos portáteis seriam o futuro da computação pessoal (embora os preços fossem bastante altos para os equipamentos) e por isso, a autonomia da bateria seria um requisito fundamental: poucos dispositivos eram capazes de entregar algo acima de +3h de uso “fora da tomada”.

Em relação aos sistemas operacionais, o Windows reinava absoluto, embora “ameaçado” pelas emergentes distribuições Linux. Na época, o Windows XP alcançou um excelente nível de maturidade, consolidando a sua interface gráfica e seus elementos tradicionais (menu Iniciar, barra de tarefas, área de trabalho, etc) em termos de usabilidade. Ao mesmo tempo, o sistema passou a rodar de forma mais estável e sem problemas de travamentos, graças a adoção do kernel oriundo do Windows 2000/NT, um sistema que prezava pela robustez e foi designado para ser utilizando em ambientes de redes. Já as distribuições Linux, elas alcançaram uma boa maturidade, graças a evolução dos ambientes gráficos KDE e GNOME, passando a serem vistas como excelentes alternativas ao Windows. Porém, a falta de suporte a hardware (drivers) e aplicações para o uso geral, acabara afetando muito a popularidade do sistema, apesar de alguns bons softwares terem surgido neste período, como o navegador WEB Firefox e a suíte de escritório OpenOffice.org.

Quanto ao armazenamento, os usuários utilizavam mídias de CDs e DVDs, os quais podiam ser graváveis e regraváveis, mas eram poucos flexíveis (uma mídia não regravável só poderia ser utilizado uma única vez; tanto elas quanto as mídias regraváveis, em geral dependiam de utilitários específicos para realizar a gravação). A partir de então, os pendrives entraram em cena e se popularizaram bastante, já que ofereciam maior flexibilidade para a gravação de dados (bastava conectá-los a uma porta USB), embora tivessem pouco espaço de armazenamento (os modelos variavam de 64 a 256 MB). Mas com o passar dos anos, a evolução do processo de litografia possibilitou a construção de chips de memória flash com maior capacidade de armazenamento e já no final deste período, superavam os CDs e DVDs neste quesito, além de se tornarem mais rápidos.

Por fim, vimos as redes sociais se popularizarem nesta época. No Brasil, o Orkut se tornou uma das principais redes de grande sucesso, seguido do MySpace e do Twitter. Porém, aos poucos foi perdendo a sua posição para o Facebook, em vista da falta de inovação e de poucos investimentos realizados por parte do Google, o seu dono. Quanto as ferramentas de comunicação via chat, o ICQ foi uma das primeiras a surgir, disputando o espaço posteriormente com o MSN. Porém, o WhatsApp surgiu no final deste período e o resto da história, já sabem: ela se tornou a ferramenta #1 para comunicação via chat, graças especialmente a popularização dos smartphones e a integração de recursos modernos, como o compartilhamento de imagens, vídeos e documentos, além da possibilidade de utilizar uma conexão móvel para realizar telefonemas e video-conferências. Atualmente, a única alternativa viável ao WhatsApp é o Telegram, o qual se destaca por oferecer mais recursos voltados para a segurança e confidencialidade dos dados, como a criptografia ponta-a-ponta.

Já a partir de 20 anos…

O PC desktop mantinha o seu status, embora a sua estrutura era radicalmente diferente, se comparado com os PCs desktops atuais. Internamente, as placas-mães eram dotadas de vários slots PCIs, para a conexão de diferentes tipos de placas de expansão: de som, de vídeo, de rede, modem, etc. Somente no final deste período, é que começaram a surgir as famigeradas “placas-mães com tudo onboard”, as quais em geral eram dotadas de um padrão de qualidade questionável (especialmente as que utilizavam chipsets SiS e Via) e voltadas para o mercado de baixo custo (aqueles que já tiveram uma PC-Chips, sabem perfeitamente do que estou falando). Embora o padrão USB tenha surgido neste período, os periféricos em geral utilizavam conexões externas dedicadas: impressoras em portas paralelas, mouses em portas seriais, joysticks em portas MIDI, etc. Mesmo assim, o gabinete ATX continuava lá “do jeito que sempre foi”, embora a maioria eram sem graça e pouco inovadores…

Os monitores até então, eram baseados na tecnologia CRT (tubos de raios catódicos), sendo grandes e pesados, dotados de telas que em geral, variavam de 14″ a 17″ (os maiores em bem mais caros e designados exclusivamente para o uso profissional). A imagem não aproveitava o espaço total da tela e apresentava distorções em relação ao alinhamento da borda, além de emitirem radiação (especialmente os modelos mais antigos) que afetava a saúde ocular, caso o usuário permanecesse exposto por longas horas (daí a utilização das telas de descanso). Para variar, apresentavam o terrível efeito flicker, exigindo o uso de taxas de atualização acima de 72Hz, para evitar sintomas desagradáveis como dores de cabeça, cansaços e lacrimejação dos olhos. A única coisa “boa” destes monitores é que, ao contrário dos LCDs, era possível utilizar vária resoluções intermediárias sem afetar a qualidade final de exibição, embora a maioria fosse limitada a até 1280×960 e muitos não suportavam o uso de definições maiores, sem reduzir a taxa de atualização de quadros.

Apesar das CPUs modernas (i486 em diante) já existirem nesta época, elas eram mono-core (um único núcleo) e a velocidade sua velocidade era limitada, medida na casa dos MHz (foi somente a partir de 2000, que as CPUs alcançaram o marco de 1 GHz). A memória cache (L2) se tornou um fator muito importante no desempenho geral destas unidades, e as CPUs de entrada se diferenciavam não só pela velocidade baixa, como também eram dotadas de pouca (ou nenhuma) quantidade deste tipo de memória (especialmente no final da década de 90). Quanto as placas de vídeo, nem todas suportavam aceleração gráfica em 3D (as quais vieram a surgir após a metade do ano 90), limitando a execução de jogo apenas em modo de renderização por software. Por outro lado, haviam vários fabricantes de GPUs e placas no mercado, destacando-se as consagradas unidades gráficas 3dfx Voodoo, ATI Rage, nVidia Riva TNT, PoweVR, Rendition Vérité, Matrox, S3 Virge e SiS.

O sistema operacional Windows teve uma profunda transformação nesta época, consolidando-se como o sistema operacional para PC desktops em 3 edições. A versão 3.11 era basicamente uma interface gráfica que rodava sob o MS-DOS, sem multitarefa preemptiva e limitada ao suporte a instruções de 16 bits. Já o Window 95, ele se tornou um sistema operacional “de facto”, suportando multitarefa preemptiva e com suporte para a instruções de 32 bits, também trazendo profundas mudança na interface gráfica e os elementos tradicionais que conhecemos hoje: o menu Iniciar, a barra de tarefa e a área de trabalho, além de diversas ferramentas e utilitários para a produtividade geral. Por fim, o Windows 98/SE promoveu inúmeras melhorias em relação ao Windows 95, melhorando bastante o design da interface e o suporte melhorado para o sistema de arquivos FAT32, mais estável que as edições anteriores.

Nesta época, também não existiam pendrives e nem gravadores de mídias ópticas, apesar dos drivers leitores já existirem. Os usuários eram obrigados a usarem disquetes flexíveis, que por sua vez eram pouco confiável e dotado de capacidade limitada de armazenamento, o que também tornava o seu uso pouco prático (para gravar uma quantidade considerável de dados, eram necessários vários disquetes, pois eram limitado a 1.44 MB). Por isso, os utilitários de compactação de arquivos também começaram a se popularizar, como o ARJ e o ZIP (que se tornou um padrão de fato). Por fim, até tivemos inovações interessantes nesta área, com o lançamento dos zip-drives. Apesar de serem bastante similares aos tradicionais disquetes (mas com capacidade que variavam de 100 a 250 MB), as suas mídias eram mais rígidas e confiáveis, além deles serem unidades externas em geral (também haviam algumas unidades internas), as quais se conectavam ao PC desktop através de conexões paralelas ou SCSI. Mas dada a pouca flexibilidade destes dispositivos em relação ao uso, eles acabaram caindo no esquecimento.

Nem vou perder muito tempo falando do acesso a Internet. Apesar de ter sido “lançada” no ínicio dos anos 90, somente a partir da segunda metade da década, é que ela de fato começou a se popularizar. As conexões geralmente eram baseadas na modalidade discada e oferecia uma velocidade máxima de 56kbps, obrigando os internautas a pagarem o custo de assinatura do provedor, além dos valores relacionado aos minutos de uso (dias de semana) ou apenas pelo pulso de discagem (para os finais de semana). Apesar de ser praticamente inviável no dias de hoje, ela “dava para o gasto” na época, já que as página WEB eram basicamente textos codificados em HTML (estática) e as imagens eram baseadas no antigo padrão GIF. O buscado Google não existia e a melhor opção disponível para realizar as buscas na Internet era o Yahoo!. O sistema operacional Windows também auxiliou a sua popularização, graças a integração do navegador WEB Internet Explorer 3.0 (95) ao sistema.

E depois dos 30 anos?

Senhores, confesso: estes tempos eram “nebulosos” para mim! 😉

Sem sombra de dúvida, foi durante este período que os PCs desktops apresentaram uma GIGANTESCA evolução! Só para se ter uma idéia, o clássico IBM Personal Computer, lançado em 1981: os requisitos de hardware eram bem limitados, sendo dotado de uma CPU x86 8088 a 4.77 MHz, memória RAM de 16 KB e armazenamento de apenas 5 MB. O seu monitor trabalhava apenas “em modo texto”, embora a sua placa gráfica CGA suportasse a definição máxima de 600×200 e exibisse apenas 16 cores (porém, com resoluções mais baixas). O sistema opeacional padrão era o antigo MS-DOS!

Como havia dito no início, um PC desktop moderno de referência deve dispor de recursos o suficiente para carregar um sistema operacional moderno, intuitivo e com interface gráfica, ser capaz de executar aplicações diversas com excelente performance, rodar jogos em boa definição de imagem, armazenar e transferir dados através de diferentes tipos de mídia, conectar-se à Internet e por fim, ser acessível ao público geral. Coisas que eram somente possíveis apenas de 30 anos para cá (mais precisamente a partir dos anos 90). Mas como não “vivi” nesta época (só tive o meu primeiro contato com computadores em 1993 e adquir o meu primeiro PC desktop lá por volta de 1996), não há muito o que contar em termos de experiências pessoais e por isso, deixarei o assunto em aberto.

Quem sabe, seja o tema principal para o próximo artigo! 😉

Conclusão

O que esperar dos próximos anos? Na minha opinião, a virtualização e a Internet serão os fatores fundamentais, para as grandes mudanças que teremos na computação pessoal. Embora seja improvável a extinção do PC desktop (como muitos especialistas pregam na mídia), ele certamente irá estar bem descaracterizado, se comparado com o modelo de referência, o qual citei.

Por exemplo, não será mais necessário a aquisição de hardware dedicado (exceto periféricos de entrada e saida, além dos recursos necessários para garantir a conectividade na rede), já que poderemos contratar serviços de desktops virtuais, nos quais acessamos um hardware real ou virtualizado e o utilizamos como se fosse um computador local, através do acesso ao terminal remoto. Assim como já oferece a suíte de escritório Office 365, a Microsoft também já oferece um serviço dentro deste contexto, chamado Windows 365 Cloud PC. O “X da questão” é que, apesar de ser acessível através de qualquer tipo de dispositivo, estes sistemas se encaixariam com perfeição no conceito, se fossem usados em terminais burros, os quais ainda não se tornaram populares nestes tempos modernos.

Quanto aos softwares, há tempos eles vem sofrendo uma profunda transformação sob dois aspectos: o primeiro está no fato de que eles estão se tornando serviços na modalidade SaaS, o qual pagamos uma subscrição para o seu uso, ao invés de comprarmos uma licença. Combinado com esta modalidade, está a sua forma de utilização através do acesso remoto: ao invés de instalarmos uma cópia na máquina local, poderemos executá-lo “nas nuvens” a partir de uma simples instância de um navegador WEB, mas com a sua janela e interface se comportando como se fosse uma aplicação local. Eis, as PWAs (Progressive Web Applications), que surgiram recentemente no mercado, sendo apoiada por grandes corporações e que estão conquistando muitos usuários, pela sua praticidade e rapidez!

Por fim, os hábitos dos usuários vêm mudando radicamente, desde o surgimento dos tablets e smartphones. Desde a ascenção destes dispositivos, o PC desktop vem perdendo terreno gradualmente, sendo utilizado mais nos cenários em que a produtividade é necessária. Ainda assim, eles podem ser perfeitamente substituídos por notebooks ou até mesmo tablets, desde que estes últimos tenham um teclado destacável acoplado ao dispositivo, para atender as necessidades relacionadas a digitação de dados. Tirando a necessidade da produtividade, as demais atividades podem ser perfeitamente executadas a partir dos smartphones.

Sei que devem estar pensando: os jogos serão o último bastião dos PCs desktops! Será? Além da oferta dos serviços de streaming (Xbox Cloud Gaming, Google Stadia, Amazon Luna, nVidia Geforce Now, etc), vale à pena mesmo adquirir um caríssimo hardware dedicado? Para variar, ainda temos a onipresença dos poderosos consoles (os quais entregam alto poder de processamento, ao mesmo tempo a baixo custo) e até mesmo dos dispositivos portáteis (que além de poder “rodar” os serviços de streaming, também podem executar jogos localmente, com boa performance geral.

E nem sequer mais precisamos do teclado & mouse para jogar… &;-D

Referências