Une petite histoire de l'informatique personnelle

Bizarre, ce titre : zéro. Comme le numéro d'essai d'un média papier ou la version non finalisée d'un projet ou d'un produit. Initialement, le titre était "Une". Mais, comme un ordinateur travaille en binaire (et pas en décimal, encore que la série des nombres entiers commence aussi par zéro), le zéro m'a paru plus approprié. Sans surprise, le titre de la prochaine page sera 1 (Un). Et je reprendrai ensuite la numérotation décimale, plus concise. Sinon le numéro 5 serait déjà 100 en binaire !

L'histoire commence ici. En vrai, elle a déjà commencé bien avant 1960, avec Alan TURING, le casseur de codes, un des premiers hackers en somme, avec ses homologues polonais qui ont cracké les machines Enigma utilisées dans les différentes armes (Terre, Air et Mer + UBoats) de l'armée allemande. Et, avant eux, Ada LOVELACE née BYRON en 1815, a été la première au monde à écrire un programme informatique pour la machine analytique de Charles BABBAGE. Mais, hormis la machine de Turing, et encore, ce n'était pas vraiment grand public, ni même public tout court. On ne peut donc pas qualifier ces précieux apports préliminaires d'informatique personnelle. Pour être complet, et comme tout est dans tout et réciproquement, tous les travaux mathématiques depuis les temps immémoriaux ont également concouru à l'essor de l'informatique, et plus spécialement de l'étude des algorithmes. Par exemple, les systèmes de codage (de cryptage et décryptage) étaient déjà utilisés bien avant notre ère.

À la fin des années 1960 (les sixties), l'informatique était surtout faite de gros systèmes.
Les fabricants de matériel (hardware : hard = dur et ware = marchandise, produit)
étaient les rois. Et IBM était l'empereur.
Les ordinateurs de l'époque occupaient le volume d'une pièce entière.
La volonté de généraliser et de développer une informatique personnelle prenait forme.
Son corollaire était la diminution de la taille des ordinateurs.
C'était le début de la miniaturisation.
Il fallait aussi que le prix du PC (personal computer) soit abordable au plus grand nombre.
C'était le début de la démocratisation.
Côté matériel, les fabricants (IBM, HP et d'autres) avaient conçu le produit.
Il manquait le moteur, le système d'exploitation (OS = operating system).
C'était la partie logicielle. Le software (soft = doux, c-à-d immatériel)
IBM lança un appel d'offres aux développeurs.
2 adolescents bricolaient dans le garage de leurs parents :
Bill Gates, qui allait devenir le patron de la société Microsoft.
Steve Jobbs, qui allait devenir le patron de la société Apple.
Steve était en avance et avait développé CP/M : control program monitor, simplement appelé system 0.0
Bill (on dit qu'il avait un peu copié du code de son camarade) avait développé MS-DOS 1.00 :
MS pour Microsoft et DOS pour direct operating system.
Et c'est Bill qui l'emporta, captant ainsi la majorité du parc installé.
Steve continua de son côté et créa le premier Apple, avec le logo d'une pomme croquée.
Au début était la console, c'est-à-dire, le clavier.
On n'avait pas encore inventé la souris, dont l'utilité n'existait pas non plus.
En effet, il n'y avait rien à pointer, à cliquer, à glisser-déplacer. ça viendra plus tard.
Pour l'instant, on programmait, souvent en langage machine.
Puis en langage de plus en plus évolué : du Basic à l'IE, l'intelligence artificielle.
Une première étape importante, franchie d'abord par Apple fut l'apparition d'icônes.
Et de la souris.
Ce n'était pas une surcouche logicielle, mais une (r)évolution du moteur.
Microsoft a suivi, mais en 2 temps.
À partir de la version 5.0, il y a eu une surcouche au DOS : Windows (fenêtres)
Le moteur restait MS-DOS, que l'on pouvait appeler et utiliser dans une fenêtre Windows.
Côté matériel, depuis 1970 étaient apparus les premiers micro-ordinateurs, de taille encore respectable.
Ils était plus portatifs que portables.
La majorité du parc était constituée d'ordinateurs de bureau (desktops) avec :
- une unité centrale (UC), parfois verticale, avec son microprocesseur, sa carte mère et sa carte graphique
- des périphériques : écran, clavier et souris
Souvent, l'UC ne comportait pas de disque dur interne (périphérique de stockage)
pour héberger les programmes de démarrage :
système d'exploitation, pilotes (drivers) des autres éléments périphériques (devices)
Et encore moins de logiciels de travail (notamment bureautique) : traitement de textes, tableur.
L'UC avait 1 ou 2 lecteurs de disquettes : 5"1/4, de capacité très limitée (512 Ko), puis 3"1/2
de plus grande capacité (pour l'époque).
Il y a eu ensuite les lecteurs de disque (ou de bandes) externes, les lecteurs optiques (CD et DVD) et les cartes SD.
Et les lecteurs correspondants, internes ou externes.
Avec l'étoffement des programmes et la multiplication de leurs fonctionnalités, les logiciels ont pris du poids.
Il a donc fallu accroître les capacités de tous les périphériques de stockage. Et des processeurs qui doivent "faire tourner" tout ça, sans chauffer
Accessoirement, les équipes de développement se sont gonflées, puis scindées et réparties (merci Henri Ford et le taylorisme).
Les prix des nouveaux produits aussi. Avant de baisser avec des productions de plus en plus massives.
Les acteurs se sont multipliés, diversifiés et/ou regroupés.
Parallèlement, des protections diverses et variées, matérielles et logicielles, ont été mises en place, dans le but de conserver et de conquérir une clientèle devenue captive.
En réaction, des développeurs ont mis en place des solutions open source.
Les systèmes d'exploitation (ce qui en reste) sont également devenus multiples.
Il y a 3 "mondes" :
- UNIX, issu des grands systèmes, et ses dérivés, les différentes distributions Linux.
- Windows pour Microsoft.
- iOS pour Apple.
À l'opposé de Windows et d'IOS, les distributions Linux sont ouvertes.
Avantages des distributions Linux :
- accès au code et donc possibilité de développements plus faciles.
- système central (noyau) et logiciels non imposés : à la carte.
- gratuité.
Inconvénients des distributions Linux :
- Pas d'homogénéité
Les différents "paquets" peuvent, en principe, être ou pas greffés dans une autre distribution.
- même si des communautés se créent, se développent (mais meurent aussi), support plus difficile d'accès.
Avantages Windows et iOS :
- relative homogénéité des produits. En principe, l'utilisateur lambda ne sera pas perdu.
Encore que : voir, par exemple le passage à la version 2007 de la suite Office et à son ruban.
Inconvénients Windows et iOS :
- code verrouillé, propriétaire, et de plus en plus "lourd".
- payants.
- incitation à passer (en payant) aux dernières versions, pas nécessairement utiles.
- fin progressive du support pour les versions anciennes.

On est aussi passé d'ordinateurs monopostes et mono-utilisateurs à des réseaux, d'entreprise dans un premier temps (IntraNet)

Et il y a eu la grande révolution Internet, la toile (Web) mondiale qui unit tous les utilisateurs pour le meilleur et pour le pire. C'est une autre longue histoire, pas encore terminée, qui nous a réservé bien des surprises et nous en a gardé quelques unes à venir. En vrac, on a vu se développer et se diversifier robotique, domotique, multiplication des "écrans" (ordis, tablettes, smartphones), IA (intelligence artificielle, mais attention, aussi bêtise artificielle), ordinateur quantique, … L'utilisation dans le vivant pose déjà des problèmes éthiques et autres. La frontière entre l'homme et la machine s'amenuise. Le prochain conflit opposera-t-il humains, humanoïdes et robots ? Est-ce que P = NP ? C'est la suite ultime des travaux de Turing.

Date de dernière mise à jour : 05/09/2021

  • Aucune note. Soyez le premier à attribuer une note !

Ajouter un commentaire