“Fantasme”. L’idée revient sans cesse au cours du développement des technologies
et de l’Internet. L’histoire, bien souvent d’anticipation, voit ainsi se croiser
les utopies d’un “village planétaire”, d’une “intelligence collective”, voire
d’un “transhumanisme”.
Tout commence entre les deux guerres.
Le Harvard Mark I : 5 tonnes pour 37 m² ! (Photo DR)
Mai 1936, comme point de départ objectif, où le mathématicien britannique Alan
Turing propose “une machine universelle”, capable d’accomplir n’importe quelle
tâche si elle est programmée. Les bases de l’ordinateur sont posées dans une
langue devenue binaire, composée uniquement de 0 et de 1. Quelques années plus
tard, en pleine Seconde Guerre Mondiale, la théorie devient pratique avec le Zuse 3 allemand, le Colossus britannique et l’ENIAC américain. Des machines vite
obsolètes face au Harvard Mark I d’IBM en 1944, un monstre de cinq tonnes
occupant 37m² !
Le fantasme d’Alan Turing repose sur cette machine évolutive, voire
intelligente, telle un cerveau mécanique, dans un langage binaire capable de
tout numériser, jusqu’à la pensée. En 1950, Alan Turing explore cette
“intelligence artificielle” et propose un test pour définir si une machine est
“consciente”. Si un humain ne peut différencier un autre humain d’un ordinateur
avec lesquels il communique via messages écrits, alors l’ordinateur est capable
de “penser”. Alan Turing pariait sur les années 2000 pour qu’un ordinateur
réussisse ce test, néanmoins à l’heure actuelle aucun ne l’a réussi avec succès.
A la conquête du particulier
En 1967, au milieu d’une révolution sexuelle et de hippies communautaires, le
sociologue canadien Marshall McLuhan propose l’idée d’un futur “village
planétaire” qui reposerait sur “les moyens de communication audiovisuelle
modernes et la communication instantanée de l’information”. Pour ce faire, il
mise sur la démocratisation de l’ordinateur dans les foyers. Mais les machines
de 37m² n’ont pas encore atteint les lofts parisiens.
La course aux ordinateurs particuliers passe alors par une miniaturisation
poussée à l’extrême, via les microprocesseurs d’Intel. En 1981, IBM lance son
IBM PC, véritable précurseur concentrant tout ce qui fera le succès de
l’ordinateur personnel (littéralement Personnal Computer, le PC quoi). Clavier,
souris, écran, lecteur disquette, tous réunis autour du système d’exploitation
d’alors : un interprète du langage Basic de… Microsoft. Des lignes de codes
vertes défilent sur fond noir (pas loin de Matrix) pour “un utilisateur qui se
sent mieux”.
L’intelligence collective en mouvement
Suivant la loi Moore, tous les 1,96 an, les ordinateurs doublent leur
“puissance” de calcul et le taux d’équipement des foyers français suit, passant
de zéro à 60% aujourd’hui. Un essor qui s’explique aussi par l’arrivée
d’Internet, populaire dès ses débuts en 1991 et généralisé à partir des années
2000.
L’utopie du “village planétaire” se renouvelle et vise une “intelligence
collective” théorisée par le philosophe français Pierre Lévy en 1994. La
cyberculture devient “un nouveau rapport au savoir”, autour d’un langage commun
: le HTML de Tim Berners-Lee. Le meilleur exemple réside dans l’encyclopédie
Wikipedia, enrichie par des millions d’utilisateurs à travers le monde.
Mais, tous les yeux se tournent déjà vers les téléphones portables et leur
incroyable expansion. Aujourd’hui, quelque 81% des foyers français sont équipés
d’au moins un mobile, pour un total de 58 millions de cartes SIM en France.
L’arrivée en fanfare des récents Smartphones, iPhone en tête, cristallise la
mutation du téléphone portable en aboutissement de l’ordinateur : toutes les
fonctionnalités, dont l’accès à Internet, avec la liberté de mouvement. La
connexion au réseau, donc au “village planétaire” et son “intelligence
collective”, s’opère maintenant depuis un outil qui tient dans la poche.
L’homme du futur et la guerre contre les machines
Claudia Mitchell, première femme bionique (Sipa)
L’utopie ne s’arrête pas pour autant. Les terminaux d’Apple ou de Blackberry
sont perçus comme de véritables “prothèses cérébrales” pour connecter l’homme au
réseau, au cyberespace [voir aussi Cyberespace : monde parfait ou utopie
déconnectée]. En effet, le fantasme de tout “geek” qui se respecte se représente
facilement par l’Homme qui valait trois milliards, mi-homme mi-machine, imaginé
dès 1974. Le lien entre biologie et technologie ne cesse de progresser : en
2006, pour la première fois, un bras bionique est implanté sur une femme amputée
et relié aux terminaisons nerveuses de son ancien bras. Déjà germe l’idée qu’un
jour l’homme pourra remplacer les parties de son corps “faibles” par des
morceaux artificiels. Vision nocturne, meilleure audition, force décuplée… les
seules limites restent l’imagination.
En 1990, l’informaticien Ray Kurzweil prédit que l’ordinateur démontrera son
“esprit” dès 2029 en accomplissant le “test de Turing”. De plus, ce théoricien
du Transhumanisme prévoit, avant 2050, l’invention de robots microscopiques
utilisés pour prolonger la durée vie des humains en intervenant à l’échelle
moléculaire. Il estime également qu’à terme l’homme sera équipé d’implants le
reliant en permanence au réseau et pourra télécharger des informations
directement dans son cerveau. Le Transhumanisme anticipe ainsi la création d’une
intelligence artificielle supérieure aux hommes, semblable à ce que décrivait
Isaac Asimov dès 1950. “L’empereur de la Science-Fiction” prophétise, dans son
livre I, Robot, l’arrivée de robots intelligents pour 1996, d’abord comme
esclave de l’homme, puis son égal et enfin son maître. L’économiste français
Jacques Attali y voit un futur monde chaotique, dominé par la technologie et
débouchant vers un conflit généralisé en 2050, à l’image de nombreux films de
Science-Fiction comme “Matrix” ou “Terminator”. Avec les récents robots
humanoïdes capables de se mouvoir comme Asimo d’Honda, le futur est déjà en
marche…