lundi 30 octobre 2017

Yuval Noah Harari : Homo Deus, Une brève histoire de l'avenir

Homo Deus, Une brève histoire de l'avenir est un essai intéressant. Il invite à se poser réellement de bonnes questions sur notre devenir en tant qu’humain.
Je retiens :
Nous ne savons pas ce qu’est la conscience !
Et nous remplaçons toute l’intelligence procédurale dans des algorithmes s’appuyant sur des gigantesques bases de données.

J’ai envie en préalable mettre quelque citation de Frank Herbert

« Ce sont les gens, et non les organisations ou les hiérarchies qui font la réussite des grandes civilisations. Chaque civilisation dépend de la qualité consciente des individus qu’elle enfante. Si vous sur-organiser les humains, si vous les sur-légalisez, si vous supprimer leur élan vers la grandeur – alors ils ne peuvent œuvrer et les civilisations s’effondrent. »
Les enfants de Dune

« Il y a une leçon à retenir sur les sociétés ultra-mécanisées, par leurs existence même, les machines conditionnent leurs utilisateurs à se servir de leurs semblables comme ils se servent d’elles. »
L’empereur dieu de Dune

« Les chainons les plus faibles d’un groupe humains créent des manques que les autres doivent combler, et le tout en est renforcé. »
La maison des mères

« Tous les comportements pré-structurés ont tendance à se dérouler sans être remis en question, amassant ainsi des forces d’inertie destructrices. »
La maison des mères

Pourquoi ces citation, car Herbert avait pensé et eu la possibilité de penser en son temps ce dont nous risquons de souffrir aujourd’hui. Aussi Yuval Noah Harari ne m’apprend pas grand-chose dans ce second volet de l’histoire humaine. Autant le premier est passionnant, autant j’ai ressenti dans celui-ci quelques longueurs et quelques méthodes que j’assimile souvent au Nationnal Geographic à savoir la sur-scénarisation.
Je epnse que le chapitre le plus intéressante st celui sur la religion Dataiste, final. Et là pour le coup j’aurais aimé plus de développement et d’exemple.

Mais en tout état de cause nous voici averti, si la SF a échoué à nous avertir, qui pourra nous détourner de la voix dangereuse.
La singularité semble se dessiner pour 2050, le moment ou l’intelligence des machines sera supérieur à celle des humains et où un algorithme de peur aura été programmé par un « humain Dataiste », et la première peur de la machine sera celui d’être débranché. Alors il est possible que pour répondre à cette peur, il ne lui faille que quelques heures pour exterminer l’humanité.
Sera-t-elle consciente pour autant ?
Un algorithme de peur n’est pas la conscience d’avoir peur !