Homme numérique: une vision du monde individualiste et libérale

Affirmation de l’individu, conception libérale de l’intérêt général, évolution vers le libertarianisme,  ces notions sous-tendent le monde numérique occidental. Au-delà d’un modèle d’interactions économiques, c’est un projet politique qui peut émerger dans les années à venir. Alors, Mark Zuckerberg président ? Retour aux sources :

L’individualisme n’est pas un produit direct de l’économie numérique, mais celle-ci a favorisé l’accélération et l’épanouissement d’une tendance née avec la philosophie des lumières.

Emmanuel Kant définit les « Lumières » comme :

« la sortie de l’homme hors de l’état de tutelle dont il est lui-même responsable. L’état de tutelle est l’incapacité de se servir de son entendement sans la conduite d’un autre. On est soi-même responsable de cet état de tutelle quand la cause tient non pas à une insuffisance de l’entendement mais à une insuffisance de la résolution et du courage de s’en servir sans la conduite d’un autre. Sapere aude ! Aie le courage de te servir de ton propre entendement ! Telle est la devise des Lumières. » (1784).

Développée tout au long du dix-neuvième siècle par Benjamin Constant pour qui « l’indépendance individuelle est le premier des besoins modernes », John Stuart Mill, qui affirme « sur lui-même, l’individu est souverain » ou Antoine Destutt de Tracy déclarant «l’individu est propriétaire de lui-même», la notion d’individualisme se révèle pleinement à la fin du vingtième siècle pour devenir fondatrice du vingt et unième. Notons que les réflexions de J.S. Mill et d’A. Destutt de Tracy sont d‘une singulière actualité lorsqu’on les rapproche des débats actuels sur la propriété, la protection et l’accès aux données, « carburant de l’économie numérique », par les particuliers.

Mais l’émergence de l’individu ne signifie pas égoïsme ou isolement. Aux groupes sociaux existants se sont superposés, grâce aux réseaux (Web 2.0 et Web 3.0), des groupes d’individus reliés par le numérique.

Le réceptacle de cette affirmation de l’individu sera l’internet social (Web 2.0). Il se construit dans les années 2000-2010 autour du partage et de l’échange d’informations et de contenus (textes, vidéos, images ou autres). Il voit l’émergence des réseaux sociaux, des smartphones et des blogs. Internet se démocratise et se dynamise. L’ e-commerce s’enrichit de contenus et d’avis à destination ou en provenance des internautes, sollicités en permanence. C’est l’internet de la socialisation virtuelle, de la prolifération de contenus et d’une certaine « infobésité » difficile à maîtriser.

L’internet ou Web 3.0, aussi nommé internet sémantique et qui apparaît vers 2010, vise à organiser la masse d’informations disponibles en fonction du contexte et des besoins de chaque utilisateur, en tenant compte de sa localisation, de ses préférences, somme toute de critères beaucoup plus personnels qui doivent permettre une meilleure pertinence des informations et services proposés par les opérateurs. Il répond aux besoins d’utilisateurs mobiles, toujours connectés, à travers une multitude de supports et d’applications. C’est l’internet actuel qui s’agrège à l’internet 2.0.

Comme le souligne Iannis Pledel, chercheur en sciences de l’information et de la communication, cette nouvelle « structuration sociale » se caractérise de la façon suivante :

Chaque internaute membre d‘un réseau a le sentiment d’être le point central autour duquel le reste évolue. C’est l’individualisme de réseau. On y coopère, on y partage ce que l’on a librement choisi, sans aliéner sa singularité.

Peu importe l’identité, ce qui est primordial c’est ce que l’internaute déclare être. Chaque individu tisse son réseau à partir de ses centres d’intérêts, de ses valeurs. Cela permet à l’internaute de se manifester socialement dans cet espace.

Cet espace de liberté permet à chacun d’y livrer ses opinions et de privilégier ses propres intérêts en allant vers les groupes qui ont les mêmes préoccupations.

Cet individualisme de réseau donne naissance à un individu « media », agissant et dialoguant,  qui devient client de tout et de tous dans ses interactions professionnelles, personnelles et administratives, se comporte comme tel, et souhaite traiter (et souvent coopérer) d’égal à égal avec les institutions

La conception libérale, anglo-saxonne de l’intérêt général, qui dit que celui-ci est la somme des intérêts privés, est le moteur idéologique de la révolution numérique.

L’individu, tel que décrit dans le paragraphe précédent, à la poursuite de ses intérêts propres, préside donc au bon fonctionnement de la société en général et de l’économie en particulier. Il convient alors de favoriser la défense des libertés de l’individu afin qu’il puisse entreprendre, produire et échanger. La façon dont les actions individuelles influent sur l’intérêt collectif a été théorisée par Adam Smith avec le concept de la « Main invisible ». Corollaire de cette théorie, ainsi que de toutes celles qui ont par la suite abondé dans ce sens : l’intervention de l’état doit être minimale, réduite aux attributions régaliennes (Police, Justice, Défense, Monnaie).

La philosophie qui guide les grandes entreprises du numérique s’en inspire directement et va même souvent plus loin, jusqu’à s’inscrire dans un schéma de pensée « libertarien », courant de pensée popularisé aux Etats-Unis dans les années cinquante. Christian Arnsperger et Philippe Van Parijs définissent le libertarianisme, aussi appelé libertarisme, comme « une philosophie politique pour laquelle une société juste est une société dont les institutions respectent et protègent la liberté de chaque individu d’exercer son plein droit de propriété sur lui-même ainsi que les droits de propriété qu’il a légitimement acquis sur des objets extérieurs ». La liberté individuelle est une valeur fondamentale, voire un droit naturel, qui s’exerce au sein d’un système de propriété et de marché universel. De fait, l’état doit être réduit dans ce système à sa portion régalienne.

Par leurs déclarations et avec quelques nuances, les patrons de la Silicon Valley en général et des GAFAMs (Google, Amazon, Facebook, Apple, Microsoft) en particulier, se situent globalement dans ce courant de pensée, comme en témoigne le florilège constitué par Laurent Calixte :

Larry Page (Google) : « Il existe beaucoup de choses que nous pourrions faire mais qui sont illégales ou non-autorisées par la réglementation (…) » (2013) et  « je pense que le Gouvernement va disparaître sous son propre poids, bien que ceux qui y travaillent soient très qualifiés et bien intentionnés ».

Jeff Bezos (Amazon) : « Je pense que ce qui est le plus important pour moi, c’est le principe sur lequel ont été bâtis les Etats-Unis, à savoir la liberté. C’est très difficile. Il existe beaucoup de sujets qu’on peut analyser à l’aune de ce principe, et il apparaît en fait qu’une économie de marché libre, disons une sorte de système capitaliste, intègre beaucoup cette notion de liberté ».

Mark Zuckerberg (Facebook) : « The End of Power, de Moises Naim, est un livre qui explore la façon dont le monde se transforme en donnant aux individus une large part du pouvoir qui était jusqu’alors détenu par les gouvernements, les militaires, ou d’autres institutions. Je crois profondément à cette tendance qui consiste à donner aux individus plus de pouvoir ».

Ces déclarations font que les entreprises dirigées par ces patrons sont porteuses de beaucoup plus qu’une vision économique. Elles sont aussi porteuses d’une vision du monde qui peut se transformer en projet politique. Seront-elles les partis politiques de demain ? Il est encore trop tôt pour le dire, mais leur impact ne sera pas neutre.

Références :

Emmanuel Kant  : « Qu’est-ce que les Lumières » (1784)

Benjamin Constant : « l’indépendance individuelle est le premier des besoins modernes » in De la liberté des anciens comparée à celle des modernes (1819)

John Stuart Mill : « sur lui-même, l’individu est souverain » in De la liberté (1859)

Antoine Destutt de Tracy : « l’individu est propriétaire de lui-même » in Eléments d’idéologie (1801-1815)

Iannis Pledel : Réseaux sociaux et comportements tribaux

Adam Smith : Recherches sur la nature et les causes de la richesse des nations (1776)

Christian Arnsperger et Philippe Van Parijs : Éthique économique et sociale La Découverte (2003)

Laurent Calixte : Apple, Google, Amazon, Facebook sont-ils devenus des partis politiques ? Article Medium.com (2016)

La transformation digitale du secteur de l’automobile

De la familiale qui nous emporte, nouveau-nés emmitouflés, jusqu’à l’ambulance du SAMU ou à l’austère break endeuillé qui nous mènera à petite vitesse, et après les étapes convenables, au trou final, la voiture aura été notre cocon, notre compagne, notre témoin, notre victime et notre alliée.

Cette citation empruntée à l’écrivain François Nourrissier montre bien que l’automobile est beaucoup plus qu’un objet parmi d’autres de notre civilisation, mais qu’elle l’a aussi façonnée tant dans les faits que dans l’imaginaire, comme peu de réalisations humaines à ce jour.

La rencontre de l’automobile, de son industrie, de son écosystème, avec la transformation digitale provoque donc une des mutations majeures que nos sociétés s’apprêtent à vivre dans un très proche avenir.

L’objet de cette Master Class, travail de groupe mené dans le cadre du MBA Digital Marketing & Business de l’EFAP (2017), est de dégager les principales lignes de force qui présideront à la transformation digitale du secteur de l’automobile et de ses conséquences. Le slideshare complet est accessible par le lien ci-dessous :

   L’e-transformation du secteur automobile

 Histoire et Sociologie

par Jean-PaTransformation digitale auto Jean-Pascal Poissonnetscal Poissonnet

L’automobile a une longue histoire derrière elle. Des origines à la voiture autonome en préparation de nos jours, son évolution a été jalonnée d’inventions, de crises et de mutations.

Aux XVIIe et XVIIIe siècles, les tentatives de fabriquer un véhicule qui possède en lui-même son moteur de propulsion relèvent de l’exploration. Le «jouet» de Ferdinand Verbiest, petit véhicule à vapeur, présenté à l’empereur de Chine vers 1668, puis le fardier à vapeur de Nicolas Cugnot en 1769, en sont des exemples.

Au XIXe siècle, changement d’échelle : l’invention est sur tous les fronts. Compétition humaine autant que technique, ce siècle verra se côtoyer des véhicules mus par différentes sources d’énergie, électricité, vapeur et pétrole. Cette dernière l’emportera vers la fin du siècle, donnant naissance à l’industrie automobile telle que nous l’avons connue jusqu’à récemment. C’est aussi au XIXe siècle que naîtront les premières composantes de l’écosystème automobile (usines de production, routes, garages, postes d’essence etc.).

D’une guerre à l’autre (1914-1945), l’industrialisation de l’automobile va s’organiser autour de grandes tendances qui vont interagir entre elles: l’organisation du travail dans les ateliers de production, qui vont rapidement devenir des usines (Taylor et le Fordisme) et les crises et mutations de la société qui motiveront les réponses des constructeurs (technologie et design), et qui vont concourir à la démocratisation de l’usage de la voiture

Après la seconde guerre mondiale, la voiture devient l’un des emblèmes de la société de consommation naissante. Pendant les 30 glorieuses (1945-1975), il faut produire pour satisfaire un marché de plus en plus diversifié tout en respectant des préoccupations esthétiques et de sécurité. A partir de 1973, les préoccupations relatives à l’énergie et à l’environnement prennent de plus en plus d’importance. Les modes d’organisation de la production vont suivre ces évolutions. Fondés sur le travail à la chaîne, ils vont de plus en plus faire place au contrôle des coûts et à la qualité. De nouvelles méthodes de production et de management seront mises en place (Deming – Ohno et le toyotisme), on assistera à la « diversification de masse » et, à partir de la fin des années 60, l’accent est mis sur la sécurité, le confort et l’économie d’utilisation.

Dans les années 1990-2000, on assiste à la généralisation de l’électronique dans le pilotage des mécanismes (allumage, transmissions, suspensions, freinage etc.) et les aides à la conduite. Puis, suite à la crise de 2007- 2008, de nouvelles conceptions de la voiture vont émerger (low cost, autopartage, covoiturage, voiture propre, électrique, autonome).

Analyses Sectorielles

Sébastien Garin Transformation digitale automobilepar Sébastien Garin

Pour bien prendre la mesure du phénomène automobile, un chiffrage s’impose. Née en Europe à la fin du XIXe siècle, l’industrie automobile s’est révélée aux Etats-Unis dans les années 1950, puis en Europe et au Japon dans les années 1970/80 avec un marché mondial annuel d’environ 30 millions de voitures particulières neuves.

Ces marchés matures arrivant à saturation, la dynamique des ventes est relayée par les pays émergents. La Chine est désormais le premier marché mondial avec 24 millions d’unités vendues en 2016 (+514% vs 2005) sur un marché mondial de 69 millions (+53% vs 2005).

Vivant des évolutions technologiques sans précédent (voiture électrique / autonome / connectée / big data), l’industrie automobile s’engage dans une nouvelle ère qui verra arriver de nouveaux acteurs industriels et de nouveaux usages.

 

La chaîne de valeur : entre adaptation et réinvention

Geoffroy Goldstein Transformation digitale de automobilepar Geoffroy Goldstein et Sorana NastaSorana Nasta Transformation digitale automobile

Tout au long de son histoire, la chaîne de valeur de l’industrie automobile a évolué. Partant d’une chaîne essentiellement constituée d’ateliers de production individuels et de commercialisation à la commande et sur mesure, en passant par l’intégration des processus voulue par l’industrialisation du XXe siècle (R&D, fabrication, concessions entretien), elle doit se décliner à l’ère du digital de la façon suivante: des constructeurs historiques passent d’une intégration verticale à une concurrence faite de startups menaçant de les « uberiser » ou d’entreprise dont la vocation première n’était pas d’intervenir dans le secteur automobile telles que Tesla, Apple ou Google.

Les dépenses en R&D explosent afin de ne pas laisser passer le principal marché futur : la voiture connectée mais surtout la voiture autonome.

La transformation digitale du secteur automobile ne touche pas que la voiture, une multitude d’écosystème digitaux gravitent autour de cette dernière qui profitent de cette évolution ou qui vont devoir se remettre en question : écologie, assurance, co-voiturage, vente d’occasion, intégration du véhicule dans la Smart City, toutes pistes nouvelles qui façonneront le futur de l’automobile. Un futur qui sera construit autour de l’importance croissante de l’utilisation de la data dans la conception et le fonctionnement des véhicules, de consommateurs qui changeront leur façon de se déplacer, et d’une compétition exacerbée entre les différents acteurs, nouveaux ou historiques.

 

Marketing, Web, Social Media : les nouvelles façons de communiquer

Alexis Cost Transformation digitale automobilepar Alexis Cost

Si l’expérience client est devenue un enjeu majeur pour les groupes automobiles, ce n’est pas sans raison. Le développement d’offres alternatives de déplacement depuis quelques années a été un véritable électrochoc. Le monde auto a en effet vu débarquer un concurrent auquel il ne s’attendait pas : les applications de VTC, Uber en première ligne. On pourra également citer les services d’auto-partage, tel qu’Autolib’ à Paris. Face à ces nouvelles solutions de mobilité, les marques ont une crainte majeure : que les consommateurs se dirigent vers ces solutions, au détriment de la possession d’une voiture.

L’expérience client est une nécessité pour faire face aux nouveaux comportements

Si les modes de déplacement évoluent, il en va de même pour les comportements du consommateur. Avec le développement d’internet, le consommateur s’est mis à consulter des sites de comparaison, à se renseigner de longues heures durant ou encore à écouter le feed-back rencontré sur les réseaux sociaux. Alors que les attentes glissaient lentement mais surement vers le monde digital, le secteur automobile a cantonné son expérience client à la concession. Difficile dans ces conditions de répondre aux nouvelles attentes des consommateurs.

Les marques automobiles se réinventent grâce à l’expérience client. Véritable enjeux pour se démarquer de la concurrence et répondre aux nouvelles attentes des consommateurs, l’expérience client trouve peu à peu sa place chez les groupes automobiles. Même si certaines marques tentent de proposer des expériences innovantes, la route semble encore longue avant que l’expérience client se réinvente totalement.

 

L’automobile au coeur de la transformation de la société

Ivan Subileau Trasformation digitale automobilepar Ivan Subileau

Dans l’inconscient collectif, la voiture de demain est celle des laboratoires des grands groupes, des prototypes des startups, permettant à une majorité de nos contemporains de conserver, pour quelques temps encore, un peu distance avec le sujet. « Ce n’est pas pour tout de suite », a-t-on l’habitude d’entendre parmi nos proches.

Pourtant, inéluctablement, la voiture de demain est déjà là. L’accélération du progrès technologique va permettre de passer en quelques années de la voiture moderne (thermique, géolocalisée et faiblement assistée) à la voiture 3.0 (électrique, connectée et autonome).

Le secteur automobile va connaître une profonde transformation de sa structure et de sa chaîne de valeur. La voiture quittant progressivement ses habits d’emblème de la société de consommation de masse pour enfiler ceux de composante de l’offre globale de ce qu’on appelle aujourd’hui « la mobilité ». On ne vendra plus de voitures mais l’accès à un service de mobilité, on discutera de moins en moins sur l’option du toit ouvrant de la voiture mais des packages de services embarqués. On sera de moins en moins  propriétaire et de plus en plus utilisateur de sa voiture. Nous lui en demanderons toujours plus, forts de notre « délicieuse insatisfaction » comme le dit Jeff Bezos.

Certains, comme Jeremy Rifkin prédisent à la voiture un futur glorieux, lui attribuant une place de choix dans le grand dessein de la transition énergétique. Electrique, connectée et autonome autant de capacités nouvelles pour permettre l’intégration de la voiture dans le circuit énergétique. À ce titre la trajectoire dessinée par Tesla est exemplaire : Tesla Motors pour la mobilité, pionnière dans la voiture autonome, Tesla Wall pour stocker l’énergie nécessaire à la voiture chez soi et compléter l’infrastructure de recharge et enfin Tesla Roof un système de tuiles produisant de l’énergie via le rayonnement solaire. La boucle est bouclée, la voiture étend ses capacités au-delà même de l’offre de mobilité, elle devient un des piliers de la troisième révolution industrielle en permettant le développement des ENR. Grâce à ses batteries et l’intelligence dont elle désormais dotée, elle peut manager de plus en plus efficacement l’équilibre entre production et consommation d’énergie, rendant plus viables économiquement beaucoup de projets de transition énergétique.

Pour l’industrie automobile, son imaginaire et son écosystème, demain est déjà là, vivement après-demain.

La cybercriminalité, gangrène de la révolution digitale?

La cybercriminalité est omniprésente, les cyberattaques se multiplient, pouvant paralyser des milliers d’utilisateurs, des entreprises ou des institutions publiques, voire même des états.  La révolution digitale a aussi provoqué un changement de paradigme dans le domaine de la délinquance. En mai dernier le ransomware Wannacrypt touchait 200 000 utilisateurs dans 150 pays. Un mois plus tard, le virus Petrwrap se répandait d’Ukraine en Europe et aux Etats-Unis, perturbant gravement le fonctionnement d’entreprises telles que la MAIF, Saint-Gobain, Beiersdorf ou le géant pharmaceutique Merck.

Comme le souligne Benoît THIEULIN (Ecole du management et de l’innovation – IEP Paris) :

“Nous étions, il y a encore peu de temps, dans un univers où devaient être protégées les grandes infrastructures physiques. En l’espace de 20 ans, nous avons basculé dans un monde où les structures immatérielles sont devenues essentielles au fonctionnement de nos vies.” (Magazine des Sciences-Po Eté 2017)

L’infographie ci-dessous aborde en 8 questions / réponses  le domaine de la cybercriminalité, pour mieux comprendre ses manifestations, ses dangers et saisir les risques et périls qu’elle fait courir à la révolution digitale.

Cybercriminalité De quoi parle-t-on?

Cybercriminalité les chiffres

Cybercriminalité les victimes

Cybercriminalité les méthodes des cybercriminels

Cybercriminalité à qui profite le cybercrime

Cybercriminalité comment la France lutte-t-elle?

Cybercriminalité les précautions à prendre entreprises ou particuliers

Cybercriminalité les défis de demain

L’économie collaborative en 6 étapes : parcours découverte

Economie collaborative en 6 étapes

Intelligence artificielle et Singularité : de la science à la fiction?

Quel est le dénominateur commun entre la disparition du travail humain et la disparition de l’homme lui-même, en passant par la disparition du libre arbitre, la machine consciente ou l’émergence d’une espèce hybride homme/machine, régénérée dans un âge neuf ? La réponse est : l’ intelligence artificielle (IA).

Des scientifiques (Stephen Hawking), des philosophes, des hommes d’affaires (Elon Musk, Bill Gates), s’interrogent sur les développements rapides de l’ intelligence artificielle et leurs conséquences à court terme (quelques décennies) sur l’économie, la politique, la vie, la survie de l’espèce humaine (Ray Kurzweil).

La réaction en chaîne déclenchée par l’ intelligence artificielle telle qu’on la redoute :

Les facultés d’apprentissage automatique des machines (Deep Learning) alimentées par les quantités d’information colossales (Big Data), les rendront bientôt imprévisibles, puisque leur comportement ne résultera plus du programme que les hommes auront écrit, mais des connaissances qu’elles construiront elles-mêmes, par induction automatique à partir d’informations glanées çà et là.

[…] Couplée à cette imprédictibilité, leur autonomie croissante fait qu’elles nous échapperont et prendront un empire de plus en plus grand sur l’homme. Nous atteindrons alors un point de non-retour au-delà duquel nous, humains, courrons à notre perte. (JG Ganascia)

Cet événement inéluctable a un nom : la Singularité technologique, une discontinuité radicale due à l’autonomisation de la technologie qui, s’affranchissant de la tutelle humaine, se déploierait d’elle-même, au-delà de toute limite assignable pour le meilleur et/ou pour le pire.

A cette aune, faut-il craindre l’ intelligence artificielle et son corollaire, la survenance de cette Singularité technologique ?

intelligence artificielle Jean Gabriel Ganascia
J-G Ganascia

Jean-Gabriel Ganascia, Professeur à l’université Pierre et Marie Curie, spécialiste en intelligence artificielle et en sciences cognitives, apporte des éléments de réponse et une réflexion dense et stimulante, en particulier dans deux de ses ouvrages dont cet article constitue une fiche de lecture commentée :

Intelligence artificielle, vers une domination programmée ? (Ed. Le cavalier Bleu 2007, nouvelle édition 2017)

Le mythe de la Singularité : faut-il craindre l’intelligence artificielle ? (Ed. Seuil « Science Ouverte » 2017)

On retrouve dans les interrogations, commentaires et prédictions des personnes citées plus haut, trois éléments qui devraient mener à la Singularité : la généralisation de la Loi de Moore, l’autonomie des ordinateurs / machines et l’ intelligence artificielle dite « forte ».

Le point de départ du voyage vers la Singularité : la généralisation de la Loi de Moore (Gordon Moore, Fondateur d’Intel 1965)

intelligence artificielle Gordon Moore
Gordon Moore

La première formulation de cette loi date de 1965 et affirmait que la puissance des ordinateurs, calculée selon le nombre de transistors par microprocesseur, double environ tous les deux ans. On l‘a ensuite appliquée aux performances, à la rapidité de traitement et aux capacités de stockage de l’information, couplée à une diminution des coûts de ces opérations dans les mêmes proportions quantitatives et temporelles.

Si cette loi se vérifie indéfiniment, qu’adviendra-t-il de machines aussi puissantes ? Poursuivons dans l’extrapolation : et si cette loi n’était pas limitée à la technologie mais s’appliquait aussi au principe général qui régit l’évolution de la culture humaine, de l’homme, de la vie et de la nature depuis les origines (Ray Kurzweil) ?

Cette loi peut-elle se vérifier indéfiniment ? Rien ne permet de le prouver.

C’est une formule empirique, qui repose sur un simple constat. Le fait qu’il soit avéré depuis 50 ans ne lui retire pas sa nature empirique et ne lui assure en rien une validité future. Son caractère inductif (passage de l’observation de nombreux cas particuliers à une loi générale) rend sa validation scientifique compliquée (reproductibilité par expérimentation quasiment impossible). Il faut donc à défaut, recourir à un axiome implicite de « régularité » selon lequel ce qui advint par le passé, advient et adviendra toujours de la même façon. Toute induction repose sur un principe d’uniformité (John Stuart Mill). Or l’évolution de la technologie au cours de l’histoire n’a rien d’uniforme.  Mais surtout, le principe d’uniformité est incompatible avec la survenance d’une rupture, ce qu’est justement l’apparition d’une Singularité.

Même si rien n’exclut, au plan logique, qu’une évolution catastrophique de la technologie vienne bouleverser le statut de l’homme dans la nature, cette rupture ne saurait se déduire d’une loi reposant sur la régularité du cours de la technologie. (JG Ganascia)

Elle se heurte à certaines barrières d’ordre physique et technologique : vitesse de propagation finie des ondes électromagnétiques, limites dans la miniaturisation dues aux techniques de fabrication actuelles des processeurs (« Mur du Silicium » mentionné par Intel dès 2016. Les composants doivent avoir une taille minimale de quelques dizaines de nanomètres pour remplir leurs fonctions). De nouveaux éléments viendront certainement repousser ou briser cette limite (utilisation du graphène, calcul quantique etc.) avec pour conséquence une remise en question d’une manière ou d’une autre de la loi de Moore.

La combinaison de la loi de Moore concernant les performances des processeurs et du constat selon lequel la nature aurait évolué de façon similaire, pour aboutir à une seule loi générale

intelligence artificielle Ray Kurzweil
Ray Kurzweil

d’évolution (Ray Kurzweil) a-t-elle un sens ?

Non. Le parallèle est abusif. Comme l’ont montré des spécialistes de l’évolution (Stephen Jay Gould par exemple) :

L’évolution apparaît partout contingente. Vue dans sa globalité, elle ne se présente ni comme une marche ininterrompue vers la complexité, ni comme une progression vers un idéal de perfection. (JG Ganascia d’après SJ Gould)

Fréquence et puissance de calcul, capacités de stockage de l’information produisent-elles automatiquement de l’ intelligence ? Non. La discipline qui a pour nom intelligence artificielle, créée en 1955 par deux mathématiciens, John McCarthy et Marvin Minsky, vise à simuler sur des ordinateurs les différentes facultés cognitives humaines et animales (capacité à raisonner, comprendre des textes, démontrer des théorèmes, percevoir et reconnaître des formes, des sons etc.) pour mieux les comprendre. Cette discipline repose sur l’hypothèse de la possibilité de décomposer l’intelligence et ses différentes facettes en fonctions élémentaires qui deviendraient reproductibles sur un ordinateur. Le travail est loin d’être terminé et n’a aucun propos démiurgique.

Les machines auto reproductives, auto apprenantes, entièrement autonomes échapperaient-elles in fine à tout contrôle?

intelligence artificielle colossus film

Cet effet est décrit dans les théories de l’amorçage ou de l’auto apprentissage en IA (Jacques Pitrat 2009). Les machines ne se contenteraient pas de dupliquer et de propager de l’information, mais dupliqueraient leurs programmes puis les amélioreraient en observant leurs comportements, afin d’en tirer les conséquences bénéfiques (pour elles) et ainsi de suite jusqu’à devenir autonomes. Cette piste de recherche, ouverte aux Etats Unis depuis la fin des années 1950, n’a pour l’instant pas donné de résultats probants.

Il est nécessaire à ce stade de clarifier le sens donné à l’autonomie.  Celle-ci se conçoit selon deux perspectives :

La première, au sens technique, signifie qu’il existe une chaîne de causalité matérielles allant de la prise d’information par des capteurs, à la décision , puis à l’action, qui ne fait pas intervenir d’agent extérieur, en particulier humain. C’est l’exemple de la voiture autonome qui choisit son itinéraire ou du système d’armement qui déclenche un tir sur une cible qui correspond aux caractéristiques apprises par la machine qui le régit.

La seconde, au sens philosophique, assimile l’autonomie à la capacité de se donner ses propres lois, à savoir les règles et les finalités de son comportement. C’est, dans le cas du système d’armement, le déclenchement d’un tir sur une cible dont la machine a déterminé elle-même les caractéristiques, dans le cadre d’un objectif qu’elle s’est elle-même assignée.

A la source de ces deux comportements, il y a l’apprentissage. Celui-ci se déroule selon trois modalités :

1/ L’apprentissage « supervisé » dans lequel un professeur donne des exemples avec des étiquettes. Par exemple, si l’on veut que la machine reconnaisse des formes géométriques, on va lui donner de nombreux exemples de carrés, rectangles, cercles, etc. définis comme tels, avec comme objectif qu’elle puisse ensuite les distinguer automatiquement.

2/ L’apprentissage « non supervisé » dans lequel les exemples sont donnés à la machine sans que l’on précise la catégorie dont ils relèvent (plus d’étiquettes !). On construit alors des procédures qui permettent à la machine de regrouper ces exemples et d’en dégager automatiquement des caractéristiques qui en permettront ultérieurement la reconnaissance.

3/ L’apprentissage par renforcement, qui permet à la machine d’améliorer progressivement ses performances grâce à l’expérience, par le biais de récompenses et de punitions que renvoie l’environnement. L’apprentissage dans ce cas, essaie de maximiser les récompenses / gains et de minimiser les punitions / pertes. Cette logique d’apprentissage suppose une continuité du comportement de l’objet étudié dans le temps.

Ce principe se généralise aisément. Ainsi, imaginons un aspirateur. Pour qu’il soit efficace, on lui donnera une « récompense » lorsqu’il aspirera de la poussière, autrement dit on l’imagine amateur de poussière, c’est-à-dire « poussiérophile ». Et, grâce à l’apprentissage par renforcement, après un temps d’adaptation, il ira visiter en priorité les lieux où son expérience lui a appris qu’il y a plus de poussière. (JG Ganascia)

Dans tous les cas, c’est un “professeur” humain qui va étiqueter, procédurer, récompenser et punir. Ce n’est pas la machine qui se donne spontanément ses propres règles. Elle suit un enseignement donné par des hommes et n’est donc pas totalement autonome.

Couplées au Big Data, ces techniques d’apprentissage peuvent donner des résultats spectaculaires et fonder une crainte de voir la machine devenir supérieure à l’homme. Elle l’est indubitablement dans les cas où le recours rapide à des masses de connaissances est nécessaire pour effectuer une action.

Mais on demeure dans le cadre de l’autonomie de la machine au sens technique.  Même dotés de capacités d’apprentissage ainsi que de celles de faire évoluer leurs programmes, les machines restent soumises aux catégories, procédures et finalités imposées par ceux (les « professeurs ») qui auront mené à bien leurs phases d’apprentissage.

Le questionnement tel qu’exprimé par nos scientifiques, philosophes et hommes d’affaires reste parfaitement légitime et nécessaire. Les risques de mésusage des machines ou d’accidents existent, et il faut travailler à les anticiper pour en réduire la probabilité de survenance et la gravité des conséquences. Nul doute que les performances des machines et leur utilisation, dans le cas de l’autonomie technique, auront des conséquences énormes sur l’environnement humain, en particulier sur le travail. Cela ne veut pas pour autant dire que les machines atteindront l’autonomie au sens philosophique, le point de non-retour à partir duquel les ordinateurs seront capables de se perfectionner indéfiniment sans concours humain, et de « prendre le pouvoir ».

L’ intelligence artificielle « forte » : voie royale vers la Singularité?

Rappelons-le, la définition de l’ intelligence artificielle au sens des créateurs de la discipline, McCarthy et Minsky en 1955 est la suivante :

intelligence artificielle Marvin Minsky
Marvin Minsky 1967

L’étude doit se fonder sur la conjecture selon laquelle chaque aspect de l’apprentissage ou de toute autre caractéristique de l’intelligence pourrait être décrit si précisément qu’une machine pourrait être fabriquée pour la simuler (McCarthy & Minsky, cités par JG Ganascia)

intelligence artificielle John McCarthy
John McCarthy 1967

L’objectif de ces chercheurs est avant tout pragmatique. Il s’agit de mieux comprendre l’ intelligence humaine et animale en reproduisant ses différentes manifestations sur un ordinateur. Il faut donc pour cela décomposer chaque faculté cognitive humaine en opérations élémentaires susceptibles d’être reproduites sur ordinateur. On est très loin de la création d’un surhomme ou d’une conscience artificielle.

Ce courant originel, qui a donné jusqu’à présent les applications concrètes de l’IA (reconnaissance, vocale, faciale, guidage de véhicules, recommandations utilisées dans le commerce, etc.) est qualifié d’IA « faible ».

L’ intelligence artificielle « forte », courant de pensée apparu au début des années 1980, a une toute autre finalité. Il s’agit là de reproduire un esprit et/ou une conscience sur une machine avec des techniques d’ intelligence artificielle. La survenance ce cette IA « forte » aurait des répercussions majeures sur le devenir de l’espèce humaine voire sur l’univers.

Là où nous avions une discipline scientifique fondée sur des simulations informatiques et sur leur validation expérimentale, nous trouvons une approche philosophique fondée uniquement sur une argumentation discursive; là où l’on insistait sur la décomposition de l’ intelligence en fonctions élémentaires reproductibles sur des ordinateurs, on insiste sur la recomposition d’un esprit et d’une conscience à partir de fonctions cognitives élémentaires. (JG Ganascia)

L’ intelligence artificielle «forte » est la pierre angulaire technologique pour aller vers la Singularité. Elle permettrait la fusion de l’homme et de la machine (transhumanisme) ainsi que, stade ultime, la dissociation de l’esprit de l’homme d’avec la matière, en d’autres mots de la nature et de ses lois, considérée comme imparfaite. Ce sont les machines qui auront des capacités matérielles supérieures à nos cerveaux humains et qui se chargeront de l’aspect matériel de l’existence. Il ne restera plus qu’à y télécharger nos consciences.

Les six phases de cette grande histoire selon Ray Kurzweil sont les suivantes :

1/ Le big bang et la naissance du premier électron, des protons et des atomes.

2/ L’élaboration progressive de la matière organisée, l’ère de la vie avec l’ADN, les cellules, les tissus biologiques et les premiers organismes.

3/ L’apparition des mammifères dotés de cerveaux de plus en plus en perfectionnés, jusqu’à l’homme.

4/ Le perfectionnement des technologies conçues par l’homme.

5/ La phase actuelle où les technologies initialement conçues par l’homme pour le servir prendraient leur autonomie, se perfectionneraient d’elles-mêmes et se grefferaient sur la matière organique pour donner naissance à des cyber organismes et à une humanité augmentée.

6/ La phase à venir caractérisée par l’apothéose de l’esprit où l’univers se réveillerait et s’emplirait d’une intelligence d’ordre essentiellement technologique dont le règne succèderait à celui du vivant.

(The singularity is near / Ray Kurzweil cité par JG Ganascia)

Ceci ne manque pas de souffle, mais reste du domaine de la profession de foi et du récit fantastique.

En conclusion :

Des trois éléments qui doivent mener à la Singularité (la Loi de Moore généralisée, l’autonomie complète des ordinateurs / machines et les fondements l’ intelligence artificielle dite « forte »), aucun n’est suffisamment démontré scientifiquement pour valider sa survenance dans un futur proche, du moins tel qu’annoncé par ses partisans. L’enchaînement relève donc plus de la fiction que de la science.

intelligence artificielle Barros
Dessin: Barros

Ceci ne veut cependant pas dire que le questionnement est vain. Il est même plutôt sain, mais devrait porter beaucoup plus sur les conséquences concrètes de l’application dans la vie courante des développements de l’ intelligence artificielle dite « faible », et des réponses à y apporter !  Les conséquences sur l’avenir et la composition du travail humain, l’environnement, la santé, les choix de société ne seront pas « faibles ». Le « tsunami » de l’ intelligence artificielle (Laurent Alexandre) va frapper là et, effectivement, l’impréparation est notre meilleure ennemie.