Après le succès de De l’autre côté de la Machine, Aurélie Jean nous entraîne dans un nouveau voyage : au cœur de nos institutions juridiques et des algorithmes qui s’y exercent. Comment la loi est-elle pensée et appliquée au temps des algorithmes ? Comment les algorithmes sont-ils utilisés au sein du système judiciaire ? Et est-il vraiment possible de les réguler ? C’est un fait : les algorithmes rythment nos vies. Ils nous aident à nous déplacer, à travailler, à nous soigner, et même à légiférer. Certains, alarmistes, diraient qu’ils sont de partout… Or, peu d’entre nous les comprennent, sans parler d’en maîtriser les subtilités. Nos dirigeants, parlementaires et nos juristes n’y font pas exception, et participent pour certains à augmenter la confusion autour de leur utilisation et de leur supposé danger... Pourtant, il est aujourd’hui nécessaire, voire capital, de comprendre le fonctionnement des algorithmes développés, mais aussi d’anticiper leur développement, de l’encadrer et de l’accompagner aussi judicieusement que justement. Une chose demeure cependant certaine : les algorithmes ne disposent d’aucune personnalité juridique face à un tribunal. En revanche, s’ils ne peuvent réellement faire la loi, ils l’influencent et en orientent désormais la pratique. Mal employés, ils deviennent une menace pour ses principes de transparence et d’équité. Bien maîtrisés, ils peuvent, au contraire, guider ceux qui la font et l’exercent afin de garantir le traitement égalitaire de chacun face à la justice. Consciente du défi qui nous attend, Aurélie Jean nous appelle à agir et propose de dompter (plutôt que de réguler) les algorithmes à travers des lois souples et anticipatrices, afin de ne rien sacrifier au progrès tout en les pensant dans la plus grande objectivité scientifique, sociale et économique. Car c’est cette même transparence intrinsèque à l’exercice de la justice qui doit s’appliquer dans le champ des algorithmes afin de permettre à chacun – du citoyen au législateur – de garantir l’harmonie, la justice et l’essor intellectuel au sein de nos sociétés.
Premierement, la forme. Le style est lourd. L'auteur fait des phrases interminables avec des metaphores et figures de style grossieres. La taille du livre pourrait etre divise par trois voire par cinq sans pour autant perdre de sa signification. Il est *tres* facile de faire un livre ou on s'etale. C'est extremement complique de vehiculer ses idees clairement et simplement. Le livre echoue sur ce point.
Pas mal de faits sont incorrects. Par exemple, quand il est ecrit que le gouvernement francais a etendu les lois informatiques et libertes en 1995 a cause de l'apparition du cloud (ce qui est ecrit a deux fois). Or, le cloud est ne avec Salesforce (lire "Behind The Cloud") et AWS dans le milieu des annees 2000. Il est clair que l'auteur encense le gouvernement francais (plus a ce sujet plus loin) et europeen pour leur avant-gardisme, mais c'est tout de meme aller un peu loin. Il y a plusieurs autres inexactitudes dans le livre, surtout sur la maniere dont sont entraines les modeles.
L'auteur reference Feynman plusieurs fois ("If you can't explain something in simple terms, you do not understand it"). Cela fait de la peine de voir cette citation plusieurs fois dans ce livre quand les explication sur les algorithmes ou les donnees (qui est reference par le terme "data" dans le livre) s'etendent sur des pages et ne sont pas claires. Le livre tente de definier des concepts en prenant plusieurs pages alors que cela pourrait etre realise en deux pages maximum. Definir un algorithme est tres simple (par ailleurs, il n'y a pas d'algorithme "implicite" ou "explicite" (au dela de quelques papiers de recherche dans des domaines bien cibles) et n'a pas besoin d'une demi chapitre. Le but de ce livre est de vulgariser: parler de reseaux de neurones n'a aucun but autre que de montrer de pretendues connaissances scientifiques. Il est en effet difficile de vulgariser des concepts complexes et le livre echoue aussi sur ce point.
Je ne peux pas m'empecher de penser que ce livre est une tentative de demarrer une carriere politique. Le constant encensement de la RGPD (qui a pour seuls buts de placer des bannieres sur tous les sites et renflouer les caisses des etats en manque d'innovation via des taxes) en est un bon exemple. Le livre fait par ailleurs de nombreuses references a la sensibilite politique de l'auteur. Ce qui me fait penser que le but du livre n'est pas d'expliquer un probleme complique au grand public mais plutot se positioner sur l'echiquier politique en montrant sa potentielle pertinence scientifique.
Enfin, il est penible de voir des auto-references constantes sur les travaux precedents de l'auteur. Ce genre d'auto-felicitations montre soit (1) un manque d'inspiration, (2) de recherche bibliographique ou (3) tout simplement d'humilite.
Pour parler des problemes evoques dans ce bouquin, je conseille plutot de suivre la Quadrature du Net ou des personnes comme Stephane Bortzmeyer ou Benjamin Bayart. Encore une fois, il est tres difficile de vulgariser un probleme complique. En france, un des meilleur vulgarisateurs actuel est Jancovici qui brille par ses interventions de livres. Ici, on en est tres, tres, tres loin.
Je suis très mitigé sur ce livre. D'un côté il apporte sa contribution sur la nécessité de réguler l'utilisation des algorithmes et a eu le mérite de m'intéresser à la question. D'un autre côté, il est confus, assez creux en terme de contenu et contient énormément de redites et des nombreuses digressions qui nous font perdre le fil du chapitre.
Les deux premiers chapitres sont très fouillis. L'auteur tente de planter le décor en s'adressant au plus grand nombre. C'est peu réussi : vouloir expliquer l'algorithmique, l'IA, la conception, le contexte entreprise en quelques paragraphes n'est pas simple. En outre, aucunes images ou schémas. Connaissant le sujet, j'ai vraiment constaté des maladresses et une vulgarisation alambiquée. Que de termes grandiloquents (comme "algorithme computationnel") pour perdre le lecteur néophyte.
La façon d'amener la RGPD est également très trompeuse. La RGPD, c'est d'abord la protection des données. C'est l'individu, son consentement éclairé, sa liberté de disposer de ses données personnelles. Il y a certes une notion de traitement informatique (d'algorithme si vous préférez), mais ce n'est pas la finalité de ce règlement. Rappelons qu'il s'agit de déclaratif de la part des entreprises.
Les exemples énoncés concernent des IA qui traitent des données humaines (réseaux sociaux, banque, police) qui comportent, en effet, de nombreux biais. Comme justement dit par l'auteur, on ne pourra pas couvrir toute la gaussienne, je suis très d'accord avec ça. La science s'améliorera avec le temps c'est certain, mais on aura toujours des cas extrêmes qui vont poser problème.
A parler d'algorithme au sens large, je me suis posé la question s'il fallait mettre tous les algorithmes dans le même panier. Je ne le pense pas. Si on considère des algorithmes qui n'ont pas trait directement aux humains, pourquoi les légiférer ? Par exemple: un algorithme de rechargement de batteries ou un modèle de prédiction météorologique. Ces algos sont imparfaits (sous-optimaux), c'est regrettable mais pas critique au sens législatif. Pourquoi vouloir imposer du "fairness" et de l'éthique partout ?
J'ai apprécié les chapitres 5 & 6, notamment la partie sur le droit international. Bien qu'empreint d'un peu trop de conditionnel à mon gout ("y'a qu'à, faut qu'on"). Parmi de longues phrases (pour finalement peu de contenu), il y a des choses intéressantes ici et là.
Concernant la partie justice, je pense que l'IA est présente pour donner un avis (prédictions, suggestions), mais c'est toujours un humain qui prendra la décision finale. Diaboliser ce qui se passe aux États-Unis n'est pas une bonne idée. En 2023, la comparaison d'empreinte digitale ou faciale, s'effectue toujours par un expert. Celui-ci valide si une empreinte (ou une partie) recueillie sur une scène de crime est identique à une empreinte présente en base de données policière. L'outil est là pour suggérer une réponse (des candidats), il ne décide pas d'envoyer les gens en prison ! Ces algorithmes servent énormément aux forces de police car il aide concrètement à la résolution de crimes et des "cold cases".
Cela m'a aussi rappelé aussi un article relatant la sévérité des verdicts des juges statistiquement moins cléments avant manger que après manger. A l'instar des données d'entrainement de nos IA, le cerveau humain est lui aussi rempli de biais...
Un dernier point positif : sources en bas de page et glossaire en fin d'ouvrage. Merci !
Aurélie Jean comprend son sujet et arrive à le rendre intelligible au plus grand nombre. Dans un univers où les médias ont tendances à nous faire croire que nous comprenons, cette lecture apporte un éclairage sur cet univers technologique dont nous connaissons le vocabulaire mais rarement les tenant-aboutissant.
Un livre de vulgarisation sur les algorithmes Quelques explications intéressantes mais arrive le passage sur les "queues de fonctions gaussiennes tronquées" , zéro explication , une question de loi de probabilité d'après mes recherches.....pas tout compris, là... Bref... Finalement lire le glossaire et la conclusion aurait été suffisant.