Technologies radicales - Adam Greenfield
Pratiquement toutes les autres interactions se font par l’intermédiaire du composant le plus remarquable et le plus important de l’appareil : un écran tactile en verre résistant aux chocs, d’une résolution de plus en plus élevée, couvrant la quasi-totalité de sa surface. C’est cet écran, plus que tout autre composant, qui est responsable de l’attrait universel du smartphone. L’utilisation d’un appareil à écran tactile contemporain est d’une déconcertante facilité. Tout ce qu’il nous demande, c’est d’apprendre et d’exécuter quelques gestes de base : le tapotement familier (tap), le balayage (swipe), le glissement (drag), le pincement (pinch) et l’étirement La maîtrise de ce vocabulaire d’interaction demande si peu d’efforts qu’en dépit de quelques modifications, raffinements et spécificités propres à chaque fabricant, pratiquement tous les éléments du paradigme d’interface du smartphone contemporain dérivent du premier modèle à l’avoir utilisé, l’iPhone original d’Apple, lancé à l'été 2007.
---
Consciemment ou non, les designers d’interaction ont appris à stimuler et à exploiter ce désir : ils savent pertinemment qu’à chaque fois que quelqu’un vous envoie un texto, « like » votre photo, ou répond à votre courrier électronique, cela vous change matériellement, puisque cela modifie les connexions des neurotransmetteurs, active les circuits de récompense de votre cerveau et augmente les chances que vous déclenchiez à nouveau le cycle complet, quelques secondes plus tard, lorsque se sera estompée la montée de dopamine. Ce malicieux hack exploite nos besoins les plus primaires d’affirmation de soi, le plus souvent à partir des motivations les plus vénales.
---
Les assistants virtuels, quel que soit l’artefact auquel ils sont intégrés à un moment donné, nous écoutent littéralement tout le temps, ainsi que tout ce qui se dit en leur présence. Évidemment : en tant qu’interfaces à commande vocale, ils sont par définition constamment à l’écoute, afin de détecter le moment où le « mot d’éveil » qui déclenche leur action est prononcé. Le fait qu’ils soient ainsi en mesure de collecter des données susceptibles de servir ensuite à affiner le ciblage publicitaire ou à poursuivre d’autres objectifs commerciaux n’est mentionné qu’au plus profond des termes et conditions qui régissent leur utilisation13. La logique qui prévaut ici est celle de la capture préventive : l’idée que, en tant que fournisseur de services, vous ne savez jamais quelle valeur vous pourriez en retirer à l’avenir, et donc que vous avez tout intérêt à collecter tout ce que vous pouvez.
---
Mon intention n’est pas tant de dire que l’internet des objets est un cauchemar en termes de sécurité, bien que ce soit certainement le cas. Ce que je veux mettre en lumière, c*est que, dans une très large mesure, il s’agit là d’une conséquence directe de décisions commerciales, et par conséquent, d’un problème de modèle économique. Il n’est pas si coûteux de doter les appareils en réseau d’une sécurité suffisamment élaborée pour déjouer les exploits* les plus évidents — mais dans le segment inférieur du marché, où les marges bénéficiaires sont minces, toute augmentation supplémentaire du coût est intolérable. Pareillement, l’hôtel équipé d’interrupteurs Android voulait pouvoir se targuer d’offrir à ses client-es une expérience de pointe, mais n’était manifestement pas prêt à investir dans un plan de sécurité efficace ou dans un système d’adressage qui empêcherait de deviner aussi trivialement les contrôles de chaque chambre.
---
Les dispositifs de collecte d’informations en réseau les plus divers sont déjà déployés dans l’espace public, notamment des caméras, des capteurs de force et autres dispositifs de détection de la présence de piétons et de véhicules, des microphones de détection automatique des coups de feu et autres grilles de surveillance du spectre sonore, des panneaux publicitaires et des distributeurs automatiques équipés de capteurs biométriques, ou encore des systèmes de micropositionnement en intérieurs connus sous le nom de « balises » qui communiquent directement avec les smartphones.
Heureusement, le piéton moyen n’a au mieux qu’une conscience limitée de la présence ou du fonctionnement de ces capteurs. Depuis le trottoir, ils apparaissent comme une profusion de capsules peu remarquées et plus ou moins inexplicables sur les façades et les lampadaires, une incrustation fractale constituée de dispositifs d’âge, de type et de provenance extrêmement variés.
---
Mais malgré l’étendue et la portée impressionnantes de notre pouvoir, nous continuons de nous heurter aux limites apparemment fondamentales de la matérialité et de la mortalité. La vie comporte toujours un large éventail de tâches pour lesquelles nous ne sommes pas très doué-es — celles que nous ne pouvons accomplir qu’un certain temps avant de nous fatiguer, celles devant lesquelles nous nous défilons, et celles qui nous mettent en danger physiquement ou psychologiquement. Aucune de ces tâches ne devient plus facile et aucune n’est sur le point de disparaître. Et au-dessus de nos têtes se profile la promesse, lointaine mais certaine, de la mortalité. En un sens très réel, nous sommes toutes et tous pressé-es par le temps.
---
Et ce que ni Keynes ni aucun autre économiste n’a envisagé, jusqu a très récemment, c’est que le processus d’automatisation ne s’arrêterait pas une fois le travail manuel et de bureau remplacé. Si l’automatisation a d’abord été appliquée à des tâches qui faisaient partie des « quatre D » ( dull , dirty, difficult or dangerous ; ennuyeux, sale, difficile ou dangereux), la mise au point d’algorithmes sophistiques d’apprentissage automatique signifie que les professions libérales et les fonctions d’encadrement sont désormais concernées. Il faut bien comprendre que les systèmes automatisés peuvent remplacer n’importe lequel ou laquelle d’entre nous dans son travail, quand bien même il s’agirait théoriquement d’un travail de
direction ou d’un travail « créatif ».
---
Nous avons souvent tendance à imaginer l’automatisation en termes héroïques, comme si elle revêtait les teintes d’un réalisme socialiste cybernétique : nous imaginons des rangées de puissants tracteurs robotisés sillonnant le grain en bandes parallèles de quinze kilomètres de large, ou d’énormes entrepôts sombres où d’implacables manipulateurs préparent, emballent et expédient les marchandises en silence. Cependant, pour l’industrie — et en l’occurrence, c’est vraiment son point de vue qui pèse le plus lourd et qui compte le plus —, l’automatisation signifie également des technologies beaucoup moins élaborées, comme les bornes de commande à écran tactile que McDonald’s a commencé à introduire dans ses établissements à l’automne 2014. En fait, l’automatisation désigne ce qui réduit le besoin en main-d’œuvre humaine, que ce soit un robot de prélèvement et d’emballage, un moniteur biométrique portable, une application pour smartphone ou la refonte d’un processus opérationnel.
---
Dans leur récent ouvrage Accélérer le futur, Nick Srnicek et Alex Williams perçoivent dans ces circonstances une opportunité historique pour la gauche. Leur thèse, pour faire simple, est qu’à l’avenir, il n'y aura tout simplement pas suffisamment d’emplois intéressants pour fournir à une main-d’œuvre mondiale de cinq milliards de personnes ou plus un emploi leur permettant de subvenir à leurs besoins — et qu’il est de toute façon pervers de défendre des emplois dont on sait pertinemment qu’ils sont merdiques.
---
En raison du volume colossal de données qui les traversent, toute modification apportée à l’un des algorithmes les plus utilisés peut avoir des conséquences qui se répercutent sur l’ensemble de la société. Chaque fois que Google modifie son algorithme de recherche, ou Facebook celui qu’il utilise pour gérer le placement des contenus, certaines propositions commerciales deviennent soudainement viables, tandis que d’autres cessent immédiatement de l’être ; plus profondément encore, certaines perspectives sur la réalité sont renforcées, tandis que d’autres sont ébranlées. Ces ajustements particuliers, précisons-le, ont été effectués manuellement, invariablement en réponse à une vulnérabilité ou à une faiblesse perçue — dans le cas de Google, les fermes de contenu et autres sites de faible qualité se hissaient trop haut dans les résultats de recherche en jouant avec son algorithme, dans le cas de Facebook, l’accusation selon laquelle son module relatif aux tendances de l’actualité était biaisé au détriment des sources de droite. Mais ces perfectionnements algorithmiques ne sont pas tous manuels.
Ce qui relie toutes ces situations, c’est leur dynamisme. Parce que les circonstances du monde évoluent si rapidement, un algorithme censé relever les défis de la vie quotidienne ne peut que souffrir d’être statique et figé. Contraint de se frayer un chemin dans un environnement fondamentalement imprévisible, parfois même turbulent, un algorithme sera idéalement doté, comme chacun-e d’entre nous, de la capacité d’apprendre de ses expériences, de généraliser à partir de ce qu’il a rencontré et de développer en réponse des stratégies adaptatives. Au fil du temps, il apprendra à reconnaître ce qui distingue une bonne performance d'une performance inacceptable, et à améliorer ses chances de réussite la prochaine fois. Il affinera sa capacité à détecter ce qui est important dans une situation donnée et à agir en conséquence. Ce processus est appelé « apprentissage automatique (machine learning).
---
Au commencement était le programme. Traditionnellement, le fait d’utiliser des ordinateurs pour résoudre des problèmes du monde réel impliquait d’écrire des programmes, et donc d’exprimer ces problèmes dans des termes qui pouvaient être interprétés et exécutés par la machine. La recherche en intelligence artificielle s est poursuivie dans cette voie pendant des décennies, culminant avec les systèmes dits experts des années 1980, qui tentaient d’abstraire l’expertise accumulée par un diagnosticien humain ou une avocate sous la forme d’un arbre de décision construit sur une série de règles explicites de type « si-alors », Ces systèmes fonctionnaient, selon une approximation grossière du concept de « fonctionnement », mais ils étaient maladroits et fragiles, échouant complètement lorsqu’ils étaient confrontés à des situations que leurs programmeurs n’avaient pas envisagées.
---
Les problèmes que nous associons à un mauvais apprentissage automatique sont ceux qui apparaissent lorsqu’une caractéristique inappropriée est utilisée dans la classification ou lorsque le processus d’abstraction ne fonctionne pas correctement. D’une manière générale, cela peut se produire de deux façons : le surapprentissage et le biais. Le surapprentissage signifie qu’un algorithme a « mémorisé » les données d’entraînement au lieu d’apprendre à généraliser à partir d’elles, ce qui arrive la plupart du temps lorsque le jeu d’entraînement diverge fortement de ce à quoi l’algorithme est confronté dans le monde réel. Il se peut que toutes les Camaro montrées à notre algorithme au cours de la phase d’apprentissage aient été rouges et que, par conséquent, il se soit trompé en considérant cette caractéristique comme un classificateur définitif plutôt que comme une variable indépendante. Il aura donc des problèmes à identifier avec exactitude les Camaro noires.
---
Un algorithme présentant un biais élevé se contente d’avancer au hasard, quelle que soit la confiance qu’il semble avoir dans son étiquetage, et identifiera sans hésiter des objets purement statiques comme une maison, une baleine ou une chaise. (Il convient de distinguer ce sens du terme de son sens péjoratif plus habituel, à savoir que les préjugés implicites de la partie responsable de l’entraînement d’un algorithme se reflètent dans ses résultats—bien que cela arrive aussi, comme dans le cas tristement célèbre où l’algorithme de Google Images a identifié une photo de personnes noires comme étant des « gorilles », apparemment parce que les seules images d’entraînement étiquetées « personnes » qu’on lui avait fournies avaient la peau claire.)
---
L’équivalent de la classification pour l’apprentissage non supervisé est le regroupement hiérarchique (clustering),au cours duquel un algorithme commence à développer un sens de ce qui est significatif dans son environnement par le biais d’un processus d’accrétion. Un exemple concret nous aidera à comprendre comment cela fonctionne.
---
Ces outils utilisent l’analyse de sentiments, une facette de la pseudo-science émergente de la « reconnaissance d’intention », pour extraire des renseignements exploitables à partir d’énoncés20. Mais il est étonnant que quelqu’un prenne au sérieux l’analyse de sentiments pour des applications autres que les plus triviales, sans parler du contexte de vie ou de mort qu’est trop souvent un contrôle de police. Les algorithmes utilisés sont notoirement grossiers et simples d’esprit, et butent sur le sarcasme et d’autres modes d’expression courants. Ils ont des difficultés avec l’ordre des mots, les doubles négations, les qualificatifs ambigus et les structures de phrases inversées21. En bref, on ne peut tout simplement pas compter sur eux pour distinguer le sarcasme le plus évident d’un véritable INDICE.
---
Plus insidieusement, le contexte colore nécessairement l’interprétation d’énoncés autrement inoffensifs, en particulier les énoncés balayés par le type de recherches débiles par mots-clés uniques que Snaptrends met en avant dans sa documentation promotionnelle. Lorsque j’utilise le mot « héroïne » dans un message sur les médias sociaux, je peux répondre à une question sur ma chanson préférée de Velvet Underground, discuter des allégations selon lesquelles la Air America de la CIA était impliqué dans le trafic de drogue au Laos à la fin des années i960, ou encore mal orthographier le terme genré désignant le protagoniste d’une œuvre de fiction, mais ce que je ne fais certainement pas, c’est proposer ouvertement à la vente la drogue de l’annexe I connue sous ce nom.
Et pourtant, c’est ce scénario tout à fait improbable qui est déduit d’un acte de collecte de ce type. Il sera consigné avec mon identité, et me marquera, au même titre que toute personne assez imprudente pour communiquer avec moi, comme des personnes ayant un intérêt connu pour les drogues illicites, au moment où. nous serons pris es dans des rafles automatisées de « clusters d’activité » et de « réseaux de relations ». Si notre activité dépasse un certain seuil d’intensité (qui n’est jamais spécifié par Snaptrends ou ses agences clientes), nous pouvons faire l’objet d’une surveillance accrue, ou même d’une surveillance physique. (Celles et ceux qui s’inquiètent du risque évident de dérive et de dépassement de fonction seront certainement soulagé-es d’entendre Jessie Metoyer, responsable des affaires publiques de la police de Racine, dans le Wisconsin, promettre à un journaliste que, du moins entre les mains de son service, Snaptrends « serait strictement utilisé à des fins d’enquêtes criminelles22 ».)
---
L’étape suivante du « maintien de l’ordre intelligent » (intelligent policing) est ce que l’on appelle le redboxing, lequel consiste, grâce à des algorithmes prédictifs, à envoyer de préférence des unités de police dans des quartiers ou des lieux spécifiques considérés comme présentant un risque de criminalité particulièrement élevé. Un progiciel d’analyse appelé PredPol, qui a été agréé par plus de soixante services de police étatsuniens, dont ceux de Los Angeles et d’Atlanta, compte parmi les leaders du marché du redboxing — le logo de la société est d’ailleurs une boîte rouge stylisée. PredPol fournit aux unités de patrouille une liste des dix à vingt endroits de la zone d’opération qui leur est assignée où, selon elle, des actes criminels sont le plus susceptibles de se produire au cours de leur service25.
---
Les choix que nous faisons lors de la conception d’un algorithme ont des conséquences profondes sur les éléments qu’il trie. Même le choix de la pondération appliquée à une seule variable peut produire des effets différents dans l’application d’un outil algorithmique.
Supposons qu’en tant qu’administrateur municipal soucieux du maintien de l’ordre et de la protection des citoyen-nes, vous souhaitiez repérer et neutraliser le plus grand nombre possible de meurtriers potentiels avant qu’ils ne puissent faire le moindre mal. Votre examen des données ne vous offre que quelques critères de sélection, mais vous finissez par déterminer que sur les sept individus accusés d’homicide dans votre district au cours des six derniers mois — accusés, attention, pas condamnés, car un autre organisme détient ces données et vous n’y avez pas accès —, 100 % d’entre eux sont des hommes issus de familles monoparentales, âgés de 18 à 30 ans, qui ne possèdent pas de diplôme supérieur au baccalauréat. Chacun d’entre eux possède naturellement d’autres qualités, expériences de vie et attributs, mais c’est le seul ensemble de caractéristiques qu’ils partagent tous. Il s’agit donc du groupe de caractéristiques autour duquel vous développez votre algorithme prédictif. Vous avez choisi d’optimiser le rappel.
---
L’introduction consciente de faits dérangeants dans le débat public n’a rien de nouveau. Des anticonformistes pop autosatisfaits comme Malcolm Gladwell ou les auteurs de Freakonomics, Steven D. Levitt et Stephen J. Dubner, ont bâti leur carrière sur l’observation de corrélations apparemment contre-intuitives, mais qui s’avèrent avoir une force explicative raisonnable—par exemple, l’affirmation selon laquelle la baisse observée de la criminalité violente aux États-Unis après 1991 peut être attribuée à l’accès plus libéral à l’avortement dont les femmes étatsuniennes ont bénéficié vingt ans plus tôt44. Leurs arguments ont tendance à prendre la forme de « tout ce que vous croyez savoir est faux », et, bien qu’ils puissent paraître provocants, ils sont facilement assimilés par la culture dominante. En fait, les faits rapportés par ces observateurs deviennent souvent partie intégrante de la sagesse conventionnelle avec une étonnante rapidité.
Aucun commentaire:
Enregistrer un commentaire