Effectuer une recherche sur le site.

Bonne Tech / Mauvaise Tech

Pour des technologies de l'Information reponsables

Dans le cadre du Forum des 100 , Cédric Moret, PDG du groupe ELCA, un des principaux leaders du secteur IT en Suisse, et Rachid Guerraoui, Informaticien et professeur à la Faculté informatique et communications de l’EPFL, dessinent les contours des coûts et des bénéfices de ce nouvel arsenal numérique.

Le Temps : Comment définiriez-vous «la technologie», qui semble recouvrir énormément de choses aujourd’hui?

Rachid Guerraoui: Au sens large, historique, la technologie est l’étude des outils typiquement créés par l’homme pour survivre, ou tout simplement pour mieux vivre. Aujourd’hui, le plus important est l’ordinateur, qui a donné lieu à internet entre autres, car il permet de traiter la chose la plus importante du monde: l’information. La tech qui porte sur l’ordinateur s’appelle «le numérique». On parle aussi d’Intelligence artificielle, ou IA, quand l’ordinateur réalise des prouesses que l’on pensait réservées à l’humain…

Quel est le domaine au sein duquel la technologie fait la différence la plus claire et concrète?

Cédric Moret: Les opportunités sont énormes et la pandémie en a mis quelques-unes en avant de façon spectaculaire: par exemple en quelques semaines, le portail internet EasyGov a permis d’accorder des prêts aux entreprises pour assurer leur survie. Aujourd’hui, le secteur de la santé en est clairement un autre bénéficiaire, entre autres dans le traitement du cancer: ainsi, alors qu’une femme sur dix est à risque de développer un cancer du sein, une étude danoise vient de montrer que le croisement des données avec l’intelligence artificielle augmentait radicalement la probabilité de détecter ces cancers de manière précoce.

 

R. G.: Dans la médecine, on voit en effet des choses extraordinaires. Aujourd’hui, on peut faire une photo d’un grain de beauté et grâce à une application, savoir s’il risque de provoquer un cancer. Mais on peut aussi évoquer l’environnement: si on arrive un jour à prédire les catastrophes naturelles, ce sera grâce au numérique. La gestion de l’eau ou de l’énergie est et sera largement optimisée par le traitement de l’information. La difficulté est que pour arriver à cela, une consommation d’énergie phénoménale est nécessaire. Le prochain défi serait d’obtenir les mêmes résultats avec une bien moindre consommation.

Quand le commun des mortels entend parler de technologie, c’est souvent de piratage informatique, de «fake news» ou de cyberharcèlement… Quels sont, selon vous, les grands dangers que représente la tech pour la société?

R. G.: Le plus grand danger, de mon point de vue, est la désinformation et plus généralement, le fait de relativiser la vérité. La majeure partie des informations publiées sur Twitter/X sont fausses, et cela menace directement les démocraties, voire la paix. Déjà que celle-ci n’est pas bien solide… Il y a bien entendu d’autres dangers, comme le piratage informatique qui peut conduire à une nouvelle forme de terrorisme: plus besoin d’attaquer une banque ou de prendre des otages. Il suffit d’injecter un petit virus informatique dans une entreprise et de rançonner la personne à sa tête pour lui livrer l’antidote.

C. M.: C’est d’autant plus vrai que certains standards technologiques sont concentrés au sein d’un nombre restreint d’entreprises influentes. Des acteurs privés sont désormais en mesure d’interférer dans des conflits entre Etats, à l’image d’Elon Musk qui met son réseau Starlink au service de l’Ukraine, mais le désactive au-dessus de la Crimée. Chaque bouleversement induit aussi des opportunités: dans le monde du travail, la prise en charge par la technologie de certaines tâches pourra libérer des talents nécessaires dans une population vieillissante. L’intelligence artificielle pourra aider de nombreux métiers, mais le défi consistera à former de nouvelles compétences rapidement pour accompagner cette transition technologique.

 

On le comprend, la notion clé est celle du coût/bénéfice de la tech actuellement. Or les bénéfices de la tech surpassent son coût quand elle est jugée responsable. Qu’est-ce qu’une tech responsable?

R. G.: Je dirais qu’une technologie est responsable si, d’une part, elle est conçue pour le bien de l’humain, et si, d’autre part, quand elle ne fonctionne pas comme souhaité, un humain (juridiquement) responsable est clairement identifiable. Les réseaux sociaux aujourd’hui ne sont pas, par exemple, une technologie responsable. Quand quelqu’un est diffamé, on ne peut pas retrouver la personne responsable ni incriminer le réseau social. Cela me semble scandaleux.

C. M.: A mes yeux, «responsable» implique, entre autres, que l’impact net soit positif pour la société. Une technologie responsable devrait amener plus de bénéfices que les coûts qu’elle engendre, notamment en termes d’énergie, de risques liés à la souveraineté ou à la confidentialité. On pourrait imaginer un bilan technologique à l’image du bilan carbone.

Mais qui est ce «on» dont on parle? Le législateur? Est-il national? International?

C. M.: Le développement du nucléaire avait, en son temps, conduit à la création de l’AIEA, l’Agence internationale de l’énergie atomique. On pourrait imaginer une agence – pourquoi pas adossée à l’ONU – qui demanderait des comptes aux acteurs qui développent l’intelligence artificielle. L’idée a été évoquée ces derniers mois par plusieurs personnes.

Le temps du politique est néanmoins tellement plus long que celui de l’innovation qu’on est en droit de se demander si elle pourra voir le jour à temps…

R. G.: Raison pour laquelle il faudrait former les politiques très rapidement aux enjeux de la technologie en particulier, et scientifiques de manière générale. On ne peut pas concevoir aujourd’hui un élu en Suisse qui ne saurait pas distinguer les Alpes du Jura. Il me semble presque tout autant inconcevable que quelqu’un qui ne comprend pas les nouvelles technologies prenne des décisions importantes pour le pays. Il faudrait peut-être inclure des stages de préparation technologique à l’exercice de la politique.

 

Comment aider les citoyens qui essaient de s’y retrouver à faire les bons choix?

C. M.: Peut-être qu’une labellisation – à l’image des nutriscores ou de l’efficience énergétique – pourrait aider le consommateur à faire ses choix… et ses boycotts éventuels. De tels labels existent déjà, dans le domaine de la sécurité numérique.

R. G.: Nous devons aussi apprendre à exercer notre esprit critique. On voit bien, compte tenu de ce qui est publié sur les réseaux ces dernières semaines, que l’éducation aux médias, aux images, est cruciale et sera déterminante en attendant que se mette en place le numérique responsable. C’est d’autant plus urgent que, par exemple, le nombre de personnes qui pensent que la Terre est plate serait en augmentation.

Personne n’avait entendu parler de ChatGPT il y a encore un an. Aujourd’hui, certains de ses fondateurs estiment qu’elle représentera rapidement une menace existentielle. Comment en est-on arrivé là?

R. G.: La technologie sous-jacente est en réalité là depuis longtemps. La nouveauté est sa mise à la disposition de tout le monde, et en particulier de gens non préparés. C’est cela qui pose problème. Au passage, on peut aussi relever l’hypocrisie de certains de ces signataires de la tribune sur l’IA, qui, selon eux, menace l’humanité: certains ont investi dans les sociétés d’IA juste après… Le risque majeur serait, selon moi, que des GAFAM américains ou des BATX chinois continuent à contrôler (parfois à abrutir) les masses en relayant de fausses informations sans encourir aucun risque pénal, et créent un chaos informationnel. Il nous faut, en Suisse en particulier, et en Europe de manière plus générale, impérativement investir massivement dans la technologie pour être acteur et non plus subir les lois des créateurs de technologie.

C. M.: On cite souvent l’éclosion d’une menace pour l’humanité, mais je dois admettre que je n’y crois pas. La nature de la conscience humaine reste encore un mystère. A mon sens, nous sommes encore loin de traduire en algorithmes un concept si abstrait. Rappelons aussi que l’IA n’est applicable qu’à des tâches spécialisées; elle n’a aucune compréhension du monde, n’a pas d’imagination, pas d’émotion…

 

On a jugé les IA peu créatives jusqu’à ce qu’on voie les images générées par celles-ci, on les jugeait peu émotionnelles jusqu’à ce qu’on se rende compte qu’entraîner une IA à l’empathie était parfois plus simple que de le faire avec un humain…

C. M.: Il faut admettre que ces changements ont été ultra-rapides. Personne, même pas Bill Gates, ne pensait voir aussi vite se matérialiser de telles évolutions. De là à projeter que l’intelligence artificielle sera un jour en mesure d’établir des jugements éthiques et moraux, je reste sceptique. A l’inverse, n’est-il pas plus probable que l’humain – doué de conscience – intègre à terme des capacités de super-intelligence?

La question est plus philosophique, mais qu’est-ce qui, à terme, pourra selon vous rester le propre de l’humain?

R. G.: Il faut garder en tête que l’être humain a été programmé pour survivre. L’amour, le désir, l’empathie, la peur sont des mécanismes conçus au fil des millénaires par la nature dans le cadre du programme global «instinct de survie». Or, l’objectif qu’on donne aux ordinateurs est très loin de l’objectif qu’on donne aux IA. La technologie est faite pour nous servir, pas pour se développer comme un organisme vivant. Pour moi, en tant que scientifique matérialiste, la conscience est un algorithme, comme l’amour. Quand on comprend comment un processus fonctionne, je pense qu’on peut arriver à le reproduire sur une machine. On le met en algorithme et on demande à un algorithme de l’exécuter.

Nous sommes loin, très loin de pouvoir définir l’instinct de vie (ou de survie) comme un algorithme, car nous n’en comprenons pas tous les mécanismes sous-jacents. Et même si nous les comprenions, programmerions-nous un jour les machines pour qu’elles survivent? Tant qu’on n’en est pas là, la situation est relativement sous contrôle.

 

Source : Le Temps