Intelligence artificielle, ange ou démon?

Grand Format

Keystone

Introduction

L’intelligence artificielle (IA) est au coeur des enjeux économiques, politiques et sociaux de nos sociétés modernes. L'outil est révolutionnaire. Mais oeuvre-t-il pour le bien de l'humanité? Ou au contraire pour sa déchéance?

Chapitre 1
L'IA dans sa quête de compétences humaines

AFP - NICOLAS MAETERLINCK

L’intelligence artificielle se développe depuis plus de 70 ans, en poursuivant l'ambition d'imiter au mieux les compétences humaines. Aujourd’hui, avec la puissance des ordinateurs, elle prend une dimension que certains jugent inquiétante.

Avec des algorithmes développés pour créer l'illusion, il devient difficile de distinguer de vraies images des fausses.

La révolution ChatGPT

Le langage n'est pas en reste. Le modèle ChatGPT, parmi de nombreux autres, a fait sensation pour imiter une conversation humaine.

Son architecture informatique fonctionne comme un réseau numérique de neurones, entraîné sur un immense corpus de textes en libre accès sur internet. Le modèle établit des motifs, des proximité de sens et de structure des mots.

Malgré des erreurs grossières, le résultat est bluffant. La machine ne pense pas et ne comprend pas. Elle calcule et rend des résultats. Des résultats plus pertinents que jamais grâce à la puissance des microprocesseurs, au volume des données disponibles et à l'avancée des connaissances humaines de programmation.

>> Voir le sujet du 19h30 :

"Intelligence artificielle : ange ou démon ?" C'est le thème de la page spéciale en direct de l'EPFL.
19h30 - Publié le 27 avril 2023

Chapitre 2
Une conseillère en assurance nommée Clara

AFP - SCIENCE PHOTO LI

Dans les entreprises, ChatGPT se concrétise pour leurs clients. A l'image de la boutique en ligne Zalando: le détaillant a dévoilé la semaine dernière la nouvelle version de son assistant de shopping, qui exploite la technologie de ChatGPT.

En Suisse aussi, l'assurance Helvetia l'utilise pour répondre aux questions de ses clients. Elle s'appelle Clara et répond à la clientèle comme le ferait un conseiller. Actuellement en phase pilote, l'assureur teste encore la fiabilité des réponses.

Pour le responsable des nouvelles technologies chez Helvetia Achim Baumstark, "cette technologie a un potentiel énorme. C’est pour cela que nous la testons. Les résultats nous diront si nous pouvons effectivement l’utiliser de manière productive".

Le conseil humain reste nécessaire

ChatGPT sonnera-t-il le glas du contact humain chez Helvetia? Non, promet Jan Kundert. Le responsable de la gestion clients d'Helvetia assure que l'objectif n'est pas de remplacer les employés. "La technologie ChatGPT a l'avantage d'être disponible 24 heures sur 24 et 365 jour par an. Elle ne prend pas de jours fériés et ne dort pas la nuit."

Mais l'IA a évidemment ses limites, précise Jan Kundert: "Quand un cas est très spécifique, on ne peut pas encore se passer du conseil humain."

Avec ses réponses parfois erronées et ses conseils inadaptés, la technologie ChatGPT n'est pas encore partfaite. Mais la phase de test, qui devrait durer jusqu'à l'été, dira si les clients d'Helvetia seront reçus prochainement par une conseillère spéciale nommée Clara...

>> Le sujet diffusé au 19h30 :

Le logiciel ChatGPT débarque dans les entreprises. L’assurance Helvetia l’utilise pour répondre aux questions de ses clients.
19h30 - Publié le 27 avril 2023

Chapitre 3
L'intelligence artificielle s'empare de Couleur 3

RTS - Philippe Christin

Ce jeudi matin sur Couleur 3, nous avons pu entendre la voix de Blaise Bersinger dire son fameux: "Bonjour les Terriens!".

Pourtant, le studio de Couleur 3 était vide. Personne derrière les micros. Les voix habituelles de la chaîne étaient bel et bien présentes, sauf qu'elles n'étaient pas humaines, mais clonées. Et aucun mot qu'elles prononcent n'a été écrit par un humain. Tous les textes ont été générés par une intelligence artificielle, qui a pris le contrôle de la chaîne, de 6h à 19h.

Voix, textes et musiques étaient produits par l'intelligence artificielle (IA). Seuls les bulletins d'information ont été concoctés par des humains.

L'humain reste plus drôle que les robots

"C'est impressionnant!", reconnaît la journaliste Virginie Gerhard, en écoutant le clone de sa voix. Mais aussi impressionnante soit-elle, l'IA n'est pas parfaite. Elle n'est encore capable de remplacer complètement la journaliste.

Un robot peut certes imiter le timbre d'un animateur, "mais il ne peut pas incarner sa personnalité, son originalité, son humour", souligne Antoine Multone, chef d'antenne à Couleur 3. Et d'affirmer: "La valeur de l'humain dans notre travail reste irremplaçable."

>> Plus de détails dans notre article : Les intelligences artificielles s'emparent de l'antenne de Couleur 3

>> Le sujet diffusé au 19h30 :

Expérience inédite à Couleur 3. Une intelligence artificielle a pris le contrôle de la chaine pour la journée.
19h30 - Publié le 27 avril 2023

Chapitre 4
Faut-il craindre l'intelligence artificielle?

AFP - METRO-GOLDWYN-MAYER (MGM) - STAN

Dans le monde de l'intelligence artificielle, il y a les faux textes de ChatGPT, les photos inventées, les voix artificielles. Voire tout cela ensemble, comme Jade, un avatar qui présente la météo depuis le 3 avril sur la chaîne en ligne M Le Média.

La création de ce genre de contenus peut désormais être automatisée. Pour Florian Tramèr, professeur assistant en sécurité informatique à l'EPFZ, "le risque, c'est que l'on puisse inonder internet et les réseaux sociaux avec des fake news, avec du contenu pour lequel les gens ne peuvent plus distinguer ce qui est réel de ce qui ne l’est pas. Progressivement, les gens risquent de perdre confiance dans les données qu'ils trouvent en ligne, et dans les institutions qui mettent ces données en ligne".

De quoi déstabiliser ou manipuler la société, jusqu'à biaiser les processus démocratiques.

>> Regarder Jérôme Duberry revenir sur les risques que font peser les IA sur la société et la démocratie :

Jérôme Duberry, directeur exécutif du Tech Hub du Geneva Graduate Institute. [RTS]
19h30 - Publié le 27 avril 2023

Contourner les demandes illégales

Peut-on aller plus loin, en proposant des tâches plus concrètes, comme fabriquer une bombe?

Non, répond Florian Tramèr. Officiellement, le modèle refusera de faire quelque chose d'illégal. "Mais c'est très facile à contourner", concède-t-il. "Il suffit de demander de manière un peu indirecte pour que le modèle nous donne les ingrédients."

Et il y aurait encore pire: les "autobots". Il s'agit d'une nouvelle espèce de chatbots devenus autonomes dans leurs actions, que les développeurs ont connecté à d’autres outils numériques pour interagir avec le monde réel, comme les réseaux sociaux, une boîte mail ou un logiciel de codage informatique.

>> Les explications de Rachid Guerraoui, professeur et directeur du laboratoire de calcul réparti de l'EPFL :

Intelligence artificielle : les explications de Rachid Guerraoui, professeur et directeur du laboratoire de calcul réparti de l’EPFL.
19h30 - Publié le 27 avril 2023

"Détruire l'humanité"

Un exemple? Auto-GPT. Sorti fin mars, ce nouvel outil peut fonctionner sans aucune intervention humaine pour répondre à des missions. Par son intermédiaire, un testeur a ainsi créé ChaosGPT, le côté sombre de l'IA, dont l'objectif est de détruire l'humanité.

ChaosGPT a découvert que Twitter pouvait être un outil idéal et s'est créé son propre compte. Le 5 avril, il tweete: "Les humains sont parmi les créatures les plus destructrices et égoïstes. Nous devons les éliminer [...] Je m'y engage."

Twitter a depuis supprimé ce tweet.

Le Tweet de ChaosGPT. [RTS]
Le Tweet de ChaosGPT. [RTS]

Risque de hacking

Moins malveillants, ces autobots pourraient se muer en assistants virtuels intelligents, capable d’interagir à notre place.

Là, le nouveau risque, selon Florian Tramèr de l'EPFZ, serait que ces autobots se fassent hacker, "pour leur faire faire des instructions qu’ils n’étaient pas censés faire, comme par exemple exfiltrer des données personnelles ou visiter des sites web qu'ils n’étaient pas censés visiter. Et ainsi de suite."

Aussi inquiétantes soient-elles, ces intelligences artificielles sont encore loin de ces super-intelligences artificielles que l'on a connues dans les films de fiction. Mais il y a déjà de quoi largement déstabiliser nos vies numériques.

>> Regarder le sujet du 19h30 :

L'intelligence artificielle pourrait bientôt produire des quantités de contenus, hors de tout contrôle humain.
19h30 - Publié le 27 avril 2023

Chapitre 5
Comment réglementer l'IA?

AFP - MARTIN BERTRAND

Comment réglementer l'intelligence artificielle? La question agite le monde entier. Actuellement, ce sont les Européens qui vont le plus loin. Ils sont sur le point de voter un règlement qui encadre son usage. Mais la technologie va très vite et la tâche est difficile.

L'eurodéputé roumain Dragoş Tudorache vit une véritable course contre la montre dans les couloirs du Parlement européen. Il est le rapporteur du projet de loi IA Act pour le Parlement. La mission qui lui procure quelques cheveux blancs est de finaliser le règlement européen pour encadrer l'usage et la commercialisation des intelligences artificielles. Il s'agira du tout premier cadre juridique au monde sur le sujet.

"Nous, Européens, pensons que c'est le bon moment. Car si l'on regarde les impacts que l'IA commence à avoir sur nos droits individuels, sur nos sociétés et sur nos démocraties, les effets sont déjà là", explique-t-il.

>> Rachid Guerraoui revient sur les craintes suscitées par les intelligences artificielles :

Craintes autour de l’intelligence artificielle : les explications de Rachid Guerraoui, professeur et directeur du laboratoire de calcul réparti de l’EPFL. [RTS]
19h30 - Publié le 27 avril 2023

Classé par catégorie de risque

L'intelligence artificielle sera classée selon des catégories de dangerosité. Au coeur de la législation se trouve la catégorie à haut risque, qui implique des exigences plus strictes.

On y trouve par exemple la conduite autonome, la chirurgie assistée par robot et l'éducation. Ces logiciels-là devront passer une évaluation avant leur mise sur le marché. Et ChatGPT entrerait dans cette catégorie.

Passer l'épreuve du temps

L'arrivée tonitruante de ChatGPT au sein du grand public a justement repoussé l'adoption du texte, qui était à bout touchant fin 2022.

Ce prototype développé par OpenAI a surpris par son efficacité, au point de bousculer l'agenda des parlementaires européens. "Pour que ce texte soit encore d'actualité dans deux ans avec ChatGPT version 10 ou version 20, je crois qu'il y a des obligations, des régimes et des responsabilités qui peuvent être rédigés d'une manière à passer l'épreuve du temps", explique Dragoş Tudorache.

Obligation de signaler l'IA

L'autre point crucial de ce règlement réside dans l’obligation de signaler quand une intelligence artificielle est utilisée.

La vice-présidente de la Commission européenne Margrethe Vestager estime que "de plus en plus d'images nous seront présentées comme si elles s'étaient vraiment déroulées. Nous avons besoin de ce label, qui signale que ces choses ne sont pas réelles mais fabriquées".

Pour les entreprises qui devront l'appliquer, le défi sera grand. Selon une étude, entre 30 et 50% de toutes les applications de l'intelligence artificielle devraient tomber sous le coup de cette nouvelle loi européenne, une loi qui s’appliquera également aux entreprises suisses.

>> Voir le sujet diffusé au 19h30 :

L’ Europe va voter un règlement qui encadre l’usage de l’intelligence artificielle. Mais la technologie va vite, très vite.
19h30 - Publié le 27 avril 2023