La nécessité de réguler l’intelligence artificielle
ÉDITORIAL. ChatGPT et ses clones envahissent nos vies, grâce à des milliards investis par les géants de la tech. Réduire les effets négatifs de l’IA et la soumettre à des règlements est souhaitable. Et encore possible

Il y a la fascination, l’incrédulité, la crainte, voire l’effroi. L’intelligence artificielle (IA) et ses multiples déclinaisons ne laissent personne indifférent, surtout depuis que ChatGPT a fait une entrée fracassante dans nos vies, le 30 novembre dernier. Ses réponses détaillées étonnent, tout comme ses capacités de «super-assistant personnel». Mais il n’y a pas que cela. Après les deepfakes, ces fausses vidéos de plus en plus réalistes, se multiplient aujourd’hui des images de synthèse troublantes, qui ouvrent la porte à des manipulations dangereuses. Sans parler de toutes les erreurs commises par ces IA.
A première vue, il semble vain de s’opposer au déferlement de ces technologies, et plus encore de réclamer un moratoire, comme l’ont fait plusieurs personnalités mercredi, notamment Elon Musk et Yuval Noah Harari. D’abord parce que, souvent, ces technologies pourront faciliter notre quotidien, nous épargner des tâches ingrates, voire contribuer à résoudre des problèmes auxquels l’humanité est confrontée. Pourquoi mettre des bâtons dans les roues de l’IA?, questionnent certains. Ensuite, il y a un sentiment d’impuissance face aux milliards de dollars investis, notamment par les géants de la tech américains et chinois: rien ne semble arrêter cette course effrénée, dont ChatGPT n’est que la pointe de l’iceberg.
Il faut agir
Et pourtant, il faut agir. Une machine ne peut pas faire n’importe quoi sous prétexte qu’elle accomplirait une tâche mieux qu’un humain. Rédiger un texte, pourquoi pas, selon le contexte. Piloter un avion, c’est plus délicat. Analyser des images de vidéosurveillance l’est tout autant. Que l’IA contrôle des armes semble l’extrême le plus discutable.
Que faire? Si la quasi-totalité des grandes entreprises impliquées dans l’IA appellent à une régulation, c’est bien sûr pour polir leur image et demander au législateur de réfléchir à leur place. C’est aussi un moyen d’anticiper le risque légal auquel elles pourraient faire face rapidement. Mais profitons de ces appels pour réguler dès maintenant.
L’Union européenne devrait concrétiser, ces prochains mois, une réglementation lancée en 2021 déjà. Ses contours sont intéressants: une entreprise devra signaler quand un client a face à lui un humain ou une machine. Les différents services d’IA devront être classés en fonction du niveau de risque perçu. Des évaluations de ces risques seront aussi exigées.
La liste des exigences s’annonce longue et devra être à la hauteur des enjeux. Cela nécessitera des définitions claires, des moyens de contrôle importants, des sanctions dissuasives. Comme dans le cas de l’utilisation des données personnelles ou de la reconnaissance faciale, le régulateur doit avoir son mot à dire pour nous protéger de toutes les dérives esquissées. C’est une nécessité absolue.
Retrouvez tous les éditoriaux du «Temps».
Vos contributions
connexion créer un compte gratuit