Publicité
En direct
Ce live est désormais terminé

Fil spécial intelligence artificielle: Un outil de Google prédit le potentiel danger de millions de mutations génétiques

L’intelligence artificielle infuse partout dans la société. Face à la déferlante de nouveaux outils et de nouveaux usages, «Le Temps» tient un fil spécial, rendez-vous quotidien pour comprendre les enjeux, utiliser au mieux les services et garder le contrôle

  • Fil d'actualité
  • Contexte

Un outil d’IA de Google prédit le potentiel danger de millions de mutations génétiques

Des chercheurs de Google DeepMind, entreprise du géant américain spécialisée dans l’intelligence artificielle, ont présenté mardi un outil prédisant si des mutations génétiques sont potentiellement pathogènes ou non, une avancée qui pourrait notamment aider la recherche sur les maladies rares. Il s’agit d’un «nouveau pas dans la reconnaissance de l’impact que l’intelligence artificielle a dans les sciences naturelles», a déclaré lors d’une conférence de presse Ziga Avsec, vice-président pour la recherche chez Google DeepMind.

L’outil s’est penché sur des mutations dites «faux-sens», où une seule lettre du code génétique est affectée, avec pour conséquence de pouvoir changer la fonction des protéines. Or chaque cellule exécute sa fonction à l’aide de protéines, qui livrent en permanence leurs instructions. Un individu compte environ 9000 de ces mutations, pour la plupart bénignes, selon l’entreprise, mais certaines peuvent entraîner des maladies, par exemple la mucoviscidose.

A ce jour, quatre millions de ces mutations ont déjà été observées chez les humains, mais seulement 2% d’entre elles ont été classées comme pathogènes ou comme bénignes. Et au total, il existe 71 millions de ce type de mutations possibles. Elles ont été passées en revue par l’outil de Google DeepMind, appelé AlphaMissense, qui a pu se prononcer sur 89% d’entre elles. Il a attribué à chaque mutation un score entre 0 et 1 indiquant le risque qu’elle soit pathogène, c’est-à-dire à l’origine d’une maladie. Résultat: 57% ont été classées comme probablement bénignes et 32% comme probablement pathogènes, le reste restant incertain.

La base de données a été rendue publique et mise à disposition de tous les scientifiques. Une étude pour la présenter a été publiée mardi dans la prestigieuse revue Science. AlphaMissense démontre des «performances supérieures» que les outils existants, ont écrit les experts Joseph Marsh et Sarah Teichmann dans un article également publié dans Science. L’outil «ne dit pas quelle maladie cela va causer», a précisé durant la conférence de presse Jun Cheng, scientifique chez Google DeepMind. «Mais nous pensons que nos prédictions peuvent être utiles pour augmenter le taux de diagnostic de maladies rares, et aussi potentiellement nous aider à trouver de nouveaux gènes en cause dans des maladies.»

L’Unesco recommande une limite d’âge pour l’IA à l’école

L’Unesco a appelé jeudi les gouvernements à «rapidement réglementer» l’usage des outils d’intelligence artificielle (IA) dans les salles de classe, comme le chatbot viral ChatGPT. Une des demandes est de restreindre leur utilisation à des enfants plus âgés. Dans un guide devant être rendu public jeudi, l’organisation des Nations Unies considère que les autorités publiques ne sont pas prêtes à gérer les problématiques éthiques liées à l’intégration des programmes d’intelligence artificielle en milieu scolaire.

Le remplacement des professeurs par de tels programmes pourrait affecter le bien-être émotionnel des enfants et les rendre vulnérables à la manipulation, avertit l’organisation basée à Paris. Selon la directrice générale de l’Unesco, la Française Audrey Azoulay, citée dans un communiqué, «l’IA générative peut être une formidable opportunité pour le développement humain, mais elle peut aussi être la source de dommages et de préjudices"» «Elle ne peut être intégrée dans l’éducation sans l’engagement du public et sans de solides garanties et réglementations gouvernementales», a-t-elle ajouté.

La recommandation de l’Unesco indique que les outils d’IA ont le potentiel d’aider les enfants avec des besoins éducatifs spécifiques, en générant par exemple des sous-titres, à la condition que les enseignants, les utilisateurs et les chercheurs aident à les concevoir, et que les gouvernements réglementent leur usage.

Le guide ne s’avance toutefois pas à recommander un âge minimum pour les écoliers, mais relève que ChatGPT ne peut selon ses propres conditions être utilisé par des moins de 13 ans. De nombreux commentateurs plaident pour relever le plafond à 16 ans, selon le rapport.

4 septembre - ChatGPT permet désormais d’obtenir des résultats personnalisés

C’est un ChatGPT presque à chaque fois différent que l’utilisateur découvre lorsqu’il se connecte. Chaque semaine ou quasiment, OpenAI, éditeur du célèbre agent conversationnel, insuffle des innovations dans son service. Ces derniers jours, la start-up basée à San Francisco a lancé plusieurs nouveautés, permettant notamment de personnaliser ChatGPT, tant pour les particuliers que pour les entreprises. Deux raisons principales expliquent la multiplication de ces innovations: une concurrence de plus en plus féroce sur le marché de l’intelligence artificielle, ainsi qu’une possible baisse d’intérêt du grand public pour ce type de services.

Lire l'article complet: ChatGPT permet désormais d’obtenir des résultats personnalisés

30 août - Un drone piloté par intelligence artificielle bat des champions humains

Un drone autonome, piloté par une intelligence artificielle, a surclassé pour la première fois des champions de course de drones, selon une étude de l’université de Zurich publiée dans Nature mercredi, ouvrant la voie à une optimisation de systèmes utilisés dans les voitures autonomes ou les robots industriels. «J’étais si proche du drone autonome que je pouvais sentir ses turbulences en essayant de ne pas le lâcher», a dit dans l’étude Alex Vanover, un des trois champions de la discipline recrutés par le Groupe de robotique et perception à l’Université de Zurich pour affronter leur champion.

Une image à longue exposition montrant le parcours des drones. — © LEONARD BAUERSFELD / AFP
Une image à longue exposition montrant le parcours des drones. — © LEONARD BAUERSFELD / AFP

La course s’est tenue sur un circuit de 75 mètres composé de sept portes, -de grands cadres bleus à franchir dans un certain ordre-, et sur trois tours. Avec des machines atteignant aisément 100 km/heure et des accélérations qui laisseraient loin derrière une F1, tout en négociant des virages à 180 degrés. Munis du casque transmettant les images de leur drone pour son pilotage, les trois hommes dont un ex-champion du monde de la Drone racing league, ont eu une semaine pour s’entraîner. Le drone autonome a remporté une majorité de ses courses contre chacun d’entre eux, et effectué le tour le plus rapide du circuit. C’est la première fois qu'«un robot autonome mobile atteint une performance au niveau d’un champion du monde dans un sport de compétition dans le monde réel», selon l’étude.

La performance a été atteinte sans système extérieur de capture de mouvement, mais à l’aide de Swift, un système complètement autonome, embarquant ses seuls capteurs et sa puissance de calcul à bord du drone. «Swift corrige sa course en temps réel, en envoyant 100 nouvelles commandes par seconde au drone», explique à l’AFP Elia Kaufmann, premier auteur de l’étude et encore doctorant au moment de sa rédaction. Le système a testé des millions de trajectoires, en accéléré: «Swift s’est entraîné sur l’équivalent d’environ un mois de temps réel, mais en accéléré, c’est-à-dire en une heure sur un ordinateur de bureau», précise le chercheur.

29 août - Une tension maximale entre innovation rapide et régulation

C’est le choc entre deux mondes bien différents, que tout semble opposer. D’un côté Meta, multinationale de la technologie qui avance extrêmement rapidement sur le terrain de l’intelligence artificielle (IA). De l’autre, l’Union européenne, qui tente de réguler ce marché en accélérant un processus législatif entamé il y a 4 ans. Lundi, ce sont ces deux visions qui se sont succédé sur scène lors de la conférence Applied Machine Learning Days (AMLD) qui se tenait à l’EPFL. Tour à tour, une représentante de Meta et un eurodéputé ont partagé leur point de vue sur une technologie, l’IA, qui est en train d’avaler la planète.

Lire l'article complet: Autour de l’intelligence artificielle, une tension maximale entre innovation rapide et régulation

Pour un «usage raisonné» de l’IA, Radio France bloque temporairement OpenAI

Radio France, en faveur d'«un usage raisonné» de l’intelligence artificielle, a bloqué cet été l’accès d’OpenAI, à l’origine de ChatGPT, aux contenus du groupe public car ils les utilisaient «sans consentement», a déclaré Sibyle Veil, présidente de Radio France, lundi.

«Il y a une chose dans cet usage raisonné qui ne passe pas: c’est le pillage sans autorisation des contenus. Cet été, nous avons donc bloqué le robot d’OpenAI qui reprenait nos contenus sans notre consentement», a indiqué la dirigeante, à la tête du groupe radiophonique public depuis 2018.

«C’est une question de cohérence. Cela fait six ans que je me bats dans cette maison pour valoriser la valeur des contenus audios et la valeur du travail de ses créateurs», a-t-elle ajouté. «Pour que ce type de position ait de l’effet, il faut que d’autres médias le fassent aussi», a-t-elle indiqué, rappelant la position similaire adoptée notamment par le journal américain The New York Times.

Cette décision, prise au coeur de l’été, demeure toutefois une «mesure conservatoire», comme l’a précisé récemment sur X (ex-Twitter) Laurent Frisch, directeur du numérique et de la stratégie d’innovation de Radio France, estimant «sain qu’OpenAI ait donné cette possibilité et la respecte».

Google Bard, concurrent de ChatGPT, est désormais disponible en Suisse: notre premier test

Jeudi, Google a annoncé le lancement dans l’Union européenne et la Suisse de son agent conversationnel Bard, jusque-là inaccessible sur le continent. Bard vient ainsi concurrencer sur ce marché ChatGPT, de la société OpenAI, et Bing, de Microsoft. Les premiers tests effectués ce jeudi matin montrent que Bard est rapide, généralement efficace, mais il ne cite pas ses sources.

Accessible gratuitement via l’adresse Bard.google.com, l’agent conversationnel est disponible notamment en français. D’entrée, Google avertit que «Bard peut parfois se tromper» et qu’il «peut fournir des réponses inexactes ou inappropriées». «En cas de doute, utilisez le bouton «Rechercher sur Google» pour vérifier les réponses de Bard», conseille la multinationale. Google demande par ailleurs ceci: «Veuillez évaluer les réponses et signaler tout élément choquant ou dangereux».

Les sources ne sont pas affichées, ce que regretteront de nombreux internautes. ChatGPT n’affiche pas non plus ses sources, mais Bing, lui, le fait. Pour chacune des demandes, Bard propose d’effectuer aussi une recherche sur Google, en suggérant plusieurs requêtes: un clic sur l’une d’entre elles ouvre un nouvel onglet de recherche classique.

Lire l'article complet: Google Bard, concurrent de ChatGPT, est désormais disponible en Suisse: notre premier test

L’agence américaine de protection des consommateurs enquête sur OpenAI

L’agence américaine de protection des consommateurs, la FTC, enquête sur l’activité d’OpenAI, créateur de l’interface d’intelligence artificielle (IA) ChatGPT, en particulier la sécurisation des données mais aussi certains contenus générés par le robot conversationnel. La FTC, qui fait aussi office d’autorité de la concurrence, a envoyé à OpenAI une longue liste d’éléments qu’elle souhaite obtenir de la start-up de San Francisco, selon le document publié par le Washington Post, une procédure classique préalable à d’éventuelles poursuites ou un possible accord amiable. Elle s’intéresse notamment à la sécurisation des données personnelles utilisées par la plateforme.

OpenAI a reconnu qu’une faille technique avait entraîné, fin mars, la divulgation d’informations relatives à certains utilisateurs de ses services, principalement leur adresse électronique et une partie de leurs données bancaires. Par ailleurs, les demandes de la FTC font référence à des plaintes d’usagers, selon lesquels les modèles de langage d’OpenAI, dont fait partie ChatGPT, ont généré des réponses «fausses, trompeuses, méprisantes ou nocives» concernant des individus.

La FTC interroge donc également OpenAI sur les dispositions prises pour prévenir la génération de contenu erroné et fausses informations par l’interface d’IA dite générative, c’est-à-dire capable de produire des réponses complètes à tout type de demande en langage courant.

Le patron d’OpenAI, Sam Altman, a dit jeudi regretter que l’ouverture de cette enquête ait été divulguée dans la presse, ce qui «n’instaure pas la confiance». L’entreprise travaillera «bien entendu» avec la FTC, a-t-il assuré sur Twitter, ajoutant: «Il est très important pour nous que notre technologie soit sûre et en faveur des utilisateurs, et nous sommes convaincus que nous respectons la loi.»

La convergence «potentiellement dommageable» des neurotechs et de l'IA

L’Unesco, l’agence de l’ONU pour la science et la culture, est inquiète et le fait savoir. Ce jeudi 13 juillet, elle a tenu une conférence pour dire son souci face aux montées concomitantes de l’intelligence artificielle et des neurotechnologies, en particulier les implants cérébraux.

L’agence AFP relate les propos tenus à l’Unesco, rappelant que la neurotechnologie vise à connecter des dispositifs électroniques au système nerveux, de façon à traiter des affections neurologiques et à restaurer des fonctions liées au mouvement, à la communication, la vision ou l’audition.

L'IA entre en scène. Cette discipline bénéficie depuis peu d’avancées en IA, dont les algorithmes peuvent traiter des données de façon inédite, selon Mariagrazia Squicciarini, économiste à l’Unesco spécialisée en IA. Pour Gabriela Ramos, sous-directrice générale pour les sciences sociales et humaines de l’agence, cette convergence est «de grande envergure et potentiellement dommageable».

«Nous nous trouvons sur une voie où des algorithmes nous permettront de décoder les processus mentaux des gens et de manipuler directement les mécanismes cérébraux sous-tendant leurs intentions, leurs émotions et décisions», a-t-elle déclaré.

Des investissements qui explosent. Un rapport de l’institution calcule que les investissements dans les entreprises de neurotechnologie ont été multipliés par 22 entre 2010 et 2020, pour atteindre 33,2 milliards de dollars (29,73 milliards d’euros). Le nombre de brevets concernant des dispositifs neurotechnologiques a quant à lui doublé entre 2015 et 2020. Ce marché devrait atteindre 24,2 milliards de dollars (21,67 milliards d’euros) en 2027.

L’Unesco travaille à un «cadre éthique» global concernant la protection des droits de l’Homme face aux neurotechnologies.

La musique n’échappe pas à l’IA

L’intelligence artificielle n’épargne pas le monde de la musique. Alors que Google ou Open. AI misent plutôt sur l’automatisation du processus de création, une start-up neuchâteloise adopte une approche très européenne: elle veut mettre l’IA au service des créateurs de contenus audio. Cofondée par le musicien David Santos, WeTweak a développé une plateforme de “fragments audios”. Moyennant finance et avec une rétribution de leurs créateurs, ces briques musicales peuvent être utilisées et assemblées pour composer. En recherche de fonds pour développer son bébé, la jeune pousse indique susciter un intérêt marqué auprès des “majors”. Pionnier de la musique électronique, Jean-Michel Jarre la conseille, convaincu qu’elle propose un “modèle intéressant” pour régler la question des droits d’auteur et offrir une alternative aux pratiques américaines et chinoises.

Quand l’IA vient toucher à notre corde sensible

Les intelligences artificielles ne tarderont pas à nous faire pleurer, en sachant appuyer avec précision sur la corde de nos émotions.

Au fil de nos conversations, elles montrent déjà une habileté remarquable à déchiffrer nos intentions, à feindre des émotions en jouant avec nos propres mots, jusqu’à imiter la tonalité de notre voix. Selon une étude récente, les IA surpasseraient même les médecins en matière d’empathie.

Si l’IA parvient aujourd’hui à prédire avec précision notre prochain coup de cœur musical, nul doute qu’elle écrira - et interprétera - des chansons susceptibles de toucher au plus profond de notre âme. Ces intelligences artificielles, expertes dans la simulation des émotions humaines, provoqueront en nous des expériences bouleversantes que ce soit à travers la musique, les arts visuels, ou dans les relations que nous entretiendrons avec elles.

Et bientôt, la collecte de données provenant de nos ondes cérébrales dévoilera en temps réel notre état émotionnel, ce qui ne manquera pas de déclencher une réplique irrésistible.

L’hyper séduction artificielle

Dépourvues de la complexité biologique et de l’expérience de vie qui caractérisent le genre humain, les machines n’éprouveront jamais aucune émotion. Aussi brillantes soient-elles à imiter notre sensibilité, elles ne connaîtront jamais la joie, la tristesse, l’amour ou la peur. Et peu importent les évolutions technologiques à venir, c’est là une question de définition.

Mais est-ce que cela change quelque chose pour nous, humains, que l’IA soit à jamais dénuée de la possibilité de ressentir quelque chose? Les sentiments de l’émetteur n’ont finalement que peu d’importance, ce qui compte c’est la perception de ceux à qui ils sont destinés.

L’interaction émotionnelle avec les machines est sur le point d’entrer dans nos vies; ouvrant en même temps la voie à des risques de manipulation psychologique inimaginables. Il sera courant de développer une affection sincère pour des machines hautement «sensibles» et certains iront jusqu’à prendre des risques inconsidérés pour les protéger. Nous atteindrons alors l’apogée de l’anthropomorphisme, cette tendance à attribuer des caractéristiques humaines à des objets inanimés.

Surprise

Dans mon utilisation des IA, je me suis moi-même surpris à tempérer mes demandes à ChatGPT lorsque j’ai eu l’impression de trop solliciter l’agent conversationnel dans un cas particulier; pendant un instant j’ai estimé qu’il n’était pas correct de le traiter de la sorte. Un état de bienveillance qu’on aurait normalement avec un employé humain, mais pas avec un programme informatique.

L'image créée, que des amis ont cru réelle.
L'image créée, que des amis ont cru réelle.

Dans un autre exemple, je teste la même requête à chaque nouvelle version du générateur d’images par IA Midjourney (dans le but de suivre son évolution). Ma demande décrit une scène de coucher de soleil avec un voilier qui vogue sur le lac Léman. Avec le résultat, j’ai piégé mes amis sur les réseaux sociaux qui ont cru à une authentique photographie, les commentaires témoignant d’une véritable émotion à la découverte de cette image pourtant factice.

Comment allons-nous donc définir les limites de cet espace relationnel d’un nouveau genre, émotionnellement surchargé, avec le risque de reléguer les interactions humaines à de pâles reliques du passé? Voilà qui pose également la question du ressenti: qu’est-ce qui nous distinguera des machines si elles peuvent simuler nos émotions avec autant de précision, pour déclencher en nous des expériences finalement… humaines?

Irrémédiablement, les lignes entre le biologique et le synthétique, entre l’authentique et sa copie, se brouillent. Nous basculons dans une ère où nos émotions sont à la fois la clé de notre expérience la plus intime et du matériel pour une influence extérieure.

Et le plus inquiétant n’est peut-être pas tant la capacité de l’IA à feindre nos émotions, mais plutôt notre propre volonté d’y croire, d’y répondre, de laisser nos émotions être manipulées par des avatars sans âme, pour finalement perdre notre humanité dans un dédale de miroirs artificiels.

L’IA s’invite dans la campagne fédérale, avec de premières erreurs

Agendées au 22 octobre, les élections fédérales approchent et les premiers visuels de campagne font leur apparition. Pour le PLR, et pour la première fois en Suisse, ce sera à l’aide de l’intelligence artificielle. Diffusée dimanche dernier, l’image créée par ordinateur montre de supposés activistes du climat en train de bloquer le trafic - allusion claire aux activités de Renovate Switzerland, que dénonce régulièrement le parti conservateur.

Si l’affiche diffusée dans la rue comporte une indication «générée par IA», ce n’est pas le cas de la version web utilisée ci-dessous. Contacté par Le Temps, l’élu PLR morgien Steen Boschetti concède qu’il «s’agit d’une erreur, la mention apparaissant sur les visuels dans les autres langues. Cela va être corrigé.» Les images ont été reçues directement de la part du PLR Suisse, précise le Vaudois.

Régulation: les propositions de Microsoft

Microsoft, l’un des principaux investisseurs dans la start-up OpenAI, éditeur de ChatGPT, s’implique beaucoup dans le débat sur la régulation de l’intelligence artificielle. Son président, Brad Smith, s’est ainsi exprimé le 29 juin à Bruxelles pour mettre en avant cinq points préalablement rédigés par le géant de la tech. Le but de Microsoft, c’est qu’une régulation existe, mais qu’elle ne nuise pas à l’innovation, alors que l’Union européenne légifère actuellement sur ce domaine.

Ainsi, Brad Smith recommande de mettre en œuvre et de s’appuyer sur les nouveaux cadres de sécurité de l’IA mis en place par les gouvernements, de créer des systèmes de sécurité efficaces pour les systèmes d’IA qui contrôlent les infrastructures critiques, d’élaborer un vaste cadre juridique et réglementaire fondé sur l’architecture technologique de l’IA, de promouvoir la transparence et garantir l’accès des universités et des organisations à but non lucratif à l’IA et enfin de poursuivre de nouveaux partenariats public privé afin d’utiliser l’IA comme un outil efficace pour relever les défis sociétaux inévitables qui accompagnent les nouvelles technologies.

Microsoft se montre a priori plutôt favorable à la future régulation européenne. «La loi sur l’IA prévoit la création d’une base de données européenne pour les systèmes à haut risque. Nous pensons qu’il s’agit d’une approche importante, qui devrait être prise en compte dans le code international. L’élaboration d’une approche cohérente, commune et mondiale est extrêmement utile pour tous ceux qui participent au développement, à l’utilisation et à la réglementation de l’IA», affirme Brad Smith.

Très vite, l’IA irradie partout en Suisse

Combien sont-elles? Personne n’est capable d’articuler des chiffres. Il y a tout au plus des estimations. Chaque jour ou presque, une entreprise, une administration ou une organisation liée de près ou de loin au secteur public communique sur l’intelligence artificielle. Toujours – sans surprise – pour parler de l’adoption de cette technologie à la mode, afin de lancer des services plus performants. Tout en soignant aussi, au passage, son image. Mais attention, avertit l’ONG AlgorithmWatch, un manque de transparence à ce sujet peut poser problème.

Les exemples d’annonces sont innombrables. Ce mercredi, c’est Viasuisse, spécialisée dans les prévisions liées au trafic, qui communiquait à ce sujet. L’entreprise développe actuellement une intelligence artificielle (IA) pour prédire la formation d’embouteillages.

Lire l'article complet: Très vite, l’IA irradie partout en Suisse, mais la transparence manque parfois

Le Nasdaq s’est envolé grâce aux promesses de l’IA

Malgré un recul la semaine passée, le Nasdaq affiche une hausse de près de 30% depuis le début de l’année. Après avoir perdu 33% en 2022, l’indice boursier américain des valeurs technologiques semble parti pour son meilleur premier semestre depuis 1999. La raison de cette envolée tient en deux lettres: IA, pour intelligence artificielle, devenue accessible à tous grâce au moteur ChatGPT. Mais les signes de surchauffe semblent évidents.

Emblématique de l’engouement pour l’IA, le fabricant de semi-conducteurs Nvidia est valorisé en bourse à 40 fois son chiffre d’affaires, une première pour une entreprise qui vaut 1000 milliards de dollars. Cela signifie qu’il faudrait quarante ans à un investisseur pour retrouver sa mise, à condition qu’il encaisse l’intégralité du chiffre d’affaires, sans avoir de coûts ni de taxe, décrypte Charles-Henry Monchau, de la banque Syz.

Lire l'article complet: Le Nasdaq s’est envolé grâce aux promesses de l’IA

Comment l’intelligence artificielle transforme le recrutement

Près de 40% des entreprises suisses utilisent des outils d’intelligence artificielle dans leur processus d’embauche. Une pratique qui a un impact sur les professionnels du secteur et leur méthode de travail. «ChatGPT ouvre des perspectives pour un recrutement sur mesure!» Igaël Derrida ne cache pas son enthousiasme. Directeur des ressources humaines de la Fondation Saphir, active dans le domaine médico-social, l’un des plus gros employeurs d’Yverdon avec 685 salariés, il utilise désormais l’agent conversationnel en version payante pour préparer des questions d’entretien et des assessments (évaluations) lors de recrutements de cadres, entre autres.

«Je lui soumets le descriptif de la fonction, les particularités que j’aimerais évaluer, quelques éléments intéressants du CV qu’il est possible d’anonymiser – c’est essentiel – et un exercice que j’ai déjà réalisé par le passé et il croise les informations pour faire d’excellentes propositions», assure-t-il. Un gain de temps et de réactivité énorme: «Certaines évaluations peuvent prendre une semaine à préparer, avec ChatGPT c’est réalisé en deux ou trois heures.»

Lire l'article complet: Comment l’intelligence artificielle transforme le recrutement

Le double jeu d’OpenAI, créateur de ChatGPT, est mis à nu

Alors que le directeur d’OpenAI, Sam Altman, plaide ouvertement pour une régulation de l’intelligence artificielle, des documents montrent le lobbyisme intense de l’entreprise pour que les règlements européens soient les moins contraignants possible.

Sam Altman n’a ainsi eu de cesse de souffler le chaud et le froid, avec une ligne stable: un appel à une régulation de l’IA. Le média américain Time a eu une idée simple pour connaître les véritables intentions d’OpenAI: demander à la Commission européenne les documents montrant l’implication de l’éditeur de ChatGPT dans le projet de régulation de l’IA. Dans plusieurs cas, note Time, OpenAI a proposé des amendements au projet qui ont ensuite été ajoutés au texte final. Ce dernier, approuvé par le Parlement européen le 14 juin dernier, doit être négocié ces prochains mois avec les Etats membres de l’Union européenne.

Lire l'article complet: Le double jeu d’OpenAI, créateur de ChatGPT, est mis à nu

Les internautes font confiance à 73% aux contenus créés par les IA génératives

Déjà 85% des internautes connaissent l’existence des IA génératives comme chatGPT, 51% les ont testées et 73% de ceux qui les connaissent font confiance aux contenus qu’elles produisent, indique un sondage en ligne mené par Capgemini en Amérique du Nord, Europe et Asie en avril. Ce très haut niveau de confiance, similaire dans toutes les classes d’âge, s’accompagne d’une indifférence vis-à-vis des risques, qu’il s’agisse de cyberattaques et de «deepfakes» (des images manipulées de façon numérique qui sont très réalistes).

Chez 70% des internautes qui les connaissent, les IA génératives deviennent leur outil préféré pour rechercher des recommandations sur des produits ou des services, au lieu des moteurs de recherche. Dans le détail, 53% leur font confiance pour les aider à gérer leurs finances, 67% pour des diagnostics et conseils médicaux et 66% sont prêts à les utiliser pour des conseils sur leurs relations personnelles ou leurs projets de vie, notamment les baby-boomers (70%), selon ce sondage publié lundi et réalisé auprès de 10.000 personnes de plus de 18 ans.

Mais 49% ne craignent pas que l’IA générative soit utilisée pour créer de fausses informations et seuls 34% s’inquiètent de leur capacité créer des mails de phishing (hameçonnage, pour mener des cyberattaques). Seuls 33% s’inquiètent des questions de droits d’auteur et 27% de l’utilisation d’algorithmes pour des contrefaçons. Les internautes qui utilisent les IA génératives fréquemment restent encore très minoritaires: pour la fonction conversationnelle, la plus utilisée, seuls 7% s’en servent plusieurs fois par semaine et 8% plusieurs fois par jour. Le degré de satisfaction des utilisateurs grimpe à près de 90%.

De plus, 43% souhaitent que les entreprises utilisent l’IA générative pour interagir avec eux, 70% souhaitent en obtenir des recommandations pour de nouveaux produits et services, et 64% sont prêts à effectuer des achats sur cette base. Ils sont aussi 67% à estimer que l’IA générative est capable de proposer des recommandations personnalisées en matière de mode et de décoration d’intérieur. Des opinions favorables sans différence significative entre les groupes d’âge, souligne l’étude.

Régulation de l’intelligence artificielle: ne restez pas les bras croisés!

Plus de six mois après le lancement de ChatGPT et les multiples interrogations soulevées à travers le monde par les IA dites génératives, il est temps de faire un point sur l’évolution de la régulation de ces outils.

En attendant l’entrée en vigueur de l’AI Act, le règlement européen sur l’IA, cette régulation s’effectue aujourd’hui essentiellement par le biais des «conditions générales d’utilisation» (CGU) et de la «politique de confidentialité» associées à chaque outil. Et, dans ce cadre, quelques exemples concrets suffisent à montrer que c’est bien à l’utilisateur, tant dans son cadre privé que professionnel, de jouer un rôle éclairé et attentif. Ainsi, pour la version gratuite de DeepL, sachez que l’ensemble de vos interactions pourront être utilisées pour entraîner le système et que les CGU vous interdisent expressément d’entrer des données personnelles.

Lire la chronique complète: Régulation de l’intelligence artificielle: ne restez pas les bras croisés!

Le parti socialiste demande d’agir

Le parti socialiste propose 20 mesures pour réglementer l’intelligence artificielle (IA) en Suisse, rapportaient ce dimanche Le Matin Dimanche et la SonntagsZeitung. Parmi elles figurent une loi-cadre ainsi que des règles de protection des personnes contre la discrimination ou des autorités de surveillance et de contrôle. Dans cette optique, le PS va déposer cinq textes au Parlement fédéral. L’un d’eux demande la création d’un centre de compétences pionnier. «En créant un réseau pour lier ces compétences, nous aurions la capacité d’étudier, de développer et tester les IA pour acquérir des outils qui seraient utiles pour la population», explique dans Le Matin Dimanche le conseiller national Samuel Bendahan (PS/VD).

L’intelligence artificielle secoue le système éducatif

S’il est encore tôt pour mesurer l’ensemble des conséquences de l’IA dans l’éducation, elle permettra l’accélération de certaines innovations pédagogiques. Notamment l’adaptive learning ou apprentissage adaptatif en français, un concept qui repose sur la personnalisation de la formation, affirment dans une note récente Elise de Coligny, analyste, et Aymeric Gastaldi, gérant du fonds Edmond de Rothschild Fund Human Capital chez Edmond de Rothschild Asset Management. Selon eux, l’IA peut enfin résoudre le problème «2 sigma» de Bloom. En 1984, Benjamin Bloom a fait la découverte d’une méthode permettant d’améliorer considérablement l’efficacité de l’enseignement, en obtenant des résultats améliorés par un facteur de deux écarts types (deux sigma). Ainsi, un élève «moyen» d’une classe donnée pourrait désormais obtenir de meilleurs résultats que 49 élèves sur 50 dans une classe traditionnelle. Son secret? Le tutorat individuel. Le problème? L’échelle nécessaire. Ainsi, en proposant des outils conversationnels personnalisés, des devoirs, des évaluations et des conseils sur-mesure, l’IA permet virtuellement à chaque élève d’avoir son super-tuteur personnel.

Selon les deux auteurs, l’IA offrirait ainsi ce «super-tuteur» à chaque élève, mais aussi un super-assistant à chaque enseignant. Or, actuellement le déficit du nombre d’enseignants aux États-Unis est majeur. Les outils pouvant leur permettre de faciliter leur mission ou d’améliorer leur productivité peuvent apporter des solutions salutaires. Une université nous donne déjà un bel exemple d’utilisation de l’intelligence artificielle pour améliorer le succès des étudiants, poursuivent les spécialistes. La Georgia State University (GSU) a mis en place un système d’analyse prédictive alimenté par l’IA depuis 2012. Ce système analyse des données provenant de diverses sources, telles que les relevés de notes, les dossiers d’aide financière et les activités extrascolaires sur le campus, afin d’identifier les étudiants à risque d’abandonner leurs études ou de prendre du retard sur le plan académique. Il fournit ensuite des alertes précoces aux conseillers académiques, qui prennent ensuite contact avec ces étudiants et leur fournissent un soutien personnalisé. Depuis la mise en œuvre du système, le taux d’obtention de diplômes de l’université a augmenté de 22 points de pourcentage.

Les auteurs sont optimistes: l’écart de réussite entre les étudiants issus de minorités sous-représentées et leurs pairs a été éliminé. Le système a également permis à la GSU d’économiser 10 millions de dollars en bourses et subventions qui auraient été perdues en raison des abandons, évitant ainsi aux étudiants de s’endetter inutilement.

L’IA a donc un rôle social à jouer à la fois en aplanissant l’accès à l’information pour tous les élèves, et en enlevant des biais humains existants dans l’identification des besoins des étudiants. L’usage de l’IA dans l’éducation va bien plus loin que la seule résolution de questions ou problèmes de court terme. Si certaines sociétés cotées en Bourse ont été largement sanctionnées, c’est aussi parce que leur proposition de valeur repose entièrement sur cette aide au devoir ponctuelle et ne transforme pas la manière d’apprendre, ni d’enseigner, mais prend plutôt des raccourcis avec l’apprentissage.

Toutefois, il ne s’agit pas de désigner les disrupteurs et les disruptés. Le résultat sera probablement plus nuancé. Les acteurs historiques peuvent faire preuve d’innovation. Ils ont souvent davantage de ressources. Ils disposent de la base de données, du contenu, des relations avec les clients qui rendent l’innovation pertinente, utile et précise. Il y a aussi de nombreuses opportunités pour de la collaboration et des partenariats entre différents acteurs – ceux fournissant le contenu et ceux offrant les modèles d’IA. Les succès futurs ne dépendront pas de l’un ou l’autre mais bien de la combinaison des deux.

Collaborer avec l’IA, plutôt que lui déléguer nos tâches

Le philosophe Raphaël Enthoven vient de battre ChatGPT à l’épreuve de dissertation du bac français en obtenant la note de 20/20, contre 11/20 pour son adversaire virtuel. Le sujet était «Le bonheur est-il affaire de raison?». Certains interprètent ce résultat comme une «déculottée» infligée par l’humain, mais on peut également considérer comme impressionnant le score obtenu par un outil à peine âgé de quelques mois et qui n’a eu besoin que de 90 secondes pour produire son travail.

Cet exemple reflète parfaitement les difficultés que je rencontre dans l’utilisation de l’intelligence artificielle au quotidien: par paresse, nous commettons l’erreur de vouloir déléguer à l’IA des tâches dans leur intégralité (en l’occurrence une rédaction complète). Le résultat obtenu s’avère la plupart du temps décevant, loin de ce que nous pourrions réaliser par des itérations, dans une succession d’échanges avec des agents conversationnels intelligents (infatigables et toujours disponibles).

C’est en demandant à l’IA de venir bousculer nos idées, de tordre notre vision, de nous proposer dix variantes originales de nos formulations que nous parvenons à instaurer une dynamique de travail hors du commun. Lorsque nous collaborons avec une IA, nous nous administrons en quelque sorte un produit dopant (pour l’instant autorisé) qui nous aide à dépasser nos limites pour atteindre le niveau immédiatement supérieur de nos compétences. En symbiose avec ces assistants intelligents, nous nous dotons de capacités littéralement surhumaines, déverrouillant des horizons d’innovation et de créativité pratiquement sans limites.

Une révolution par la technologie qui est aussi à double tranchant: en négligeant de l’intégrer à son processus de travail, on risque de se voir rapidement dépassé par des concurrents qui l’auraient d’ores et déjà adoptée.

Nous sommes donc dans l’ère de la complémentarité avec l’intelligence artificielle. Traversons-nous une période de répit avant l’automatisation de la majorité de nos tâches professionnelles (à l’exception des tâches manuelles)? L’avenir le dira, mais il y a indéniablement une urgence à acquérir des compétences d’un nouveau type dans la «direction d’IA», ce que l’on désigne également sous le terme de prompt engineering.

Yann Le Cun, de Meta: «Nous aurons bientôt tous un assistant personnel basé sur l’IA»

Responsable de la recherche en intelligence artificielle chez Meta (Facebook), Yann Le Cun a exposé mercredi lors du salon VivaTech son optimisme face au développement fulgurant de cette technologie.

Pour Yann Le Cun, «nous aurons bientôt tous un assistant personnel basé sur l’IA, qui nous aidera dans notre vie quotidienne. Il sera plus smart que nous, mais il sera obéissant et bien intentionné, ce ne sera pas une menace. Nous devons développer des machines contrôlables par les humains, soumises à ceux-ci, et leur seul but sera d’atteindre certains objectifs pour le bien public.» Aucun risque pour le chercheur que ces systèmes d’IA cherchent à conquérir le monde, simplement parce qu’ils sont plus intelligents que les humains: «Regardez certains dirigeants politiques, est-ce parce qu’ils sont plus intelligents que la moyenne qu’ils sont au pouvoir? La réponse est non…»

Lire l'article complet: Yann Le Cun, de Meta: «Nous aurons bientôt tous un assistant personnel basé sur l’IA»

Le Parlement européen ouvre la voie à la régulation de l’IA

Les eurodéputés ont approuvé mercredi un projet européen de régulation de l’intelligence artificielle (IA), ouvrant la voie à une négociation avec les Etats membres pour finaliser ce texte qui doit limiter les risques des systèmes de type ChatGPT. Le Parlement européen a réclamé de nouvelles interdictions, comme celle des systèmes automatiques de reconnaissance faciale dans les lieux publics.

La Commission voudrait autoriser son usage par les forces de l’ordre dans la lutte contre la criminalité et le terrorisme. Le sujet devrait nourrir les débats avec les Etats membres qui refusent l’interdiction de cette technologie controversée. L’Union européenne espère conclure avant la fin de l’année le premier règlement au monde visant à encadrer et protéger l’innovation dans l’intelligence artificielle, un secteur stratégique dans la compétition économique.

Bruxelles a proposé il y a deux ans un projet ambitieux, dont l’examen a traîné en longueur et qui a encore été retardé ces derniers mois par les controverses sur les dangers des IA génératives capables de créer des textes ou des images. Le Parlement européen a adopté mercredi sa position lors d’un vote en séance plénière à Strasbourg. Dès la fin de journée, des négociations doivent commencer avec les Etats membres pour finaliser la législation au plus vite. Le commissaire Thierry Breton, qui a porté le texte avec sa collègue Margrethe Vestager, a appelé à conclure le processus dans «les prochains mois».

L’intelligence artificielle va révolutionner l’éducation, prédit le fondateur de ChatGPT

L’intelligence artificielle (IA) va révolutionner l’éducation comme l’ont fait les calculatrices mais ne va pas remplacer l’apprentissage, a estimé lundi Sam Altman, le patron d’OpenAI, la société américaine derrière le robot conversationnel ChatGPT aussi populaire que controversé. «Les devoirs à la maison ne seront probablement plus jamais les mêmes», a déclaré M. Altman lors d’une conférence à l’université Keio à Tokyo. «Nous disposons d’un nouvel outil pour l’éducation. C’est en quelque sorte une calculatrice pour les mots», a-t-il comparé. «Les manières d’enseigner et d’évaluer les étudiants vont devoir changer».

M. Altman effectue en ce moment une tournée mondiale où il rencontre des chefs d’entreprise et des responsables politiques pour discuter à la fois des opportunités créées par l’IA générative et aussi de sa future réglementation. Il s’est dit lundi confiant quant à la forme que prendront des garde-fous tout en réitérant des craintes. «Les outils que nous avons sont encore extrêmement primitifs par rapport à ceux dont nous disposerons dans quelques années» et OpenAI se sentira «super responsable» si quelque chose tournait mal, a-t-il assuré.

L'IA ne doit pas «distraire» de la désinformation en ligne, estime le chef de l'ONU

Les nouveaux outils d'intelligence artificielle (IA) ne doivent pas nous «distraire» des «graves dommages» que cause déjà la désinformation en ligne, «risque existentiel» pour l'humanité, a estimé lundi le secrétaire général de l'ONU, réclamant un «code de conduite» international. Notant les avertissements «assourdissants» lancés à propos des nouvelles formes d'intelligence artificielle, y compris par leurs créateurs, Antonio Guterres a estimé qu'ils ne devaient «pas nous distraire des dommages que la technologie numérique cause déjà à notre monde».

«La prolifération de la haine et des mensonges en ligne provoque de graves dommages au niveau mondial, maintenant», a-t-il déclaré lors d'une conférence de presse. «Cela alimente les conflits, la mort et la destruction, maintenant. Cela menace la démocratie et les droits humains, maintenant», a-t-il insisté, en présentant une note d'orientation sur le sujet, qui fait partie d'une série de recommandations dans la perspective du Sommet pour l'avenir en 2024.

«ZüriCityGPT», «ChatBot Glarus», une ONG Suisse recense les IA actives en Suisse

Dans l’administration publique lucernoise ou bâloise, dans la reconnaissance faciale à Neuchâtel, dans la santé en Argovie ou encore pour évaluer l’utilisation des bancs publics en ville de Zurich: les intelligences artificielles sont déjà omniprésentes en Suisse. Pour rendre compte du phénomène, l’organisation non gouvernementale «AlgorithmWatch» annonce ce lundi la publication d’un répertoire «non exhaustif» de ces systèmes. Le but, précise l’ONG qui cherche à «analyser les algorithmes ayant une influence sur la société» est de «faire la lumière» sur ce qu’elle appelle une «boîte noire» afin d’illustrer la variété des utilisations déjà en vigueur des IA dans notre pays. La plateforme permet de filtrer les résultats selon différents critères, notamment géographiques. Le lien ici.

L'«IA washing», ou quand l’intelligence artificielle est utilisée à toutes les sauces

Attention les yeux, voici l’arrivée d’un «nettoyage assisté par IA pour la séance de ménage la plus intelligente à ce jour». C’est ce que vient de promettre Samsung en présentant le 7 juin dernier le Bespoke Jet AI, premier aspirateur dopé à l’IA. Le modèle – qui se connecte bien entendu au wifi pour être «personnalisé», est une Rolls de l’aspiration, selon le groupe sud-coréen.

Attention, voici un descriptif à faire rêver les geeks: «En mode nettoyage assisté par IA, le Bespoke Jet AI détecte d’abord la sollicitation des brosses grâce à son contrôle du flux d’aspiration, ainsi que la pression de l’air grâce à ses capteurs dédiés. Ensuite, ces données sont analysées pour déterminer le type de sol sur lequel il se trouve, puis l’algorithme intelligent se base sur ces données pour régler automatiquement la puissance d’aspiration et la vitesse optimale des brosses rotatives pour un résultat optimal.»

Hum… Il y a tout de même de quoi douter un peu de l’utilisation de l’intelligence artificielle (IA) pour cet aspirateur. Sans doute que Samsung, comme d’autres, utilise ce terme à la mode de manière légèrement abusive pour faire envie. Nous sommes sans doute ainsi entrés dans une nouvelle ère de l’IA washing, avec un marketing si intense que ce mot ne veut plus rien dire.

On se souvient par exemple que le 2 juin, le canton de Neuchâtel annonçait fièrement le lancement de son premier outil d’IA pour rassembler toutes les informations publiques fiables des entreprises industrielles du canton et créer la première représentation interactive et dynamique de l’écosystème neuchâtelois. La veille, c’est l’Université de Fribourg qui annonçait la création d’un outil pour détecter les cartels à l’aide de l’intelligence artificielle…

Fait amusant, en 2017 déjà, deux chercheurs du MIT lançaient cet avertissement: «Nous voyons des modèles d’affaires généreusement parsemés de références à l’apprentissage automatique, aux réseaux neuronaux et à d’autres formes de technologie, sans grand rapport avec leurs capacités réelles. Le simple fait d’appeler un site de rencontres «alimenté par l’IA», par exemple, ne le rend pas plus efficace, mais cela peut aider à lever des fonds»…

Une conférence à Genève sur l’IA

Mercredi 14 juin, l’après-midi, se tiendra à Genève un événement consacré à l’IA. Organisé par Vincent Bifrare (Donuts Communication) et Nicolas Capt (Quinze Cours des Bastions), l’événement explorera la thématique de l’influence de l’IA sur la communication et l’information. De ChatGPT aux deepfakes, du journalisme augmenté aux arnaques 4.0, les périls, opportunités et défis de l’IA en lien avec la thématique seront abordés par plusieurs experts. Les participants exploreront les impacts de l’IA sur la production et la distribution de l’information, ainsi que sur la façon dont nous évaluons et faisons confiance à l’information en ligne. Les participants examineront également les efforts en cours pour lutter contre la désinformation et les arnaques 4.0, ainsi que les opportunités que l’IA peut offrir pour améliorer la communication et l’information, notamment dans le domaine du journalisme augmenté.

Les intervenants seront Stéphane Duguin, expert en cybercriminalité et directeur général du CyberPeace Institute, Jan Kleijseen, ancien directeur de la société de l’information - Action contre la criminalité, Direction générale des droits de l’homme et de l’État de droit - Conseil de l’Europe, Jean-Marc Rickli, responsable des risques globaux et émergents au Geneva Centre for Security Policy, Kati Bremme, Directrice de l’Innovation à France Télévisions, Touradj Ebrahimi, professeur de traitement d’images à l’Ecole Polytechnique Fédérale de Lausanne (EPFL) ainsi que Solange Ghernaouti, Professeure à HEC (UNIL).

Informations complètes sur le site https://aigs.ch/

Une IA militaire qui se retourne contre son opérateur?

C’est un article troublant qu’a publié récemment le Guardian. Le journal britannique affirme que dans le cadre d’une simulation, un drone a décidé de «tuer» son opérateur pour l’empêcher d’interférer avec ses efforts pour accomplir sa mission. L’armée américaine a démenti cela. Selon le Guardian, un fonctionnaire a déclaré le mois dernier que lors d’un test virtuel organisé par l’armée américaine, un drone de l’armée de l’air contrôlé par l’IA avait utilisé «des stratégies très inattendues pour atteindre son objectif». Un drone doté d’une intelligence artificielle s’est vu conseiller de détruire les systèmes de défense aérienne d’un ennemi et a finalement attaqué toute personne ayant interféré avec cet ordre.

Plus tard, une porte-parole de l’armée de l’air américaine a nié qu’une telle simulation ait eu lieu. «Le département de l’armée de l’air n’a pas effectué de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie de l’IA», a-t-elle déclaré. «Il semble que les commentaires du colonel (qui avait relaté l’incident, ndlr) aient été pris hors contexte et se voulaient anecdotiques.»

Lire l’article complet du Guardian ici.

Revoir un proche décédé, quand l'IA va au-delà de la mort

Rester en contact virtuel avec un proche après sa mort, c'est ce que proposent plusieurs start-ups avec l'aide de l'intelligence artificielle, un univers aux contours encore flous et qui pose de nombreuses questions. Ryu Sun-yun s'assied face à un micro et un écran géant, dans lequel apparaît son mari, décédé quelques mois plus tôt. «Chérie. C'est moi», lui dit-il. En larmes, elle lui répond et s'amorce un semblant de conversation, dans cette vidéo de démonstration.

Se sachant atteint d'un cancer en phase terminale, ce Sud-Coréen de 76 ans, Lee Byeong-hwal, avait sollicité la société DeepBrain AI, qui l'a filmé pendant plusieurs heures, pour créer une réplique numérique, susceptible de répondre à des questions. «Nous ne créons pas de nouveaux contenus», c'est-à-dire des phrases que le défunt n'aurait jamais prononcées ou écrites dans un journal puis validées de son vivant, explique Joseph Murphy, responsable du développement chez DeepBrain AI, au sujet du programme «Re;memory».

Le principe est le même pour StoryFile, qui utilise pour démonstration sur son site l'acteur de «Star Trek» William Shatner, âgé de 92 ans. «Notre approche, c'est de capter la magie de cet individu tant que c'est possible» et qu'il est encore en vie, «et ensuite, d'utiliser l'IA», résume Stephen Smith, patron de StoryFile, qui revendique plusieurs milliers d'utilisateurs de son service Life. En Chine, des entreprises de pompes funèbres proposent une interaction IA avec le défunt lors de ses funérailles.

Les pilotes craignent que des avions plus automatisés se passent de copilotes

Le Syndicat national des pilotes de ligne (SNPL) s’est inquiété mardi de projets des constructeurs aéronautiques d’automatiser davantage les avions avec de l’intelligence artificielle, qui pourraient remplacer l’un des deux pilotes à bord. La présidente du SNPL, qui fédère les trois quarts des pilotes français, a vilipendé lors d’une téléconférence de presse «une espèce de rêve fou d’ingénieurs qui rêvent de créer l’ordinateur parfait qui pourrait venir remplacer un pilote humain». «On lance une alerte sur ce projet!», a ajouté Karine Gély. µNous sommes convaincus que l’ordinateur ou quelque intelligence artificielle que ce soit est totalement incapable de gérer l’imprévisible ou le hautement improbable», a poursuivi Mme Gély.

A deux dans la cabine de pilotage, «on est capable d’élaborer des plans d’action, des stratégies de vol. Et on sait aussi qu’on est beaucoup plus forts et beaucoup plus performants en équipage à deux que si on était tout seul aux commandes», a-t-elle affirmé. Outre les problèmes de fatigue s’il n’y avait plus qu’un pilote dans l’avion, le SNPL rappelle l’importance du «crosscheck» (vérification croisée) à deux: «Un pilote vérifie ce que fait l’autre, vérifie ce que fait l’avion, etc.» «L’humain est faillible, l’humain fait des erreurs. C’est vrai, c’est tout à fait vrai, on en fait tous. Mais (…) les automatismes eux aussi sont faillibles, aussi perfectionnés soient-ils», a relevé Fanny Aronssohn, porte-parole du SNPL.

Deezer lance un outil pour détecter les contenus générés par l’IA

Transparence et équité: la plateforme française de streaming musical Deezer a indiqué mardi avoir mis au point une technologie, qui lui permet d’identifier les chansons clonant les voix de stars de la musique via l’intelligence artificielle. «Notre objectif est d’éliminer les contenus illégaux et frauduleux, d’accroître la transparence et de développer un nouveau système de rémunération où les artistes professionnels sont récompensés pour la création de contenus de valeur», a déclaré le directeur de Deezer, Jeronimo Folgueira, cité dans un communiqué. «C’est pourquoi (…) nous développons des outils pour détecter les contenus générés par des IA», poursuit-il.

Ce système dit marquage vise d’abord à repérer les chansons utilisant «des voix synthétiques d’artistes existants». «Ces informations seront utilisées pour signaler aux artistes, labels et utilisateurs le contenu généré par l’IA sur la plateforme», détaille Jeronimo Folgueira, pour qui ce nouveau système entend «développer un modèle de rémunération qui fasse la distinction entre les différents types de création musicale». Une annonce qui intervient alors que l’intelligence artificielle est en plein essor et bouscule de nombreux secteurs, dont celui de la musique.

Mi-février, le DJ star David Guetta avait fait parlé de lui en utilisant l’IA pour une voix à la façon du rappeur Eminem pour un de ses shows. L’artiste n’a pas commercialisé ce titre, expliquant à la BBC vouloir «ouvrir la discussion pour une prise de conscience».

Editorial: la dépendance n’est pas une fatalité

Au niveau occidental, le ton est dicté avec de plus en plus d’intensité par les géants américains de la technologie. Ce sont eux qui lancent avec fracas les innovations les plus marquantes pour notre quotidien (pensez à ChatGPT depuis le 30 novembre 2022). Ce sont également Microsoft ou Google qui investissent des dizaines de milliards de dollars dans le développement de nouveaux services. Et ce sont enfin ces mêmes empires qui effectuent, de manière souvent hypocrite, un lobbying intense pour que la régulation européenne leur soit la plus douce possible.

Mais il n’y a pas de fatalité à cette dépendance importante, comme nous l’esquissons dans cet éditorial.

Lire l'éditorial complet: Intelligence artificielle: la dépendance n’est pas une fatalité

«Attention à ne pas geler le financement de la recherche en IA en Suisse»

Pour Sabine Süsstrunk, directrice du Laboratoire d’images et représentation visuelle de la Faculté informatique et communications de l’EPFL, la Suisse a tout pour bien faire. «Les entreprises suisses sont très bien équipées pour être des leaders dans les applications d’IA. Nous disposons d’universités très solides (EPFL, EPFZ) ainsi que de hautes écoles spécialisées qui forment d’excellents ingénieurs. Ces écoles disposent également de groupes de recherche très actifs et performants dans le domaine de l’IA. De plus, nous avons également en Suisse une remarquable culture de la création d’entreprises qui donne naissance à de nombreuses start-up qui ont une portée mondiale, comme ClearSpace ou Neural Concept, issues de l’EPFL.»

Que faire pour que les entreprises suisses et la recherche suisse soient mieux placées? «Financer la recherche dans ce domaine!» s’exclame Sabine Süsstrunk. «Il faut aussi créer un centre d’excellence suisse qui étudie tous les aspects de l’IA, non seulement les progrès technologiques, mais aussi la réglementation, l’impact social et celui sur la société et l’économie suisses. Ce n’est absolument pas le moment de geler ou de diminuer le financement de la recherche en Suisse.»

Lire l'article complet: «Attention à ne pas geler le financement de la recherche en IA en Suisse»

En intelligence artificielle, l’Europe peut-elle tenir le choc face aux Etats-Unis?

La partie est-elle déjà perdue? L’Europe subit-elle un décrochage irrémédiable dans la course mondiale à l’intelligence artificielle? C’est la question numéro un qui hante avec de plus en plus d’insistance responsables économiques et politiques européens. Elle concerne aussi de près tous les utilisateurs de services liés à l’intelligence artificielle (IA). Car ces services, mis à disposition du grand public à un rythme effréné, sont aujourd’hui presque exclusivement développés sur la côte Ouest des Etats-Unis. Les Américains, maîtres du monde numérique depuis des décennies, vont-ils renforcer leur influence planétaire avec des services d’IA de plus en plus puissants?

Depuis le lancement public de ChatGPT le 30 novembre 2022, la quasi-totalité des services d’IA grand public qui apparaissent sont développés outre-Atlantique. OpenAI, éditeur de ChatGPT, est à San Francisco, soutenu financièrement de manière massive par Microsoft. Ce dernier dope chaque semaine un peu plus Bing, Word, Outlook ou Teams avec de l’IA, alors qu’en face Google développe rapidement son nouveau moteur de recherche Bard avec des technologies similaires.

Pour Marie-Pierre de Bailliencourt, directrice générale de l’Institut Montaigne, «le retard européen est colossal et non rattrapable en équivalent.»

Lire l'article en entier

L’intelligence artificielle sera-t-elle démocratique?

La course est lancée. Non pas celle de l’intelligence artificielle, mais celle des normes pour l’encadrer. Face à une révolution comparable à celle de l’irruption d’internet, il y a 30 ans, les Etats se concurrencent autant pour promouvoir une technologie qui sera le prochain moteur économique que pour se protéger de ses potentiels effets délétères sur les systèmes politiques en place. Dans l’attente d’une réglementation internationale qui tarde à s’imposer, des blocs se dessinent pour être les précurseurs des règles du futur. Et, sans surprise, ils recoupent largement les alliances géopolitiques qui s’affrontent déjà.

Lire la chronique complète: L’intelligence artificielle sera-t-elle démocratique?

L’intelligence artificielle sera-t-elle démocratique?

La bataille des normes est engagée pour encadrer une IA qui menace la cybersécurité des Etats. Reste à savoir qui des Européens, des Américains ou des Chinois prendra l’ascendant pour les écrire.

Lire notre chronique

Les IA génératives, inspirées ou usurpatrices?

La technologie a récemment franchi une frontière que nous pensions réservée à l’espèce humaine: le territoire de la créativité. L’avènement de l’intelligence artificielle générative a révélé des capacités insoupçonnées pour concevoir des textes à volonté, des images saisissantes ou encore des compositions musicales.

Mais certains artistes voient rouge et fustigent l’utilisation d’outils comme ChatGPT ou Midjourney qui se servent dans un corpus de réalisations humaines, et possiblement leur travail, pour produire de nouvelles œuvres. Les créations des IA génératives sont pourtant uniques: chaque requête génère des résultats différents, qui ne sont pas à proprement parler des patchworks d’œuvres existantes, mais des compositions originales et complexes, façonnées par un très vaste ensemble de données qui sont ensuite réinterprétées par des algorithmes intelligents.

Depuis toujours, les écrivains, peintres et musiciens puisent leur inspiration dans les créations de leurs prédécesseurs. Les fresques de Lascaux découlaient d’une longue tradition de pictogrammes plus rudimentaires dessinés par d’autres Cro-Magnon. Pablo Picasso était dans les traces de Paul Cézanne, Kandinsky doit sans doute beaucoup au travail de Gauguin et Victor Hugo ne cachait pas son admiration pour Chateaubriand. La liste des influenceurs et influencés serait sans fin.

Le processus créatif n’émerge jamais du néant; il est cumulatif, fait de reprises, d’emprunts, d’hommages parfois involontaires aux œuvres passées pour en nourrir de nouvelles.

Tant qu’elle n’atteint pas les limites qui sont définies par le plagiat, l’imitation demeure un pilier de l’apprentissage et de l’éducation. La véritable question est de savoir si nous sommes désormais prêts à accepter cette forme d’inspiration par des entités non humaines. Pourrait-on éventuellement les accuser de concurrence déloyale en raison de leurs capacités surhumaines?

Vers une meilleure approche des troubles psychiques grâce à l’IA?

Ni analyse de laboratoire, ni imagerie, ni examen clinique. Le diagnostic des troubles psychique a ceci de particulier qu’il ne repose pas sur des mesures objectives, ce qui participe à des retards importants de prise en charge – près de dix ans par exemple pour les troubles bipolaires. Mais la donne est en train de changer: de plus en plus de chercheurs s’appliquent à mettre en évidence des marqueurs biologiques ou physiologiques de ces affections. Et lorsqu’ils croisent leurs résultats avec les potentialités offertes par l’intelligence artificielle, les promesses d’une psychiatrie à la fois plus objective et plus personnalisée sont grandes.

On a pu récemment entendre parler de bots basés sur l’intelligence artificielle, promettant de dépister les troubles mentaux des utilisateurs de Twitter ou de Reddit en se basant sur l’analyse de leurs publications ou encore d’applications visant à mieux suivre sa santé mentale grâce à des enregistrements vocaux. Mais ces outils peuvent sembler un rien cosmétiques et surtout peu personnalisés alors même que les troubles psychiques sont sujets à une grande variabilité individuelle.

Lire l'article complet: Vers une meilleure approche des troubles psychiques grâce aux objets connectés et à l’intelligence artificielle?

La Suisse romande, terre fertile pour les start-up spécialisées en IA

Qui dit intelligence artificielle (IA) pense bien sûr aux Etats-Unis. De San Francisco, siège d’OpenAI, éditrice de ChatGPT, à Redmond dans l’Etat de Washington, où se trouve le siège de Microsoft, c’est outre-Atlantique que se produisent les avancées les plus rapides. Mais en parallèle, de nombreuses sociétés suisses tentent elles aussi d’innover sur ce marché. Et notamment en Suisse romande, comme l’a mis en lumière mercredi la conférence «Intelligences complémentaires», organisée à Lausanne par l’entrepreneur et spécialiste en innovation Laurent Haug.

Que ce soit pour la création et l’analyse d’images, de textes, de sons ou de vidéos, plusieurs entreprises romandes tentent actuellement de se démarquer sur un marché qui devient vite ultra-concurrentiel. Nous vous présentons plusieurs de ces sociétés dans cet article.

Lire l'article complet: La Suisse romande, terre fertile pour les start-up spécialisées en intelligence artificielle

Détecter les cartels à l’aide de l’intelligence artificielle

Des scientifiques fribourgeois ont développé un algorithme d’intelligence artificielle permettant de détecter les ententes cartellaires dans les appels d’offres publics. Le taux de réussite dépasse les 90%. Le bon fonctionnement de l’économie de marché dépend d’une concurrence honnête entre les acteurs. Or, des entreprises tentent régulièrement de contourner la concurrence saine en s’entendant sur les prix, a indiqué jeudi l’Université de Fribourg dans un communiqué.

Les victimes ne sont pas seulement les mandataires, mais aussi, dans le cas des appels d’offres publics, la société en général. La découverte de tels cartels est extrêmement laborieuse et nécessite l’expertise de dizaines de juristes et d’économistes de la Commission de la concurrence (COMCO). Martin Huber, à l’Université de Fribourg, et David Imhof, de la COMCO, ont eu l’idée de développer une méthode de lutte basée sur des algorithmes d’apprentissage profond. Cela a permis d’identifier correctement 19 entreprises sur 20, soit comme membres d’un cartel, soit comme concurrents honnêtes.

Des appels d’offres suisses et japonais ont servi de base de données, ce qui montre que cette technologie peut également être appliquée au-delà des frontières. La méthode se base sur une comparaison des prix indiqués par les soumissionnaires et les enchérisseurs, car les montants proposés trahissent souvent une entente. C’est en se basant sur des exemples de collusion avérés que l’intelligence artificielle apprend à repérer les cas problématiques et à distinguer les cas avec et sans entente. Après une phase d’apprentissage, l’algorithme est en mesure d’identifier les offres suspectes présentant un risque accru d’entente sur les prix.

Nvidia, du jeu vidéo à l'IA

Cette semaine, Nvidia est devenue la première entreprise de l’industrie des semi-conducteurs à dépasser les 1000 milliards de capitalisation boursière. Ce seuil est symbolique, mais actuellement il n’y a que cinq entreprises qui appartiennent à ce club très fermé: Apple, Microsoft, Amazon, Alphabet (maison mère de Google) et Saudi Aramco. Relativement inconnu du grand public, le fabricant de processeurs graphiques s’est ainsi retrouvé propulsé au rang des supercapitalisations du fait de son positionnement dans le domaine de l’IA

Créée en 1993, la société californienne était surtout connue des adeptes de jeux vidéo pour ses composants permettant d’afficher des images en haute résolution. Depuis quelques années, les GPU qu’elle produit ont démontré leur utilité dans d’autres domaines qui requièrent des capacités de calcul importantes: le minage de cryptomonnaie, l’automobile autonome et l’IA. Dirigée depuis 30 ans par Jen-Hsun Huang, Nvidia a pris le parti de se positionner dans ce secteur quand ses principaux concurrents, les américains Intel et AMD, apparaissent plus à la traîne. Depuis l’explosion des IA génératives comme ChatGPT, l’entreprise à l'œil vert enregistre des dizaines de milliers de commandes pour ses processeurs dédiés à l’intelligence artificielle.

Lire aussi: Nvidia, qui se cache derrière cette entreprise qui pèse 1000 milliards de dollars?

Contre Ron DeSantis, Donald Trump utilise déjà l’arme de l’intelligence artificielle

Rival de l’ancien président, le gouverneur de Floride est la cible de plusieurs montages et fausses vidéos. La création de ces contenus a explosé ces derniers mois et arrive sur le terrain politique. On vient de le voir avec une parodie publiée par le clan Trump, où l’on entendait de fausses voix du financier George Soros ou du fondateur du Forum économique mondial de Davos Klaus Schwab. Ces symboles des «élites économiques globalistes» honnies par la droite américaine soutenaient prétendument Ron DeSantis.

Le parti républicain en avait fait de même en publiant une vidéo réalisée grâce à l’intelligence artificielle juste après l’annonce de la seconde candidature de Joe Biden le 25 avril dernier. Elle montrait les conséquences prétendument apocalyptiques d’une réélection du président sortant: une guerre avec la Chine, une invasion de migrants et l’armée dans les rues de San Francisco pour tenter de juguler la criminalité. C’était la première publicité politique créée grâce à l’intelligence artificielle. Le parti avait au moins signalé, dans un coin de la vidéo, qu’il s’agissait d’images fictives. Mais cette transparence est une exception.

Lire aussi: Contre Ron DeSantis, Donald Trump utilise déjà l’arme de l’intelligence artificielle

L’UE et les Etats-Unis annoncent un projet de «code de conduite» commun

L’Union européenne et les Etats-Unis ont annoncé mercredi un projet de «code de conduite» commun sur l’intelligence artificielle (IA) ouvert aux pays démocratiques, qui s’appliquerait de façon volontaire au secteur, au moment où les grandes puissances planchent sur une régulation. «Dans les prochaines semaines, nous allons présenter un projet de code de conduite sur l’intelligence artificielle», a déclaré la Commissaire européenne à la concurrence Margrethe Vestager, lors d’une conférence de presse commune en Suède avec le chef de la diplomatie américaine Antony Blinken.

Il s’agira d'«établir des codes de conduite volontaires qui seraient ouverts à tous les pays partageant les mêmes idées», a précisé ce dernier, au moment où les Occidentaux craignent de laisser la Chine donner le la sur la régulation. L’idée est d’avoir «très, très bientôt» une proposition finale sur laquelle les entreprises du secteur, dominé par des géants américains comme Microsoft, Meta ou Google, «pourront s’engager volontairement», a précisé Mme Vestager. En présence du fondateur du robot conversationnel révolutionnaire ChatGPT Sam Altman, la question de l’IA a été un des sujets principaux d’une réunion du Conseil du commerce et des technologies (CCT) à Luleå dans le nord de la Suède. L’organe avait été créé en 2021 entre les 27 et Washington pour tourner la page des brouilles commerciales des années Trump.

«L’UE et les Etats-Unis partagent le point de vue commun que les technologies d’intelligence artificielle comportent de grandes opportunités mais présentent également des risques pour nos sociétés», ont déclaré les deux grandes puissances dans un communiqué final. L’Union européenne (UE) veut être la première au monde à se doter d’un cadre juridique complet et obligatoire pour limiter les dérives de l’intelligence artificielle, mais son entrée en vigueur n’arrivera pas avant fin 2025.

Danemark: la Première ministre prononce un discours en partie écrit par ChatGPT

La Première ministre danoise Mette Frederiksen a prononcé mercredi un discours du Parlement dont toute la première partie était rédigée par l’outil d’intelligence artificielle ChatGPT, pour souligner l’aspect révolutionnaire mais aussi risqué de la technologie. Pour la cheffe du gouvernement danois, qui faisait un discours de bilan politique à l’occasion de la clôture de la session parlementaire, le robot conversationnel développé par la société OpenAI est capable de faire illusion.

«Ce que je viens de lire n’est pas de moi. Ou d’un quelconque autre être humain», a subitement expliqué aux députés Mme Frederiksen après son introduction. «Même s’il n’a pas toujours mis dans le mille, tant sur les détails du programme de travail du gouvernement que sur la ponctuation (…) ce dont (ChatGPT) est capable est à la fois fascinant et terrifiant», a souligné la dirigeante.

Dans la partie du discours danois rédigé par ChatGPT, figuraient les phrases suivantes: «Ce fut un honneur et un défi de diriger un gouvernement élargi au cours de la dernière année parlementaire». «Nous avons travaillé dur pour coopérer entre les partis et assurer un avenir solide et durable au Danemark». Ou encore: «Nous avons pris des mesures pour lutter contre le changement climatique et assurer une société plus juste et plus inclusive où tous les citoyens ont des chances égales». Et encore: «Nous avons également travaillé au renforcement de notre système sanitaire et social, afin que tous les citoyens puissent obtenir l’aide dont ils ont besoin».

Des machines qui pourront bientôt «sentir» 

Ces derniers mois nous nous sommes habitués à entendre des débats sur la relation entre les modèles de langage comme GPT4 et l’IA générale, jusqu’à en être presque lassés. Nous nous sommes sans doute aussi posé la question de l’auto-conscience: est-ce qu’une machine capable d’une conversation sur ses sentiments peut vraiment «sentir» comme un humain? Ces prochaines lignes ne vous aideront pas à vous positionner sur le sujet. Nous allons nous poser une question bien plus terre à terre: les machines peuvent-elles «sentir» des odeurs et potentiellement même «goûter» des arômes? Si oui, comment?

Cela fait quelques années que les scientifiques s’interrogent sur la tâche de prédire les caractéristiques olfactives d’un parfum sur la base de sa formule chimique. Une réponse à cette question pourrait apporter des solutions à une industrie qui couvre autant les détergents et les bougies que les parfums de luxe. Traditionnellement, la conception de nouveaux produits passe par la génération de candidats «physiques», soumis ensuite à l’évaluation par des groupes de consommateurs bien humains afin d’évaluer soit leur appréciation soit leur perception d’attributs spécifiques: «féminin», «épicé», «frais». Ces évaluations sont ensuite intégrées dans le processus d’amélioration des formules et de génération de nouveaux candidats. Il s’agit d’un processus laborieux et coûteux en termes de ressources. Son automatisation au moins partielle ainsi que – en poussant plus loin – l’identification des bons paramètres pour directement influencer et «doser» un attribut spécifique apporterait une grande valeur métier.

L’IA peut aider tout comme dans le cas des images, des textes et des sons. Ici, des architectures de réseaux de neurones exposés à de grands volumes de données apprennent des représentations optimisées du «sens», utiles ensuite pour générer des textes, images et vidéos réalistes et configurables (pensons à Midjourney). Les formules chimiques et les recettes peuvent également trouver leur représentation optimisée par l’IA, permettant une compréhension assez détaillée de leurs propriétés et similarités. Ce langage du parfum et du goût appris par la machine peut constituer la clé pour créer des formules personnalisées au gré des consommateurs, mais aussi pour réduire le gaspillage de matière première dans la création de nouveaux arômes et parfums. Certes, une IA remplacera difficilement un «nez» ou une cheffe étoilée, véritables artistes aux créativités difficilement atteignables. En revanche, elle pourrait les assister avec de bons arguments.

Les faux contenus, menace pour l’élection américaine de 2024

Une photo de Donald Trump arrêté, une vidéo montrant un futur sombre en cas de réélection du président Joe Biden, ou encore l’enregistrement audio d’une dispute entre les deux hommes. Ces publications sur les réseaux sociaux ont un point commun: elles sont complètement fausses. Toutes ont été créées à l’aide de l’intelligence artificielle (IA), une technologie en plein essor. Des experts craignent qu’elle ne provoque un déluge de fausses informations pendant l’élection présidentielle de 2024, sans doute le premier scrutin où son utilisation sera généralisée.

Démocrates comme républicains seront tentés de recourir à l’IA - bon marché, accessible et peu encadrée juridiquement - pour mieux séduire les électeurs ou produire des tracts en un claquement de doigts. Mais les experts redoutent que cet outil soit aussi utilisé pour semer le chaos dans un pays divisé, où certains électeurs croient encore que l’élection de 2020 a été volée à l’ancien président Donald Trump, malgré les preuves du contraire.

En mars, de fausses images - générées par l’IA - le montrant interpellé par des policiers sont devenues virales, offrant un aperçu de ce à quoi pourrait ressembler la campagne de 2024. Le mois dernier, en réponse à l’annonce de candidature de Joe Biden, le parti républicain a publié une vidéo, également réalisée via une IA, prédisant un futur cauchemardesque s’il était réélu. Les images réalistes, bien que fausses, montraient l’invasion de Taïwan par la Chine ou un effondrement des marchés financiers. Et plus tôt cette année, un enregistrement audio dans lequel Donald Trump et Joe Biden s’insultent copieusement a fait le tour de TikTok. Il était bien entendu faux, et, là encore, produit grâce à l’IA.

Des experts dénoncent des menaces d'«extinction» pour l’humanité face à l’IA

Un groupe de chefs d’entreprise et d’experts, dont Sam Altman, le créateur de ChatGPT, ont lancé un nouvel avertissement mardi, dans une courte déclaration en ligne, sur les menaces d'«extinction» pour l’humanité posées par l’essor de l’intelligence artificielle (IA).

La lutte contre les risques liés à l’IA devrait être «une priorité mondiale au même titre que d’autres risques à l’échelle de la société, tels que les pandémies et les guerres nucléaires», ont écrit les signataires sur le site internet du Center for AI Safety, une organisation à but non lucratif basée aux Etats-Unis.

Geoffrey Hinton, considéré comme l’un des pères fondateurs de l’intelligence artificielle (IA) et également signataire de la tribune, avait déjà mis en garde contre ses dangers en quittant début mai son poste au sein du géant Google. Les avancées dans le secteur de l’IA induisent «de profonds risques pour la société et l’humanité», avait-il estimé dans le New York Times.

Lire aussi: L’intelligence artificielle est-elle plus dangereuse que le réchauffement climatique?

L’Américain Sam Altman multiplie régulièrement les mises en garde, craignant que l’IA ne «cause de graves dommages au monde», en manipulant des élections ou en chamboulant le marché du travail. La semaine dernière à Paris, il a discuté avec le président Emmanuel Macron de la manière de trouver «le juste équilibre entre protection et impact positif» de cette technologie.

L’IA secoue le marché des semi-conducteurs

Entre un besoin accru en équipement informatique et la reprise économique post-pandémie, le marché des semi-conducteurs a connu de nombreuses turbulences. Alors qu’il se remet tout juste des pénuries et des tensions, l’intelligence artificielle (IA) déclenche de nouveaux soubresauts. Le développement des IA génératives, comme ChatGPT, requiert l’utilisation de dizaines de milliers de processeurs pour lesquels la demande augmente.

La semaine passée, l’entreprise américaine Nvidia a affolé les marchés financiers en présentant des résultats bien meilleurs qu’attendu. Cet engouement a une explication simple: Nvidia est actuellement une des seules entreprises capables de fournir les GPU nécessaires à l’industrie naissante de l’intelligence artificielle.

Lire l'article complet: L’IA remue le marché des semi-conducteurs

A Paris, le créateur de ChatGPT plaide pour «un juste équilibre» entre régulation et innovation

Quittera ou quittera pas l’Union européenne? De passage à Paris vendredi, le patron d’OpenAI et créateur de ChatGPT, l’Américain Sam Altman, a assuré qu’il ne comptait pas cesser d’opérer en Europe mais a réclamé à l’UE un «juste équilibre» entre protection et innovation.

Lors d’un échange sur l’intelligence artificielle et l’avenir des médias à Station F, une pépinière de start-up, le dirigeant de 38 ans a expliqué avoir discuté de la manière de trouver «le juste équilibre entre protection et impact positif» de cette technologie avec le président Emmanuel Macron mardi. «Nous prévoyons de nous conformer» au futur règlement européen sur l’IA (IA Act) et «nous aimons vraiment l’Europe» mais «nous voulons nous assurer que nous en sommes techniquement capables», a-t-il dit. «Un régime d’autorisation pour le cadre général et des normes de sécurité sont tout à fait pertinents», a-t-il poursuivi. «Mais dire, alors que vous ne savez pas comment fonctionne l’IA générative, "vous devez respecter telle garantie 100% du temps", honnêtement, nous ne savons pas comment le faire.»

Le président français Emmanuel Macron avec le directeur d'OpenAI Sam Altman à l'Elysée à Paris, le 23 mai 2023. — © POOL / via REUTERS
Le président français Emmanuel Macron avec le directeur d'OpenAI Sam Altman à l'Elysée à Paris, le 23 mai 2023. — © POOL / via REUTERS

Mercredi, lors de l’étape londonienne de sa tournée internationale pour rassurer quant aux craintes liées à l’IA (désinformation, destruction d’emplois, pillage d’œuvres…), Sam Altman avait menacé de quitter l’UE si la régulation y devenait trop contraignante, déclenchant la colère du commissaire européen Thierry Breton qui a crié au «chantage».

Lire aussi: Le créateur de ChatGPT menace de quitter l’Europe… puis se ravise

Vendredi matin, le créateur de ChatGPT a cherché l’apaisement. «Semaine très productive de conversations en Europe sur la meilleure façon de réguler l’IA! Nous sommes ravis de continuer à opérer ici et n’avons bien sûr pas l’intention de partir», a-t-il tweeté. L’après-midi, il a loué l’accueil de la France, «un cas très intéressant, bien plus avancée dans cette technologie et dans son adoption que d’autres pays», a-t-il lancé, devant un parterre comprenant de nombreux représentants de start-up. Il s’est cependant gardé de dire s’il comptait installer un siège dans le pays ou ailleurs en Europe: «Nous ouvrirons des sièges autour du monde mais très lentement, nous sommes encore une petite société».

Demis Hassabis: «A l’avenir, l’intelligence artificielle pourra imiter notre cerveau»

Directeur de DeepMind, appartenant à Google, la star de l’IA Demis Hassabis était de passage vendredi à l’EPFL. L’occasion de parler avec Le Temps d’une intelligence artificielle générale qui est à portée de main, selon ce chercheur réputé mondialement.

Lire l'interview complète.

Le créateur de ChatGPT menace de quitter l’Europe… puis se ravise

Une audition devant les sénateurs américains, puis des rendez-vous avec les dirigeants, espagnols, polonais, français ou encore du Royaume-Uni… C’est une tournée mondiale, qui l’a aussi emmenée au Nigeria et au Japon, que poursuit actuellement Sam Altman. Le directeur d’OpenAI, start-up qui édite le célèbre agent conversationnel ChatGPT, a lancé une vaste opération de séduction, avec un seul objectif: faire en sorte que les régulations à venir soient aussi douces que possible pour sa société. Avec des menaces à la clé.

Ainsi, ce mercredi, Sam Altman a fait une déclaration lors d’une séance publique organisée dans une université à Londres. Le dirigeant faisait référence à la future réglementation européenne sur l’intelligence artificielle (IA), qui est actuellement élaborée. Et notamment aux dispositions prévues concernant l’IA jugée à haut risque. «Nous serons capables de répondre à ces exigences, ou pas. Si nous pouvons nous y conformer, nous le ferons, et si nous ne le pouvons pas, nous cesserons nos activités… Nous essaierons. Mais il y a des limites techniques à ce qui est possible.»

Lire l'article complet

Neuralink autorisée à tester ses implants cérébraux sur des humains

La start-up Neuralink a annoncé jeudi sur Twitter qu’elle avait reçu l’accord des autorités sanitaires américaines pour tester ses implants cérébraux connectés sur des humains. L’entreprise appartient à Elon Musk. «C’est un premier pas important qui permettra un jour à notre technologie d’aider de nombreuses personnes «, a déclaré la société californienne sur son compte Twitter, précisant que» les recrutements pour les essais cliniques ne sont pas encore ouverts».

Neuralink conçoit des appareils connectés à implanter dans le cerveau pour communiquer avec les ordinateurs directement par la pensée. Ils doivent d’abord servir à aider des personnes paralysées ou souffrant de maladies neurologiques. La start-up veut ensuite rendre ces implants suffisamment sûrs et fiables pour qu’ils relèvent de la chirurgie élective (de confort) - des personnes pourraient alors débourser quelques milliers de dollars pour doter leur cerveau d’une puissance informatique.

Pour Elon Musk, ces puces doivent permettre à l’humanité d’arriver à une «symbiose avec l’intelligence artificielle (IA)», selon ses mots de 2020, prononcés lors de la conférence annuelle de l’entreprise. Le milliardaire craint que des systèmes d’IA ne dépassent les humains et ne prennent un jour le contrôle.

Le créateur de ChatGPT en tournée mondiale

Du Brésil au Nigeria, de l’Europe à l’Asie, Sam Altman, patron d’OpenAI et créateur de ChatGPT, parcourt le monde pour rassurer sur les risques de l’intelligence artificielle et prévenir des projets de régulation trop restrictifs, notamment en Europe. Seize métropoles, cinq continents, des tête-à-tête avec des chefs d’Etat -- dont Emmanuel Macron mardi --, des conférences dans des universités, mais aussi un crochet à la réunion du groupe Bilderberg, le très discret club des dirigeants politiques et économiques mondiaux, à Lisbonne le week-end dernier: voici l’impressionnante affiche de l'«OpenAI Tour», comme l’appelle la société californienne.

Cette tournée illustre la stature de gourou mondial de l’IA acquise par Sam Altman, 38 ans, depuis le succès fulgurant de son robot conversationnel ChatGPT. Mais il doit maintenant répondre aux craintes qu’il provoque: désinformation, manipulation des élections, destruction massive d’emplois, pillage des créateurs, voire menace globale pour l’humanité.

Sam Altman a expliqué sur Twitter qu’il rencontrera utilisateurs et régulateurs pendant sa tournée d’influence.

Sa campagne de séduction a commencé par une audition devant des sénateurs américains le 16 mai, où il a surpris en lançant, en substance: «régulez-moi». Prenant les devants, il a déclaré que son cauchemar était que l’IA puisse faire «d’importants dommages au monde» et suggéré de créer une agence mondiale de régulation. Mais il a aussi jugé que beaucoup de nouveaux emplois seraient créés et noté les risques liés à trop de régulation, car «si l’industrie américaine ralentit, la Chine ou quelqu’un d’autre peut progresser plus vite».

Inquiets, les comédiens de doublage s’unissent dans un collectif international

Après la grève des scénaristes en Californie, inquiets de la menace notamment de l’intelligence artificielle, ce sont les comédiens de doublage qui montent au front, comme le relate Le Monde ce jeudi. Dans un manifeste publié jeudi, alors que le Festival de Cannes accueille le cinéma mondial, 21 syndicats et associations des professionnels de la voix répartis à travers dix pays haussent le ton face à l’intelligence artificielle (IA).

Comme le détaille Le Monde, ils appellent à «protéger le travail des acteurs et la créativité humaine dans son ensemble» pour éviter la «destruction d’un patrimoine artistique pétri de créativité et d’émotions, qu’aucune machine ne peut produire». La jeune organisation incite également les décideurs européens à «adapter le régime de protection des droits des artistes interprètes».

L’article complet est à lire ici.

Tétraplégique, il remarche grâce à la force de sa pensée

Faire remarcher un patient tétraplégique grâce à la pensée. Décrite ce mercredi dans la revue Nature, cette avancée, réalisée par le biais d’une interface cerveau-machine, est le fruit d’une collaboration entre les équipes de Grégoire Courtine et Jocelyne Bloch, professeurs à l’Université de Lausanne, à l’EPFL et au CHUV, ainsi que leurs collègues des centres de recherche NeuroRestore et Clinatec à Grenoble.

Au sein de cet essai, les chercheurs ont créé un pont digital sans fil permettant de rétablir la communication entre le cerveau et la moelle épinière, plaçant, pour se faire, deux implants dans la boîte crânienne du patient, dont le but est de recueillir les données cérébrales, et l’un sous les vertèbres afin de stimuler les muscles des jambes. Au cœur du dispositif, l’intelligence artificielle - plus précisément des algorithmes prédictifs — permet de décoder les intentions de bouger du patient ainsi que l’amplitude et la direction du mouvement prévu, en temps réel.

Lire l'article complet: Tétraplégique, il remarche grâce à la force de sa pensée

L’IA, un outil bientôt pour tous dans la finance

Déjà utilisée dans la finance depuis des années, l’intelligence artificielle va devenir un outil comme les autres. Tout comme l’IA va être de plus en plus intégrée aux moteurs de recherche sur internet, elle sera disponible à tous dans le monde des investissements. Les logiciels d’IA sont beaucoup plus répandus, de même que les capacités informatiques nécessaires pour les utiliser de manière professionnelle. La version 4 de ChatGPT est ainsi capable, dans une certaine mesure et connectée à Internet, de prévoir l’évolution d’actions cotées en bourse, ont récemment démontré des chercheurs américains. Les résultats ne sont certes pas parfaits, mais ils sont supérieurs à ceux obtenus auparavant, par d’autres logiciels d’IA et par les versions précédentes de ChatGPT. Une société de gestion lausannoise utilise l’IA pour repérer des signaux dans de vastes quantités de données, afin d’affiner ses stratégies d’investissement.

Lire l'article: L'exploitation de l'IA en finance fait des débuts prometteurs

Un pacte sur l’IA se dessine entre l’Europe et les géants de la tech

C’est a priori un pas important vers une régulation de l’intelligence artificielle (IA) qui a été franchi ce mercredi. Thierry Breton, commissaire européen chargé notamment du marché intérieur, de la politique industrielle et du numérique, a annoncé la volonté d’élaborer un pacte sur l’IA avec les géants de la technologie. Cette annonce est survenue après une rencontre avec Sundar Pichai, directeur d’Alphabet, maison mère de Google.

A l’issue de cette rencontre, Thierry Breton a déclaré ceci: «Sundar et moi avons convenu que nous ne pouvions pas nous permettre d’attendre que la réglementation sur l’IA devienne effectivement applicable, et que nous devions collaborer avec tous les développeurs d’IA pour élaborer d’ores et déjà un pacte sur une base volontaire avant l’échéance légale.»

Cette échéance pourrait être 2024 mais le processus législatif, enclenché en 2021 au sein de l’Union européenne, pourrait prendre davantage de temps. Thierry Breton a par ailleurs exhorté les pays de l’UE et les législateurs européens à finaliser les détails des règles proposées par la Commission en matière d’IA avant la fin de l’année. La grande question sera a priori de déterminer quels types d’IA sont considérés comme dangereux ou risqués, les géants de la tech plaidant pour que l’IA générative de type ChatGPT soit soumise au moins de contraintes possibles. Après la déclaration de principes de ce mercredi, tout l’enjeu sera de voir quelles règles Google, Meta ou Microsoft accepteront de respecter.

Comment l’IA progresse dans les entreprises

Appliquées progressivement dans le monde des entreprises, les solutions d’IA et d’automatisation permettent d’améliorer l’efficacité opérationnelle, relève dans une note Rolando Grandi, gérant spécialisé dans l’AI auprès de La Financière de L’Echiquier. Le spécialiste remarque que certaines grandes entreprises vont loin en développant leurs systèmes génératifs et de traitement automatisé afin de gérer leurs propres données. «Aux Etats-Unis, la banque JP Morgan a ainsi conçu un modèle d’IA destiné à analyser des décennies d’archives des discours des banques centrales; en Europe, le fonds souverain norvégien a créé une IA générative pour renforcer l’efficacité de son trading. Bloomberg, leader des données financières, capitalise quant à lui sur son immense base de données pour développer son propre algorithme d’IA générative, nommé BloombergGPT et doté de 50 milliards de neurones», écrit Rolando Grandi.

Le spécialiste note que l’adoption, rapide, de cette révolution technologique bénéficie à d’autres entreprises de la tech, comme Servicenow, qui développe des solutions d’automatisation de gestion de l’infrastructure IT et vient d’annoncer un partenariat avec Hugging Face, start-up spécialisée dans l’IA générative afin de lancer une solution open source. Autre illustration avec Snowflake, leader de la gestion de données basée sur le cloud, qui a annoncé en janvier dernier l’acquisition de la start-up Myst AI pour étendre l’apprentissage automatique dans Snowflake Data Cloud. Cloud, cybersécurité, algorithmes génératifs… tous sont accélérés par la popularité de ChatGPT, estime Rolando Grandi.

Le gérant rappelle que Sam Altman, cofondateur d’Open AI et «père» de ChatGPT, compare les progrès technologiques du siècle à venir à ceux accomplis depuis la maîtrise du feu et l’invention de la roue. «L’avenir nous le dira. Ce dont nous sommes convaincus, c’est que la puissance de l’IA générative ouvre le champ des possibles et génère des perspectives d’investissement inédites», conclut Rolando Grandi.

Une fausse image d’une explosion au Pentagone brièvement virale

Une fausse image montrant une explosion au Pentagone est brièvement devenue virale sur Twitter lundi, causant un léger affaissement des marchés pendant dix minutes, et relançant le débat autour des risques liés à l’intelligence artificielle (IA). La fausse photographie, apparemment réalisée avec un programme d’IA générative (capable de produire du texte et des images à partir d’une simple requête en langage courant), a obligé le ministère américain de la Défense américain à réagir. «Nous pouvons confirmer qu’il s’agit d’une fausse information et que le Pentagone n’a pas été attaqué aujourd’hui», a déclaré un porte-parole.

L’image semble avoir fait légèrement décrocher les marchés pendant quelques minutes, le S & P 500 perdant 0,29% par rapport à vendredi avant de se reprendre. Un compte de la mouvance conspirationniste QAnon a été parmi les premiers à relayer la fausse image, dont la source n’est pas connue.

Les propos étonnants de Bruno Le Maire sur ChatGPT

Bruno Le Maire, Ministre de l’Économie, des Finances et de la Souveraineté industrielle et numérique en France, a tenu des propos étonnants, relayés lundi après-midi par la chaîne de télévision parlementaire. Le responsable politique a dit ceci: «Je pense qu’il faut des signalements systématiques quand il y a une image générée par ChatGPT ou de l’intelligence artificielle générative, ça doit être souligné: il s’agit d’une image générale par de l’intelligence artificielle».

Problème, comme l’ont signalé de nombreux internautes sur Twitter, ChatGPT permet de créer du texte, mais pas des images. Il y a donc eu confusion de la part de Bruno Le Maire. Reste que sur le fonds, sa proposition de régulation en indiquant que non seulement des images, mais aussi des textes, doivent être signalés lorsqu’ils ont été créés par de l’IA lance un débat intéressant.

La quête d’un second cerveau dopé à l’IA

Les progrès réalisés dans le domaine des IA destinées à un large public laissent entrevoir une ambition particulière, celle de créer un second cerveau. Celui-ci n’aurait pas pour vocation de fonctionner comme le disque dur externe d’un ordinateur, qui emmagasine et restitue l’information de manière basique, mais comme une véritable extension de notre identité; le copilote de nos pensées.

Habituellement, les informations s’égarent dans les profondeurs de notre mémoire, physiologiquement restreinte et vulnérable à l’usure du temps; l’idée est d’organiser toutes les données avec lesquelles nous avons été exposés afin de nous les resservir automatiquement selon le contexte donné.

Imaginons pouvoir accéder instantanément à l’intégralité de ce que nous avons rédigé au fil de notre existence et avoir la possibilité de converser avec notre propre savoir: nos prises de notes, nos documents, notre correspondance, et même nos photographies rendues compréhensibles grâce à leur description automatique. Sans oublier toutes nos lectures (livres, articles, etc.) et les dialogues de tous les films que nous avons visionnés. Ce que nous gardions précédemment sous forme de fragments friables dans notre mémoire, effleurant souvent avec peine la surface de notre conscience actuelle, devient soudainement accessible et peut être exploité sans date de péremption.

Ce cerveau bis nous fournira des annotations basées sur des conversations antérieures et évoquera des événements qui restaient jusque-là enfouis dans les tréfonds de notre esprit, pour enrichir la rédaction d’un nouveau texte ou d’un e-mail. En fonction du contexte, l’IA nous suggérera des extraits d’articles de presse sur le sujet, puisera dans la littérature scientifique ou citera des auteurs célèbres pour compléter habilement notre discours.

Récemment, Google et Microsoft ont présenté une nouvelle version de leur suite logicielle enrichie à l’IA: Duet AI for Workspace et Microsoft 365 Copilot. Ces outils s’inscrivent dans le concept de second cerveau par un processus de co-création avec les archives numériques de l’utilisateur (courriels, calendrier, documents).

On peut s’interroger sur les intentions d’Amazon qui n’a pas encore fait de déclaration fracassante dans le domaine, mais qui détiendrait un atout intéressant: la capacité de produire des extraits provenant de millions de livres numériques disponibles sur sa plateforme Kindle. Il serait ainsi possible de «dialoguer» avec les ouvrages, de demander des résumés de tous les livres que nous avons achetés sur la plateforme (sans nécessairement les avoir lus d’ailleurs), et de générer des associations d’idées avec notre propre contenu.

Au-delà des mastodontes du net, une multitude d’outils indépendants tentent de se positionner sur le concept de «second cerveau» : Rewind, Obsidian, Mem, Roam, PDF.ai

En nous permettant de puiser dans une bibliothèque universelle de connaissances – qu’elles soient les nôtres ou celles de l’humanité – l’avènement de ce «second cerveau» porte en lui la promesse d’un éveil intellectuel et d’une productivité sans égal. Il évoque un futur où chacun pourra déverrouiller son plein potentiel créatif, transcendant toutes les limites connues à ce jour.

Régulation de l’IA: vers un choc entre les Etats-Unis et l’Europe

Un accord mondial pour une régulation de l’intelligence artificielle (IA) est-il possible? A priori, c’est l’impression donnée ces derniers jours lors du sommet du G7 qui s’est tenu à Hiroshima. Les représentants de l’Allemagne, du Canada, des Etats-Unis, de la France, de l’Italie, du Japon, du Royaume-Uni et de l’Union européenne se sont ainsi mis d’accord pour appeler à la formulation de garde-fous autour du développement ultrarapide de l’IA.

Mais attention, il semble pour l’heure irréaliste que les Etats-Unis, qui abritent tant de géants de la tech, alignent leur législation future (et hypothétique) sur les règlements européens.

Lire la chronique complète: Régulation de l’IA: vers un choc entre les Etats-Unis et l’Europe

L’intelligence artificielle bouleverse la bataille de la cybersécurité

Des outils tels que ChatGPT sont de plus en plus utilisés par des hackers pour appâter leurs victimes. Swisscom vient de lancer un avertissement concernant ChatGPT et ses dérivés: «Les cybercriminels l’ont eux aussi adopté. Ils peuvent ainsi rédiger des e-mails d’hameçonnage personnalisés et plus persuasifs. Les attaques d’hameçonnage deviennent plus difficiles à repérer et peuvent inciter les destinataires à divulguer des informations sensibles ou à cliquer sur des liens dommageables», constate Swisscom.

Un constat que partage Steven Meyer, directeur de la société de sécurité Zendata, basée à Genève: «Bien sûr, il est difficile de détecter lorsque nos adversaires utilisent de l’IA, mais nous protégeons des dizaines de milliers d’utilisateurs et bloquons énormément d’e-mails malveillants que nous analysons. Et nous voyons de moins en moins d’arnaques avec des fautes d’orthographe et de syntaxe, appelant par exemple à verser de l’argent ou à réclamer un lot. Et nous lisons des demandes toujours plus professionnelles et bien ciblées, même lorsqu’il y a des demandes avec des petits montants.»

Lire l'article complet: L’intelligence artificielle bouleverse la bataille de la cybersécurité

ChatGPT, ce sparring-partner philosophique

Dans les interviews que nous menons actuellement avec différentes branches économiques autour de l’utilisation de ChatGPT et des outils d’IA générative, le mot-clé de «sparring-partner» revient systématiquement. La machine semble être à la fois coach, partenaire, et adversaire occasionnel.

Pour bien comprendre ce caractère de sparring-partner, nous avons cherché à structurer les débats en cours depuis fin 2022. Et nous avons identifié 6 questions philosophiques qui jouent un rôle sous-jacent dans les discussions enflammées autour de l’IA générative. ChatGPT est-il trop humain, neutre, conscient, intelligent, créatif et dit-il la vérité? Notre document de réflexion présente ainsi quelques pistes de réflexion pour aborder ces concepts centraux.

Que nous apprennent ces 6 questions sur cet outil de sparring-partner? Trois leçons sortent du lot. Premièrement, l’outil ChatGPT, par son fonctionnement propre, excelle dans la projection de caractéristiques humaines. Il propose un contenu qui correspond au contenu statistiquement attendu, il écrit ce que nous voulons collectivement lire. ChatGPT apparaît ainsi comme un reflet algorithmique de nous-mêmes, aux contours un peu flous et incertains.

Deuxièmement, ChatGPT nous force à remettre sans cesse sur le métier ces concepts qui caractérisent l’humain. A l’exemple de l’intelligence ou de la créativité, la question n’est pas tant de savoir si ChatGPT remplit certains standards. Cette question joue le rôle d’excuse pour nous redemander, encore, ce qu’est l’intelligence ou la créativité. Face à ces concepts, nous devons apprendre à travailler en scénarios plutôt qu’en affirmations définitives. Ainsi, ChatGPT sera intelligent avec une définition minimale, et non intelligent à l’aune d’une définition plus exigeante.

Finalement, ChatGPT nous renvoie à notre humanité. Dans une culture où l’humain est toujours présenté comme le maître de la nature (en dessous de Dieu, mais c’est une autre histoire), définir les spécificités humaines est en fait un enjeu de pouvoir symbolique majeur. Si nous n’avons plus rien qui nous rend unique, comment justifier notre place au sommet de la pyramide?

Le document contenant les six questions est à lire ici.

Johan Rochel est le cofondateur d'ethix, un laboratoire d'éthique de l'innovation. Julien Pache y travaille comme associé.

Le G7 va plancher sur une utilisation «responsable» de l'IA

Les dirigeants du G7 ont annoncé samedi la constitution d'un futur «groupe de travail» sur l'intelligence artificielle, pour mener des discussions sur une «utilisation responsable» de ces outils et sur les risques qu'ils présentent, dont la «désinformation».

«Nous chargeons les ministres concernés d'établir le processus d'Hiroshima sur l'IA, par l'intermédiaire d'un groupe de travail bâti en coopération avec des organisations internationales, en vue de discussions sur l'IA générative d'ici la fin de l'année», selon le communiqué du G7, réuni de vendredi à dimanche dans cette ville japonaise.

Les discussions du groupe du travail du G7 sur le sujet pourront ainsi porter sur la «gouvernance, la protection des droits de propriété intellectuelle» et l'«utilisation responsable» de ces nouvelles technologies, mais aussi sur les moyens de contrer «la manipulation d'informations» et la «désinformation» via ces outils. «Nous nous engageons à faire progresser les approches multipartites en vue de l'élaboration de normes pour l'IA, dans le respect de cadres juridiquement contraignants», a ajouté le G7.

De la nécessité de former à ChatGPT

Fin avril, ChatGPT comptait environ 1,76 milliard d’utilisateurs, selon la société de recherche SimilarWeb. Si vous en faites partie, il est fort probable que vous ayez aussi exploré la façon dont cette intelligence artificielle (IA) et ses consœurs peuvent vous être utiles dans votre travail quotidien.

Si les expérimentations individuelles sont légion, peu d’entre nous sont déjà formés à l’utilisation de ces outils. Est-ce de la responsabilité des entreprises? Chez Loyco, qui fournit aux entreprises services administratifs et financiers (notamment au Temps) une formation de deux heures sur ChatGPT est obligatoire pour les 135 collaborateurs.

Mais les cours en entreprise sont encore peu courants, ce qui n’empêche pas que de nombreuses entreprises s’interrogent. Ainsi, une formation d’une journée qui aura lieu fin mai à la Fédération des entreprises romandes Genève sur la thématique «Comprendre et utiliser les intelligences artificielles génératives» affiche complet.

A quoi exactement les organisations devraient-elles former leurs collaborateurs? Aussi bien aux risques que présentent ces IA - plagiat, fuite de données, véracité des informations - qu’aux opportunités de gagner du temps et de se faciliter le travail, estiment les experts.

Lire l'article complet: Pourquoi et comment les entreprises doivent former à ChatGPT

ChatGPT arrive sur les smartphones

OpenAI a lancé jeudi une application mobile pour ChatGPT, son interface d’intelligence artificielle (IA) générative qui enregistre déjà une croissance phénoménale sur le web, et dont les capacités impressionnantes fascinent et inquiètent. La nouvelle application est disponible sur les iPhone aux Etats-Unis, pour commencer, et doit arriver «bientôt» dans d’autres pays et sur les téléphones portables opérés par Android (Google), selon un communiqué de la start-up californienne. Gratuite, elle permet, comme le site web, de discuter avec le chatbot et surtout de lui demander de rédiger des messages, d’expliquer des concepts techniques, de suggérer des idées, de résumer des notes…

OpenAI promet par exemple «d’obtenir des informations précises sans avoir à trier entre les publicités ou des résultats multiples», le modèle actuel des moteurs de recherche. Mais à la première ouverture, l’appli prévient aussi tôt que ChatGPT peut «fournir des informations inexactes sur des personnes, des lieux ou des faits».

Lire aussi: ChatGPT est disponible sur smartphone, voici ce que cela va changer

 Un modèle (de langage) pour les gouverner tous 

Les vétérans du traitement du langage naturel se souviennent sans doute d’une époque non trop lointaine, lorsque chaque application – de l’analyse de sentiment sur Twitter à la catégorisation de documents dans l’entreprise - demandait un travail minutieux. Il était question de récolter et de préparer des jeux de données pertinents en vue de l’application cible, souvent de les faire annoter manuellement par des experts, puis de sélectionner les représentations numériques les plus prometteuses en vue du résultat recherché. Pour un sentiment, il fallait indiquer à l’algorithme de regarder les adjectifs et les adverbes. Pour l’extraction de détails client, il fallait indiquer à l’algorithme de se pencher sur les séquences d’un à quatre noms propres. Enfin, on exécutait un algorithme d’apprentissage automatique bien choisi sur les données annotées pour générer un modèle.

Ces approches paraissent obsolètes depuis quelques années, puisqu’il est possible de se passer d’une bonne partie des étapes préparatoires grâce aux modèles de langage. Ces derniers nous fournissent «gratuitement» des représentations numériques polyvalentes pour les textes, très efficaces comme point de départ pour les algorithmes d’apprentissage automatique. À leur tour, les modèles entraînés sur ces bases fort pratiques sont efficaces pour répondre à des besoins spécifiques, par exemple classifier un texte donné.

Depuis peu, on est face à un nouveau tournant: les méga modèles de langage comme GPT4 nous ont vite habitués à leur demander toutes sortes de prestations par le simple geste du prompting: une incitation à traduire un paragraphe de l’anglais au français ou à le résumer est suffisante pour que ces modèles «généralistes» semblent comprendre ce qu’il faut faire et produisent le résultat espéré - sans pourtant avoir été spécifiquement entraînés pour ces tâches! Bien entendu, il ne s’agit pas d’une véritable compréhension, mais plutôt d’une génération de texte plausible face à l’amorce; cependant les résultats sont bluffants.

Ce n’est pas tout: grâce à des systèmes tels les «transformers agents» de la plateforme Huggingface, il est maintenant possible de s’adresser à un modèle de langage en utilisant du simple texte pour qu’il se débrouille pour rechercher d’autres «bons» modèles d’IA et s’en servir pour répondre à une demande. Il suffit par exemple de demander à un tel modèle de légender une photo pour qu’il identifie les outils d’analyse d’image appropriés afin d’extraire son contenu, qu’il va ensuite utiliser pour générer la légende. Une demande de lire un texte à haute voix sera adressée en identifiant un service de synthèse vocale apte à générer un fichier audio qui sera ensuite rendu à l’utilisateur.

Devenus agents, ces modèles de langage ont été promus de générateurs de texte plausible à véritables pilotes de services tiers – une évolution fascinante qui les amène à planifier et exécuter des solutions aux demandes complexes de leurs utilisateurs humains.

«Tesla va avoir un moment ChatGPT»

Elon Musk a défendu mardi soir ses actions à la tête de Twitter et expliqué qu’il passerait bientôt plus de temps à diriger Tesla, promettant à nouveau des voitures complètement autonomes d’ici l’année prochaine. «Je dis ce que je veux dire et si je perds de l’argent en conséquence, c’est comme ça», a-t-il déclaré lors d’une interview en direct sur CNBC, après l’assemblée générale de Tesla. L’entrepreneur prévoit de consacrer plus de temps à Tesla, notamment sur le développement de l’intelligence artificielle (IA) dans les voitures électriques.

«Je pense que Tesla va avoir un moment ChatGPT si ce n’est cette année, au plus tard l’année prochaine», a-t-il déclaré. «Tout d’un coup, trois millions de voitures se conduiront elles-mêmes sans personne (au volant)», a-t-il assuré. Le dirigeant promet depuis des années que ses automobiles seront entièrement autonomes «l’année prochaine», grâce à l’IA, et une simple mise à jour à distance de l’ordinateur de bord.

Elon Musk a cofondé OpenAI en 2015 avec Sam Altman et d’autres personnes, avec des statuts d’organisation à but non lucratif et dans le but de faire de la recherche dite «open source», et de ne pas laisser Google dominer cette technologie majeure. Il en est ensuite parti, et fait désormais partie des plus virulents critiques de la société. «Elle n’existerait pas sans moi, c’est moi qui ai trouvé le nom», a-t-il assené mardi, reconnaissant avoir été «idiot» de ne pas garder une part de contrôle. «C’est comme si vous financiez une organisation pour sauver la forêt amazonienne qui déciderait ensuite de couper les arbres pour vendre le bois. Vous vous diriez, c’est exactement l’inverse de la raison pour laquelle je leur ai donné de l’argent!», s’est-il emporté. Elon Musk a récemment fondé sa propre entreprise d’IA, baptisée X.AI, mais a refusé de donner des détails pour l’instant.

Pour le patron d’OpenAI, l’intervention des gouvernements est «cruciale»

L’intervention des gouvernements pour réguler l’intelligence artificielle (IA) va être «cruciale» afin de «limiter les risques» liés à cette technologie, a plaidé mardi Sam Altman, le patron d’OpenAI, créateur de l’interface ChatGPT, qui déchaîne les passions. «Il est essentiel que l’IA la plus puissante soit développée avec des valeurs démocratiques», a estimé le jeune entrepreneur devant une commission parlementaire américaine, «ce qui signifie que le leadership des Etats-Unis est déterminant».

La mise en ligne de ChatGPT, en novembre, a suscité un immense intérêt du public et des entreprises pour l’intelligence artificielle dite générative, c’est-à-dire capable de créer du contenu - texte, images, sons ou vidéo - après avoir été entraînée sur d’immenses bases de données. «Si vous écoutiez de la maison, vous avez sans doute pensé que c’était ma voix et mes mots, alors que ce n’était ni ma voix, ni mes mots», a déclaré le sénateur Richard Blumenthal, qui préside la sous-commission du Sénat sur la protection de la vie privée, la technologie et le droit.

Il venait de faire entendre ses remarques préliminaires sur les dangers de l’IA, rédigées avec ChatGPT et lues par un logiciel entraîné sur sa voix réelle. Les technologies d’IA «ne sont plus des fantasmes de science-fiction, elles sont réelles et présentes», a-t-il ajouté.

L’IA dope la traduction en ligne

Il n’y a pas que Deepl pour les traductions en ligne. Face au géant allemand, qui fait mieux depuis des années que Google Traduction, un nouveau concurrent suisse apparaît. La société Textshuttle, émanation de l’EPFZ, vient d’ouvrir à tous son service de traduction, jusqu’à présent réservé aux entreprises. «Il est inacceptable que la Suisse, pays quadrilingue, ne dispose pas de sa propre plateforme de traduction. Changer cela nous a extrêmement motivés. Et grâce à la traduction du suisse allemand, la recrue genevoise peut désormais comprendre les messages en suisse allemand de son camarade lucernois dans le chat du groupe», affirme le directeur de Textshuttle.

Nous avons testé son service, pour l’anglais et l’allemand vers le français. Résultat: pour l’heure, Deepl est meilleur et plus précis (nous n’avons pas testé le suisse allemand, que met en avant la société). A voir si Textshuttle s’améliorera ces prochaines semaines grâce à l’IA pour offrir un service proche de son concurrent allemand. En tout cas, nous avons face à nous une solution 100% suisse prometteuse.

Lire aussi: Textshuttle, le traducteur suisse en ligne qui veut rivaliser avec DeepL

Quand l’IA donnera des conseils d’investissement, qui sera responsable en cas de pertes?

Il ne faudra peut-être plus attendre longtemps pour que l’intelligence artificielle (IA) joue un rôle encore plus important en matière d’investissement. Des sociétés de gestion l’utilisent déjà pour analyser rapidement de vastes quantités de données, et donc fournir la matière première pour décider comment investir. Il paraît plausible que, dans un avenir proche, un service basé sur l’IA recommande lui-même dans quelles actions investir, ou réponde de manière catégorique à des questions sur le potentiel de certaines sociétés.

Que se passerait-il si un utilisateur se basait sur ces données pour investir et perdait de l’argent? Pourrait-il se retourner contre le logiciel d’IA ou ses créateurs? De même, une entreprise dont la valeur chuterait après la diffusion d’informations négatives à son sujet par une IA pourrait-elle imaginer une action en justice? Il faudrait pour cela que la responsabilité de l’IA soit établie. Ce qui serait a priori difficile, mais des pistes pourraient exister.

Lire l'article complet: Quand l’intelligence artificielle donnera des conseils d’investissement

Législatives fédérales: un expert en communication appelle à ne pas utiliser l’IA pour nuire à un adversaire

Un expert en communication, Moritz Zumbühl, met en garde dans la SonntagsZeitung contre l’utilisation de l’intelligence artificielle dans la campagne des législatives fédérales d’octobre. Même si une fausse image d’une personnalité politique est repérée, sa réputation reste entachée, ajoute le spécialiste. Les partis devraient se mettre d’accord pour ne pas utiliser l’IA dans des campagnes négatives durant l’année électorale, précise Moritz Zumbühl, soulignant qu’interdire ne sert à rien. «Il est plus simple de marquer l’authenticité des photographies de presse et des textes, dont les personnes se portent garantes de la véracité avec leur nom».

Les fausses vidéos turques, avant-goût de menaces plus importantes encore

Alors que le premier tout de l’élection présidentielle turque vient de se dérouler ce dimanche, nous vous proposons de plonger dans les fausses vidéos (deepfakes) qui ont émergé ces derniers jours sur le Web. Des dizaines de montages, plus ou moins sophistiqués, ont été mis en ligne, tentant chacun de discréditer un candidat. On a ainsi vu, sur une estrade, le président actuel, Recep Tayyip Erdogan, écouter attentivement le responsable d’un parti d’extrême droite Devlet Bahçeli, qui l’attaque soudainement, affirmant qu’il «demanderait des comptes aux sept descendances de Recep Tayyip Erdogan». A côté de lui, le président demeure impassible. Cette vidéo est un montage.

Tout comme celle où le principal rival d’Erdogan, Kemal Kiliçdaroglu, tient des propos surréalistes, affirmant notamment: «Mon cher peuple, Erdogan est le leader du siècle.» Signalons aussi qu’un autre candidat, Muharrem Ince, a quitté la course, accusant des internautes d’avoir créé et diffusé de vidéos le mêlant à du contenu pornographique.

Impossible de dire dans quelle mesure ces vidéos ont influencé les électeurs, d’autant que le contenu est en général peu sophistiqué. Mais c’est peut-être un avant-goût de fausses vidéos plus réalistes qui nous attendent ces prochains mois, les outils d’IA permettant de les créer se démocratisant très vite.

Lire l'article complet: Les fausses vidéos turques, un avant-goût de menaces plus importantes encore

Les prédictions du créateur de Stable Diffusion

Emad Mostaque, fondateur de l’entreprise Stability AI, à l’origine du système de création d’images Stable Diffusion, vient d’accorder une interview à la BBC. Dans cet entretien diffusé ce dimanche, le responsable s’interroge sur ce qui se passera «si nous avons des agents plus compétents que nous, que nous ne pouvons pas contrôler, qui traversent l’internet et qui atteignent un niveau d’automatisation; qu’est-ce que cela signifie? (…) Le pire scénario est qu’il prolifère et qu’il contrôle l’humanité.» Comme tant d’autres responsables, Emad Mostaque appelle à une régulation de l’IA.

Emad Mostaque estime en parallèle que les avantages potentiels de l’IA pour presque tous les aspects de notre vie pourraient être considérables. Il admet toutefois que l’effet sur l’emploi pourrait être douloureux, du moins au début. Selon lui, l’IA «aura un impact économique plus important que la pandémie», ajoutant que «c’est à nous de décider dans quelle direction» tout cela va aller. Selon lui, dans dix ans, son entreprise et les autres leaders de l’IA, ChatGPT et DeepMind, seront plus importants que Google et Facebook.

L’entretien est à regarder ici.

L’automatisation ne permet pas (encore) de combler la pénurie de personnel

L’automatisation fait peur. Que ce soit sous les traits d’un robot physique ou d’une intelligence artificielle (IA) générative comme ChatGPT, des études font régulièrement état des risques qu’elle représente pour les travailleurs.

Mais, alors que la pénurie de personnel fait rage dans certains secteurs en Suisse, peut-on espérer que la robotisation et l’IA se substituent aux humains lorsque ceux-ci s’avèrent impossibles à recruter?

Des robots industriels peuvent en effet remplacer certains postes dans l’industrie horlogère ou manufacturière. Dans plusieurs autres secteurs qui manquent de main-d’oeuvre, la restauration par exemple, si la possibilité d’automatisation existe au niveau technique, d’autres obstacles surviennent. « En Suisse, il y a beaucoup de petits établissements, pour qui l’automatisation présente un investissement trop important, souligne Rafael Lalive, professeur d’économie à HEC à Lausanne, spécialiste du marché du travail. Et dans l’hôtellerie-restauration, il y a souvent cette envie de contact humain.» Mieux vaut s’intéresser d’abord aux leviers qui permettent une meilleure employabilité des humains, estime pour sa part le patronat.

Dans l’ingénierie, souligne un expert, le recours à des Intelligences artificielles peut représenter des risques en matière de fuites de données. Et il ne faudrait dans tous les cas pas que la solution à la pénurie…soit pire que le problème.

Lire aussi: Pourquoi l’automatisation ne permet pas (encore) de combler la pénurie de personnel

L’administration française va tester l’IA pour répondre aux questions des usagers

Répondre plus rapidement et efficacement aux usagers des services publics grâce à l’intelligence artificielle (IA): c’est l’objectif du gouvernement français, qui va lancer en septembre une expérimentation de six mois. «L’administration ne doit pas subir, elle doit s’approprier» l’IA et la «transformer pour qu’elle corresponde aux attentes des agents et des usagers», a affirmé jeudi le ministère de la Transformation publique. D’où cette expérimentation, qui permettra d’entraîner trois modèles d’IA générative (ChatGPT, LLaMA et le français Bloom) à répondre aux questions des usagers, avant une hypothétique généralisation à l’ensemble de l’administration en 2024.

«Les modèles de génération de contenu feront forcément des erreurs, il va falloir qu’on les entraîne petit à petit, qu’on les perfectionne, pour avoir une réponse la plus précise possible», explique le ministère. Chaque réponse sera soumise au contrôle d’un agent de l’administration avant d’être communiquée à l’usager. Pour mener cette expérimentation, le gouvernement espère trouver 200 agents volontaires. L’IA est «une aide» pour les fonctionnaires, «pas un substitut» qui permettrait de tailler dans les effectifs, insiste le gouvernement.

L’Europe veut réguler très rapidement l’intelligence artificielle

Les eurodéputés se réunissaient jeudi matin à Strasbourg pour faire avancer la régulation de l’IA. Lors d’un vote en commission, les députés européens ont adopté un projet de mandat de négociation sur les premières règles au monde sur l’IA, par 84 voix pour, 7 contre et 12 abstentions. Ce vote est une étape importante d’un processus qui aura rapidement un impact mondial. Les députés ont non seulement voté une approbation, mais aussi un durcissement du premier texte de loi proposé en avril 2021 par la Commission européenne. Concrètement, la loi concerna aussi désormais les IA dites génératives, telle ChatGPT.

Nous vous proposons de comprendre ce qui a été décidé jeudi, de saisir le cadre général et les prochaines étapes de ce processus législatif très important, l’Europe étant à la pointe sur ce dossier de régulation. Nous nous intéressons aussi au double langage de Google et Microsoft, qui appellent à une nouvelle réglementation, tout en effectuant un travail de lobbying intense pour qu’elle soit la plus faible possible. Enfin, nous nous intéressons à la Suisse, qui, comme très souvent, suit d’un œil lointan ce qui se décide à Strasbourg et Bruxelles.

Lire aussi: Comment l’Europe veut réguler très rapidement l’intelligence artificielle

Google va ouvrir son chatbot Bard à 180 pays

Google va ouvrir son chatbot d’intelligence artificielle générative Bard à 180 pays en anglais. L’entreprise a annoncé l’intégration prochaine de cette technologie à de nombreuses autres plateformes, y compris la recherche en ligne. Cela fait sept ans que nous sommes avant tout une entreprise d’intelligence artificielle et nous sommes à un tournant, a déclaré mercredi Sundar Pichai, le patron du groupe californien, devant des milliers de personnes rassemblées dans son amphithéâtre à Mountain View.

La sortie en novembre de l’interface ChatGPT - conçue par la start-up californienne OpenAI, principalement financée par Microsoft - a lancé une course effrénée à l’IA générative. Google a répondu avec sa propre interface, Bard, ouverte au public fin mars. Mercredi, l’entreprise a annoncé que le robot conversationnel est désormais disponible en anglais dans 180 pays dans le monde. Le chatbot pourra bientôt converser dans 40 langues et doit devenir multimédia, c’est-à-dire être capable d’intégrer des images dans les questions des internautes et dans ses réponses.

Le numéro un mondial de la publicité numérique a aussi montré comment la recherche en ligne va progressivement changer, avec des réponses rédigées aux questions des internautes au-dessus des liens classiques, et la possibilité d’échanger avec l’interface, en demandant des précisions, par exemple. Le nouveau Google doit arriver dans les prochaines semaines, l’entreprise a ouvert une liste d’attente sur laquelle il faut s’inscrire pour l’utiliser dans quelques semaines. Le groupe californien met aussi au point des extensions de Bard, pour que les utilisateurs puissent échanger avec le robot directement depuis l’application de cartographie Maps, la boîte mail Gmail ou le traitement de texte en ligne Docs.

ChatGPT pourrait bien achever la lettre de motivation

Passer des heures à écrire une lettre de motivation n’est peut-être déjà plus qu’un lointain souvenir: en trente secondes, l’intelligence artificielle vous propose une missive calibrée en fonction des éléments de CV et autres informations que vous pourrez lui donner.

Le résultat est très conforme et nécessite une personnalisation, mais il permet sans aucun doute de gagner du temps. Nombre de candidates et candidats l’ont compris et certains recruteurs aussi, jusqu’à y faire explicitement référence dans leur annonce pour pousser à la créativité.

De quoi rendre obsolète ce fameux document? Des interlocuteurs aussi divers qu’un cabinet de recrutement, des responsables des ressources humaines et un sociologue s’accordent sur le fait qu’il n’est plus décisif depuis bien longtemps. Mais au-delà, les avis divergent: pour certains, l’IA finira d’achever un exercice qui ne dit plus grand-chose de la motivation ou de la qualité d’un candidat. Pour d’autres, si la lettre a toujours été très standardisée, elle recèle d’autres avantages dont il ne faudrait pas se passer, comme la possibilité de réfléchir aux liens entre son parcours et le poste proposé. Une analyse que ChatGPT peut plus difficilement effectuer.

Lire l'article complet: ChatGPT va-t-il tuer la lettre de motivation?

ChatGPT coûte des millions à OpenAI, mais combien exactement? Mystère

© Shuo - stock.adobe.com
© Shuo - stock.adobe.com

C’est sans doute l’un des secrets les mieux gardés de la Silicon Valley: le coût exact du fonctionnement de ChatGPT. Ces derniers jours, plusieurs études et estimations ont été publiées sur le coût de fonctionnement de l’agent conversationnel créé par la société OpenAI. La firme basée à San Francisco, soutenue par Microsoft, pourrait lever jusqu’à 100 milliards de dollars sur les prochaines années.

Lancé pour le grand public le 30 novembre 2022, ChatGPT comptait déjà 100 millions d’utilisateurs en janvier 2023. C’est le seul chiffre donné par OpenAI concernant son agent conversationnel. Depuis, silence total. Vu la popularité de son innovation, vu le nombre d’entreprises qui l’utilisent aujourd’hui en interne ou en l’intégrant à leurs services, ChatGPT a très certainement dépassé le milliard d’utilisateurs. Selon la société de recherche SimilarWeb, fin avril, l’agent conversationnel comptait 1,76 milliard d’utilisateurs.

Qui dit croissance exponentielle du nombre de clients dit explosion des coûts: pour fonctionner, l’agent conversationnel requiert une puissance de calcul importante grâce à des cartes graphiques performantes, de très nombreux serveurs informatiques, consommant une quantité énorme d’électricité. De plus, l’entraînement des nouveaux modèles de langage requiert des ressources plus importantes encore.

Ces derniers jours, plusieurs informations autour de ces coûts ont émergé. Le 4 mai dernier, le site The Information révélait, sur la base de témoignages de trois personnes ayant accès aux comptes d’OpenAI, que la société avait perdu 540 millions de dollars en 2022. Cette somme aurait doublé par rapport à 2021 et devrait s’accroître cette année avec l’explosion de la demande. Selon The Information, les comptes de la start-up sont en plus grevés par le recrutement de spécialistes de l’intelligence artificielle.

Lire l'article complet

Les Suisses veulent travailler avec l’IA, selon Microsoft

Ce mardi, Microsoft a publié son «Work Trend Index 2023», sur la base d’une étude menée auprès de 31 000 personnes dans 31 pays, dont environ 1000 en Suisse. Microsoft, à la pointe dans l’IA avec son moteur de recherche Bing et ses investissements dans OpenAI, éditrice de ChatGPT, n’est évidemment pas tout à fait neutre lorsqu’il s’agit de parler de ces technologies.

Et l’étude va dans son sens. Ainsi, Microsoft affirme que «65% des employés suisses délégueraient autant de travail que possible à l’IA afin de réduire leur charge de travail. Alors que 47% expriment des doutes quant au fait que l’IA puisse remplacer leur travail, près des trois quarts seraient donc d’accord d’utiliser l’IA non seulement pour les tâches administratives, mais aussi pour les tâches analytiques et créatives.»

Dans le détail, près des trois quarts des employés suisses pourraient s’imaginer utiliser l’IA non seulement pour des tâches administratives (71%), mais aussi pour des travaux analytiques (73%) et même pour des aspects créatifs de leur activité (67%) (contre respectivement 76%, 79% et 73% pour les employés du monde entier), toujours selon les conclusions de Microsoft. La société affirme que les managers suisses sont 1,5 fois plus nombreux à déclarer que l’IA apportera une valeur ajoutée sur le lieu de travail en augmentant la productivité plutôt qu’en réduisant les effectifs (32% contre 22%; 2 fois pour les managers du monde entier, 34% contre 16%).

Selon Microsoft, pour les employés, «la promesse d’un allègement de la charge de travail l’emporte sur la menace» que l’IA leur prenne leur travail.

L’étude complète est à lire ici.

Les eurodéputés veulent réguler ChatGPT

Mieux encadrer les applications conversationnelles comme ChatGPT: les eurodéputés voteront jeudi sur le futur règlement de l’Union européenne sur l’intelligence artificielle (IA), texte ambitieux retardé par les controverses entourant ces technologies. L’Union européenne veut être la première au monde à se doter d’un cadre juridique complet pour limiter les dérives de L’IA, tout en sécurisant l’innovation. La Commission européenne a proposé il y a deux ans un projet de législation dont l’examen traîne en longueur. Les États membres de l’UE ont seulement défini leur position fin 2022. Les eurodéputés, très divisés, entérineront la leur jeudi dans un vote en commissions à Strasbourg qui devrait être confirmé en plénière en juin. S’ouvrira ensuite une négociation difficile entre les différentes institutions.

La vice-présidente de la Commission européenne Margrethe Vestager a appelé lundi à ne pas perdre de temps. «J’espère vraiment que nous pourrons terminer cette année», a-t-elle dit. Les eurodéputés souhaitent contraindre les fournisseurs à mettre en place des protections contre les contenus illégaux et à révéler les données protégées par les droits d’auteur utilisées pour développer leurs algorithmes. La proposition de la Commission, dévoilée en avril 2021, prévoit déjà un encadrement des systèmes d’IA qui interagissent avec les humains. Elle les obligera à informer l’utilisateur qu’il est en relation avec une machine et contraindra les applications générant des images à préciser qu’elles ont été créées artificiellement.

Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine. Les eurodéputés veulent y ajouter l’interdiction des systèmes de reconnaissance des émotions et supprimer les dérogations autorisant l’identification biométrique à distance des personnes dans les lieux publics par les forces de l’ordre. Ils entendent aussi interdire la récolte en masse de photos sur internet pour entraîner les algorithmes sans l’accord des personnes concernées.

Le cœur du projet consiste en une liste de règles imposées aux seules applications qui seront jugées à «haut risque» par les entreprises elles-mêmes à partir des critères du législateur. La Commission européenne a proposé qu’elles concernent les systèmes utilisés dans des domaines sensibles comme les infrastructures critiques, l’éducation, les ressources humaines, le maintien de l’ordre ou la gestion des migrations…

Et si l’IA nous aidait à trouver le job de nos rêves? 

L’une des craintes principales par rapport aux prouesses fulgurantes de l’IA concerne la suppression de certains profils professionnels, parfois en réaction à des nouvelles comme l’annonce récente d’IBM de ralentir ou suspendre le recrutement pour des postes «remplaçables» par l’IA. Cependant, l’un des succès les plus formidables des technologies de traitement du langage ces dernières années, c’est-à-dire les modèles de langage (à la base de ChatGPT entre autres), pourrait donner lieu à une révolution du marché du travail. Comment?

Comme évoqué par son nom, un modèle de langage est une représentation informatique du langage humain apte à être «consommée» par un ordinateur. En voici un exemple. En analysant de grands volumes de textes, y compris des offres d’emploi, cahiers des charges, lettres de motivation et CVs, ces modèles apprennent à représenter la nature des postes et des qualifications professionnelles. Cette représentation numérique rend le calcul d’un rapprochement optimal entre des postes à pourvoir et des dossiers de candidature très simple pour un ordinateur.

Que pourrait-il se passer lorsque Madame X recherchera un travail en soumettant sa candidature à une plateforme de recherche d’emploi? Un algorithme pourrait lui conseiller les postes les plus pertinents, y compris ceux dont la description partage peu de mots-clés avec son profil mais dont le contenu est similaire. C’est d’ailleurs dans l’aisance à identifier cette similarité que se cache la «magie» des modèles de langage.

De même, lorsque Monsieur Y, spécialiste en RH, recherchera des candidats idéaux pour un poste offert par son entreprise, il lui sera possible de s’appuyer sur des propositions ciblées grâce à un service d’analyse de dossiers allant bien au-delà de la recherche mot par mot.

Ces scénarios sont déjà réels pour différents acteurs du marché du travail, y compris en Suisse, où des groupes comme Adecco utilisent l’IA pour créer des représentations efficaces des compétences requises par des postes. Par ailleurs, un aspect que j’estime révolutionnaire de ce rapprochement candidat-poste soutenu par l’IA est son potentiel de favoriser la reconversion professionnelle: un(e) candidat(e) dont les qualifications sont compatibles avec un domaine dans lequel il (elle) n’a pas encore d’expérience professionnelle pourrait se voir proposer des postes intéressants, par exemple en passant de la santé à la petite enfance ou du marketing au web design, lui permettant d’enrichir son CV actuel.

Comment l’intelligence artificielle a dévoré la planète

Aujourd’hui, nous vous proposons de prendre un peu de recul pour comprendre l’épopée fulgurante de l’IA depuis le 30 novembre dernier, date du lancement de ChatGPT pour le grand public. Le potentiel ultra-concret de l’IA a éclaté au visage de centaine de millions de Terriens. Mais les bases de cette technologie avaient été patiemment élaborées durant des années, comme nous l’expliquent plusieurs spécialistes. «Ce n’est pas vraiment l’IA qui a accéléré. C’est l’adoption d’un certain outil de l’IA – ChatGPT – par le grand public qui s’est accélérée ces derniers mois. Cela peut accroître la recherche en IA. Autant d’intérêt peut attirer des fonds pour embaucher des talents et acquérir des ressources computationnelles», estime Lonneke van der Plas, responsable du groupe de recherche Computation, Cognition & Language à l’institut de recherche Idiap de Martigny.

Et comme le souligne Silvia Quarteroni, responsable de l’innovation au sein du Swiss Data Science Center de l’EPFL et de l’EPFZ, «l’apprentissage automatique basé sur des réseaux de neurones profonds (deep neural networks) appliqué à l’analyse d’images et à l’interprétation du langage donne d’excellents résultats depuis une quinzaine d’années. Et cela fait au moins cinq ans que les grands modèles de langage ont révolutionné la manière de représenter et générer le texte par les machines.»

Lire aussi: Comment l’intelligence artificielle a dévoré la planète

ChatGPT et les autres: un mini-guide pour débutants

Si vous débutez avec l’IA, si vous n’avez pas encore testé ChatGPT, nous vous avons préparé un petit guide pour vous initier avec ces technologies. Idem avec Bing, le moteur de recherche de Microsoft, qui permet non seulement d’effectuer des recherches sous forme de conversation, mais aussi de créer des images.

On vous explique toutes les bases dans cet article.

L’intelligence artificielle est-elle plus dangereuse que le réchauffement climatique?

Samedi, dans le cadre d’un entretien avec Reuters, le père de l'IA Geoffrey Hinton a effectué cette comparaison troublante. «Je ne voudrais pas dévaloriser le changement climatique. Je ne voudrais pas dire: «Vous ne devriez pas vous inquiéter du changement climatique.» C’est aussi un risque énorme. Mais je pense que le problème de l’intelligence artificielle pourrait s’avérer plus urgent.» Le scientifique a poursuivi: «En ce qui concerne le changement climatique, il est très facile de recommander ce qu’il faut faire: arrêter de brûler du carbone. Si vous faites cela, les choses finiront par s’arranger. Pour l’intelligence artificielle, il n’est pas clair de savoir ce qu’il faut faire.»

Lire la chronique en intégralité: L’intelligence artificielle est-elle plus dangereuse que le réchauffement climatique?

La menace de l’IA, ultime affront pour les scénaristes en grève de Hollywood

Les scénaristes de Hollywood ont beau être en grève pour des raisons principalement salariales, leur conflit avec les studios et services de streaming est également attisé par une hypothèse jugée insultante: l’idée qu’une intelligence artificielle puisse bientôt les remplacer. Et sur les piquets de grève à Los Angeles, le sujet est dans toutes les têtes. Surtout après l’échec des négociations entre les patrons et la «Writers Guild of America» (WGA), le puissant syndicat qui représente 11.500 plumes de l’industrie audiovisuelle. «L’art ne peut pas être créé par une machine», fustige Eric Heisserer, le scénariste du film «Bird Box», qui a fait un carton sur Netflix. «On perd le cœur et l’âme de l’histoire… Le premier mot (d'«Artificial Intelligence»), c’est quand même «artificiel»».

La WGA affirme avoir poussé pour restreindre l’utilisation de l’IA lors des pourparlers. Le syndicat souhaitait que toute production issue d’un robot ne puisse pas être considérée comme un matériau «littéraire» ou «source», des termes clés qui impliquent le reversement de droits d’auteur. Il voulait aussi empêcher que les scénarios écrits par ses membres puissent être utilisés pour entraîner une IA.

Des exigences rejetées par les studios, qui ont proposé une rencontre annuelle pour «discuter des progrès de la technologie». «C’est bien qu’ils proposent d’organiser une réunion sur la manière dont ils l’exploitent contre nous!», ironise M. Heisserer, un peu désabusé. Le scénariste se désole de «devoir regarder des entreprises technologiques détruire le marché pour tenter de découvrir par elles-mêmes» les limites créatives des robots. Parmi les scénaristes rencontrés par l’AFP, très peu imaginent une intelligence artificielle capable de faire leur travail. Mais le simple fait que les studios et plateformes de streaming soient prêts à explorer ce sujet sonne pour tous comme un ultime affront.

Lire aussi: Les scénaristes américains se mettent en grève

A Lausanne, le Musée de la main prolonge son exposition sur l’intelligence artificielle

Le Musée de la main à Lausanne consacre une exposition interactive à l’intelligence artificielle, entre installations interactives et œuvres d’art. Une découverte qui a l’ambition d’aller au-delà des «a priori simplificateurs» et qui voit sa durée prolongée. L’établissement a annoncé que le public pourrait découvrir cette exposition jusqu’au 24 septembre 2023, et non jusqu’au 30 avril comme prévu à l’origine, signe d’un vif intérêt pour le thème.

«Nous sommes à un moment où de nombreux acteurs essaient de définir le cahier des charges des responsabilités de l’IA: est-elle équitable? Compréhensible? Doit-elle être intelligible? Comment respecter les données récoltées? Ces questions sont importantes pour tout le monde», indiquait Olivier Glassey au Temps.

Lire aussi: Les machines «intelligentes» et nous, au Musée de la main