Veille médiatique

L'équipe du SAEA a effectué une revue de presse des dernières innovations dans le domaine de l'intelligence artificielle dans le contexte de l'enseignement et de l'apprentissage. Vous trouverez ci-dessous une sélection d'articles et de billets de blog sur le sujet.

Depuis sa mise en ligne fin novembre, le logiciel ChatGPT, agent conversationnel (chatbot) qui utilise les capacités impressionnantes du plus gros réseau mondial de neurones artificiels actuel (GPT-3), a provoqué un tsunami de questions sur les sujets les plus variés de demandes de rédaction de devoirs, d’articles, de courriers, etc. Destinées à l’éprouver, à en tester les limites, ces utilisations très diverses ont aussi fait naître, ou conforté, de fortes craintes.


Le trouble qui colore l'engouement mondial pour ChatGPT résonne comme une injonction à la pédagogie, pour expliquer ce que peut et ne peut pas l'intelligence artificielle, ainsi que l'explique dans cet entretien Laurence Devillers, professeur à l’Université Paris-Sorbonne et chercheuse au laboratoire interdisciplinaire des Sciences du Numériques (LISN).


Dans une prise de position importante du COPE (13 février 2023) face à la prolifération des outils d’IA générative et autres agents conversationnels utilisant les grands modèles langagiers (LLM) tels que ChatGPT, le COPE affirme que : Les outils d’IA ne peuvent pas être cités comme auteurs d’un article (ou œuvre) puisqu’ils ne peuvent pas répondre aux exigences de la qualité d’auteur dans les publications de recherche.


Satya Nadella, le patron de Microsoft, a évoqué une « nouvelle ère » pour la recherche sur l’internet, avant d’annoncer l’intégration dans Bing de nouvelles technologies d’IA développées par le géant informatique et par la startup OpenAI.


(New York) Google a annoncé lundi le lancement en phase de test de son robot conversationnel, baptisé Bard, quelques mois après celui de ChatGPT, le logiciel de la startup américaine OpenAI qui déchaîne les passions.


Avouons-le, depuis quelques semaines, on ne parle que de ça : ChatGPT est dans tous les médias, dans toutes les réunions. Le réflexe amusé “je vais demander à ChatGPT” est maintenant devenu un point de passage obligé, un invité permanent aux soirées entre ami.es, aux tables rondes de chercheur.es.


Le développement de l’intelligence artificielle (IA) est souvent abordé comme un enjeu essentiellement technologique et commercial. Sa portée politique et géopolitique est pourtant cruciale, au point de pouvoir modifier les rapports de force sur l’échiquier international. À cet égard, les indicateurs et les signaux pointent vers une intensification de la rivalité entre la Chine et les États-Unis.


Même si le big data et les méthodes d’apprentissage automatique (machine learning) donnent parfois des résultats spectaculaires, ils ne permettent pas de comprendre les mécanismes en jeu. Ceux-ci ne peuvent être élucidés que par la recherche fondamentale, qui demeure très importante pour assurer le progrès scientifique.


Ces outils « conversationnels » nous impressionnent, mais ils ont encore trop tendance à fabuler pour que les humains se fient à leurs réponses pour prendre des décisions, expliquent deux chercheurs en informatique et intelligence artificielle.


Note : Après quelque temps, La Presse vous invitera à vous connecter pour profiter d'un accès gratuit et illimité.

(Paris) L’intelligence artificielle ChatGPT, capable de rédiger des textes en réponse à de simples questions, s’est répandue comme une traînée de poudre dans le monde éducatif, poussant des enseignants à s’interroger sur l’opportunité de l’interdire ou de la mettre à profit.


Les intelligences artificielles apprennent à parler grâce aux « modèles de langage »: les modèles les plus simples vous proposent par exemple le mot suivant sur votre smartphone. Mais les prouesses et les progrès des modèles de langage les plus modernes tels que GPT-3, LaMDA, PaLM ou ChatGPT sont époustouflants. Il existe par exemple des programmes informatiques capables d’écrire dans le style d’un poète donné, de simuler des personnes décédées, d’expliquer des blagues, traduire des langues, et même produire et corriger le code informatique, en se basant sur des modèles de neurones de plus en plus complexes. Ceci aurait été impensable il y a quelques mois à peine et soulève de nombreuses questions. Mais ces modèles de langage sont en réalité plus superficiels que ces exemples nous font croire.