Nos premières expériences avec l’IA sont étonnantes, car pour la première fois, l’IA prend forme humaine.
Pas étonnant, elle a été nourrie avec 100% de productions humaines.
Mais qu’en sera-t-il quand elle se nourrira de ses propres productions ?
Quand l’IA devient cannibale…
Les chercheurs des Universités de Stanford et de Rice ont réalisé une étude sur l’intelligence artificielle. Ils ont constaté que les IA génératives requièrent des données réelles et récentes pour produire un résultat satisfaisant.
Sous le titre de MAD (Modèle de Trouble de l’Autophagie), cette théorie explique que les IA alimentées par leurs propres créations perdent en efficacité.
De la première photo réelle à gaude, les suivantes représentent les résultats obtenus à partir d’entraînements avec des images générées par IA. La déviance est claire, inquiétante.
Les chercheurs expliquent dans leur étude : « Sans une quantité suffisante de données réelles et récentes à chaque génération d’une boucle autophage, les futurs modèles génératifs sont condamnés à voir leur qualité (précision) ou leur diversité (rappel) diminuer progressivement. »
L’utilisation de l’IA pour produire des textes, des images, des vidéos, va-t-il conduire à sa propre perte ?
Réponse dans quelques mois…
et cette semaine, on vous parle aussi de :
- c’est tendance : des plans de cours automatiques
- du côté de la techno : des pictos sur mesure
- du côté pédago : introspection pédagogique
- un peu de méthode : le vrai niveau 4 de Kirkpatrick
- on cogite : se tromper, est-ce une erreur ?
- avant de fermer votre bureau : le marketing de la formation
- notre sondage de la semaine : pensez-vous que l’IA va faire long feu ?
Lire l’intégralité de la Newsletter
Et si vous ne l’êtes pas encore,
đź’Ś abonnez-vous pour la recevoir par email tous les vendredi Ă 16h