Model collapse des IA : Explication simple

Si on entraîne une IA sur ses propres générations, est-ce qu’on ne risque pas de créer des modèles consanguins ?

Model collapse des IA : Explication simple
Photo by benjamin lehman / Unsplash

Les connaissances de Claude s’arrêtent en avril 2024.
On pourrait se dire que c’est un désavantage.

Mais est-ce que c’est pas ça qui fait sa force ?

Plus le temps passe, plus les gens utilisent l’IA pour créer du contenu sur internet.

Article de blog, actus, images, videos, etc.

Et les modès sont entrainés sur quoi ? Les données du web.

Donc si on entraîne une IA sur ses propres générations est-ce qu’on ne risque pas de créer des modèles consanguins ?

Comme si un nourisson en pleine croissance se nourrissait de ses propres régurgitations.
(Désolé pour l’image).

Il y a une théorie qui se précise sur ce scénario : il s’appelle « model collapse ».
Qui pourrait d’ailleurs créer un plafond d’apprentissage pour les IA.

Donc c’est peut-être pour ça que Claude a arrêté son apprentissage à une date précise (théorie fumeuse), ce qui pourrait expliquer pourquoi il est autant affuté dans ses réponses.

Ça pose plein de questions sur ce que va devenir le web dans les mois à venir.

Passionnant.

Subscribe to Le mémo | StackGuide

Don’t miss out on the latest issues. Sign up now to get access to the library of members-only issues.
jamie@example.com
Subscribe