Je me demande en ce moment si l’IA (surtout générative) dans un futur plus ou moins proche pourrait atteindre une limite … 🤔 <p><span>À partir du moment où les modèles d’apprentissage récolteront une quantité majoritairement générée par IA que par des humains.</span></p><p><span>Le système finirait par apprendre à partir de données de mauvaise qualité, générant ainsi du contenu de moins bonne qualité / moins exacte, et ce en boucle.</span></p><p><span>À moins d’un filtrage, mais cela me semble très compliqué de faire ça sans complexifier encore plus la machine à gaz 🤔 (Je crois qu’on va devoir remplir de plus en plus de capcha)</span></p><p></p><p><span>Quelques articles qui parlent du sujet :</span></p><ul><li><p><span>https://www.lebigdata.fr/la-menace-du-model-collapse-dans-lunivers-des-modeles-generatifs</span></p></li><li><p><span>https://www.lebigdata.fr/lia-est-en-train-de-sauto-detruire-et-lindustrie-commence-a-paniquer</span></p></li><li><p><span>https://intelligence-artificielle.com/menace-autodestruction-ia</span></p></li></ul>