Google ed il pubblico “simile”: cosa c’è da sapere
03/07/2023La “X” di Elon Musk destinata al fallimento
22/08/2023
I ricercatori della Rice e della Stanford University hanno scoperto che l’alimentazione dei modelli di intelligenza artificiale (IA) con contenuti generati dalle stesse IA porta a un drastico calo della qualità dei risultati. Questo problema, chiamato MAD (Model Autophagy Disorder), conferma il principio noto di “garbage in, garbage out”. Se i dati in ingresso sono di bassa qualità, anche quelli in uscita lo saranno. I ricercatori hanno evidenziato che i modelli generativi hanno bisogno di dati reali freschi creati dagli esseri umani per mantenere la qualità. Se un algoritmo viene addestrato solo su dati artificiali, il modello diventa progressivamente meno accurato e diversificato. Questo ha implicazioni significative per le persone e le aziende che lavorano con l’IA. Ad esempio, Google sta sviluppando una nuova versione del suo motore di ricerca che potrebbe presentare testi generati dall’IA come risultati. Tuttavia, se i siti web iniziano a integrare testi generati, potrebbe verificarsi un problema. I moderni algoritmi sono sempre più alla ricerca di nuovi dati su Internet, e l’aumento dei contenuti generati dall’IA potrebbe innescare il meccanismo MAD. Anche se il documento non è stato ancora sottoposto a revisione paritaria, rappresenta un’importante indicazione per coloro che lavorano con l’IA. In conclusione, mentre le IA possono svolgere compiti generativi, è necessario garantire l’uso di dati reali freschi per mantenere la qualità e prevenire il deterioramento dei modelli generativi.