¿Notaste alguna vez cómo aplicaciones que utilizan inteligencia artificial parecen #OLVIDAR lo que una vez supieron? Pues no es solo tu imaginación.
Te explico «EL OLVIDO #CATATRÓFICO DE LA #IA» 😮

La investigación titulada «Catastrophic Forgetting in Large Language Models» señala un desafío creciente en la IA: el olvido catastrófico.
Esta peculiaridad no solo desvía a los modelos de su curso previsto, sino que erosiona su rendimiento con el tiempo, dejándonos a merced de posibles cambios impredecibles.

✍ https://arxiv.org/pdf/2308.08747.pdf

El fenómeno del olvido catastrófico (CF) se refiere a la tendencia de los LLMs a olvidar información previamente aprendida cuando se les entrena en nuevas tareas. Además, según la investigación se observa más intensamente en modelos más grandes.

✅ ¿Cómo se pudo evaluar este «olvido»?


Se realizaron pruebas empíricas evaluando la capacidad de los LLMs para retener el conocimiento general desde tres perspectivas: razonamiento basado en conocimientos de dominio, capacidad de comprensión lectora y la evolución del sesgo en los modelos

Te lo intento explicar con un ejemplo. 🤔
Imagina que un cocinero (el modelo LLM) tiene que preparar platos (realizar tareas de razonamiento y comprensión) usando solo los ingredientes que ya conoce (conocimientos de dominio). Al aprender a hacer nuevos platos (nuevas tareas de instrucción), el chef intenta no olvidar cómo hacer los platos antiguos, manteniendo al mismo tiempo una cocina equitativa sin preferir ciertos ingredientes sobre otros (mitigar sesgos).
La investigación observa si el cocinero, después de aprender a hacer muchos platos nuevos, todavía puede hacer bien los platos antiguos y si logra usar todos los ingredientes de manera justa, sin mostrar preferencia por unos sobre otros.

👨‍💻 Algunos datos interesantes de la investigación:


1️⃣ GPT-4 (marzo 2023) tuvo un buen desempeño en la identificación de números primos versus números compuestos (84 % de precisión), pero GPT-4 (junio 2023) mostró un desempeño deficiente (51 % de precisión).

2️⃣ GPT-4 estuvo menos dispuesto a responder preguntas sensibles y de encuestas de opinión en junio en comparación con marzo.

3️⃣ Las evidencias nos sugiere que la capacidad de GPT-4 para seguir las instrucciones de los usuarios esta descendiendo con el tiempo, lo que implica cambios de comportamiento.

¿Cómo podría afectar este olvido catastrófico a la fiabilidad de las aplicaciones que día a día se vuelven más esenciales en nuestras vidas?