Redes Neuronales Recurrentes
Contenido abierto del libro DEEP LEARNING Introducción práctica con Keras
--
Este post contiene el capítulo 7 del libro “Deep Learning — Introducción práctica con Keras (SEGUNDA PARTE)” de Kindle Direct Publishing con ISBN 978–1–687–47399–8 en la colección WATCH THIS SPACE — Barcelona (Book 6).
Nota: En el proceso semiautomático de generación de esta versión HTML a partir de la versión del libro en papel, se han perdido algunos formatos de fuente de texto (por ej. diferenciar cuando nos referimos a código) o se han eliminado espacios en blanco. A pesar de esta “falta de elegancia” en el texto, el resultado es correcto y permite aprender sin problemas de esta versión HTML.
En los capítulos anteriores hemos presentado cómo podemos usar Deep Learningsobre datos de tipo imagen para aplicarlos a problemas de visión por computador, uno de los ámbitos más activos en inteligencia artificial. Pero hay otros ámbitos, como el de procesado de lenguaje natural[1] (Natural Language Processing, NLP), donde hay también grandes avances para poder solucionar problemas de compresión de texto. En este capítulo trataremos un ejemplo con datos de tipo texto para explicar las redes neuronales recurrentes.
Las redes neuronales recurrentes, o Recurrent Neural Networks(RNN) en inglés, son una clase de redes para analizar datos de series temporales permitiendo tratar la dimensión de “tiempo”, que hasta ahora no habíamos considerado con las redes neuronales vistas en capítulos anteriores.
Siguiendo el carácter práctico de este libro, después de presentar los mínimos conceptos básicos de RNN requeridos para entender su potencial, en este capítulo nos centraremos en seguir un caso práctico que crea un sencillo modelo que lee y aprende de textos de un autor y luego intenta generar un texto nuevo que pretende parecer que hubiera sido escrito por el mismo autor.
7. 1 Conceptos básicos de redes neuronal recurrente
Las redes neuronales recurrentes (RNN) fueron ya concebidas en la década de 1980. Pero estas redes han sido muy difíciles de entrenar por sus requerimientos en computación y hasta la llegada de los avances de estos últimos años, que presentábamos al principio del…