Las redes neuronales son un componente crucial de los modelos de inteligencia artificial (IA). Funcionan basándose en una arquitectura que imita las neuronas del cerebro humano.
Después de leer este artículo podrás:
Copiar enlace del artículo
Una red neuronal, o red neuronal artificial, es un tipo de arquitectura informática que se basa en un modelo del funcionamiento del cerebro humano —de ahí el nombre "neuronal." Las redes neuronales están formadas por un conjunto de unidades de procesamiento denominadas "nodos". Estos nodos transmiten datos entre sí, igual que en el cerebro las neuronas se transmiten impulsos eléctricos.
Las redes neuronales se utilizan en el aprendizaje automático, el cual se refiere a una categoría de programas informáticos que aprenden sin instrucciones definidas. En concreto, las redes neuronales se utilizan en el aprendizaje profundo — un tipo avanzado de aprendizaje automático que puede extraer conclusiones de datos no etiquetados sin la intervención humana. Por ejemplo, un modelo de aprendizaje profundo construido sobre una red neuronal y alimentado con suficientes datos de entrenamiento podría tener la capacidad de identificar elementos en una foto que nunca ha visto antes.
Las redes neuronales hacen posibles muchos tipos de inteligencia artificial (AI). Los grandes modelos lingüísticos (LLM), como ChatGPT, los generadores de imágenes de AI, como DALL-E, y los modelos predictivos de AI se basan en cierta medida en redes neuronales.
Las redes neuronales están compuestas por un conjunto de nodos. Los nodos están repartidos en al menos tres capas. Las tres capas son:
Estas tres capas son el mínimo. Las redes neuronales pueden tener más de una capa oculta, además de la capa de entrada y la capa de salida.
Independientemente de la capa de la que forme parte, cada nodo realiza algún tipo de tarea o función de procesamiento sobre cualquier entrada que reciba del nodo anterior (o de la capa de entrada). Esencialmente, cada nodo contiene una fórmula matemática, con cada variable dentro de la fórmula ponderada de forma diferente. Si el resultado de aplicar esa fórmula matemática a la entrada supera un determinado umbral, el nodo pasa los datos a la siguiente capa de la red neuronal. Si la salida está por debajo del umbral, no se pasa ningún dato a la capa siguiente.
Imagina que la Corporación Acme tiene un departamento de contabilidad con una jerarquía estricta. Los empleados del departamento de contabilidad de Acme de nivel directivo aprueban los gastos inferiores a 1000 $, los directores aprueban los gastos inferiores a 10 000 $ y el director financiero aprueba cualquier gasto que supere los 10 000 $. Cuando los empleados de otros departamentos de Acme Corp. presentan sus gastos, primero van a los responsables de contabilidad. Cualquier gasto superior a 1000 $ pasa a un director, mientras que los gastos inferiores a 1000 $ se quedan en el nivel directivo, y así sucesivamente.
El departamento de contabilidad de Acme Corp. funciona en cierto modo como una red neuronal. Cuando los empleados envían sus informes de gastos, es como la capa de entrada de una red neuronal. Cada gerente y director es como un nodo dentro de la red neuronal.
Y, del mismo modo que un gestor contable puede pedir ayuda a otro para interpretar un informe de gastos antes de pasarlo a un director contable, las redes neuronales pueden diseñarse de diversas formas. Los nodos pueden comunicarse en varias direcciones.
No hay límite en el número de nodos y capas que puede tener una red neuronal, y estos nodos pueden interactuar de casi cualquier forma. Por ello, la lista de tipos de redes neuronales es cada vez más amplia. Pero, a grandes rasgos, pueden clasificarse en estas categorías:
Las redes neuronales superficiales son rápidas y requieren menos potencia de procesamiento que las redes neuronales profundas, pero no pueden realizar tantas tareas complejas como éstas.
A continuación encontrarás una lista incompleta de los tipos de redes neuronales que pueden utilizarse hoy en día:
Las redes neuronales de perceptrón son redes sencillas y poco profundas, con una capa de entrada y otra de salida.
Las redes neuronales perceptrón multicapa añaden complejidad a las redes perceptrón e incluyen una capa oculta.
Las redes neuronales Feed-forward permiten que sus nodos pasen información a un nodo forward.
Las redes neuronales recurrentes pueden retroceder, permitiendo que la salida de algunos nodos influya en la entrada de los nodos precedentes.
Las redes neuronales modulares combinan dos o más redes neuronales para llegar a la salida.
Los nodos de las redes neuronales con función de base radial utilizan un tipo específico de función matemática llamada función de base radial.
Las redes neuronales de máquinas de estado líquido presentan nodos que se conectan entre sí de manera aleatoria.
Las redes neuronales residuales permiten que los datos avancen mediante un proceso llamado mapeo de identidad, que combina la salida de las primeras capas con la salida de las capas posteriores.
Merece la pena destacar las redes neuronales transformadoras porque han asumido un lugar de enorme importancia en los modelos de IA de uso generalizado en la actualidad.
Propuestos por primera vez en 2017, los modelos transformadores son redes neuronales que utilizan una técnica denominada "autoatención" para tener en cuenta el contexto de los elementos de una secuencia, no solo los elementos en sí. Mediante la autoatención, pueden detectar incluso formas sutiles en que las partes de un conjunto de datos se relacionan entre sí.
Esta capacidad los hace ideales para analizar (por ejemplo) frases y párrafos de texto, en lugar de solo palabras y frases sueltas. Antes de que se desarrollaran los modelos transformadores, los modelos de IA que procesaban texto a menudo olvidaban "" el principio de una frase para cuando llegaban al final de ella, con el resultado de que combinaban frases e ideas de formas que Protección integral no tenían sentido para los lectores humanos. Sin embargo, los modelos transformadores pueden procesar y generar el lenguaje humano de una forma mucho más natural.
Los modelos transformadores son un componente integral de la AI generativa, en particular los LLM que pueden producir texto en respuesta a indicaciones humanas arbitrarias.
En realidad, las redes neuronales son bastante antiguas. El concepto de redes neuronales se remonta a un artículo matemático de 1943 que modelaba cómo funcionaba probablemente el cerebro. Los informáticos empezaron a intentar construir redes neuronales sencillas en los años 50 y 60, pero finalmente el concepto cayó en desgracia. En los años 80, el concepto resurgió y en los 90 las redes neuronales se utilizaban ampliamente en la investigación de la IA.
Sin embargo, solo con la llegada del procesamiento hiperrápido, la capacidad de almacenamiento masivo de datos y el acceso a los recursos informáticos, las redes neuronales pudieron avanzar hasta el punto que han alcanzado hoy, donde pueden imitar o incluso superar las capacidades cognitivas humanas. Se siguen haciendo avances en este campo; uno de los tipos más importantes de redes neuronales que se utilizan hoy en día, el transformador, data de 2017.
Con sedes en más de 330 ciudades de todo el mundo, Cloudflare se encuentra en una posición única para ofrecer potencia de cálculo a los desarrolladores de AI en cualquier lugar con una latencia mínima. Cloudflare for AI permite a los desarrolladores ejecutar tareas de AI en una red global de unidades de procesamiento gráfico (GPU) sin necesidad de configuración adicional. Cloudflare también ofrece opciones rentables de almacenamiento en la nube para las enormes cantidades de datos necesarias para entrenar redes neuronales. Más información sobre Cloudflare for AI.