top of page
Foto del escritorKhevin Sánchez

Cuando las Máquinas Aprenden: El Genio y la Advertencia que Marcan el Nobel de Geoffrey Hinton

Por Khevin Sánchez Zamora (Programa de Escritores Babaluum)


Portada del blog.

El Premio Nobel, el galardón más prestigioso del mundo académico, rara vez se asocia con la Inteligencia Artificial (IA). Sin embargo, en 2024, el comité del Nobel decidió otorgar el Premio de Física a Geoffrey Hinton y John Hopfield por sus "descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales". Este reconocimiento marca un hito significativo, no solo en la carrera de Hinton, sino en la historia de la IA como campo.


Geoffrey Hinton, profesor emérito de la Universidad de Toronto y hasta hace poco investigador de Google, es considerado uno de los 'padrinos' de la IA moderna. Durante más de cuatro décadas, ha sido una fuerza impulsora en el desarrollo de las redes neuronales artificiales, una técnica computacional inspirada en el funcionamiento del cerebro que ha revolucionado la IA.


Pero ¿qué son exactamente estas "redes neuronales artificiales" que han merecido el máximo reconocimiento científico? ¿Cómo han logrado estos sistemas, que parecen emular la inteligencia humana, un impacto tan profundo en nuestro mundo? Para comprenderlo, debemos sumergirnos en los conceptos y mecanismos fundamentales que hacen que esta tecnología sea tan transformadora.


¿Cómo funciona una neurona artificial?


En el corazón de las redes neuronales artificiales se encuentran las unidades básicas de procesamiento, modeladas a partir de las neuronas biológicas en nuestro cerebro. Para entender cómo funcionan, consideremos un ejemplo cotidiano de toma de decisiones: decidir si ir a ver una película basándose en las opiniones de tres amigos.


Imagine que Juan, un amigo cuyo criterio cinematográfico usted valora mucho, está entusiasmado con la película y le da una calificación de 9 sobre 10. María, cuya opinión es importante pero no tanto como la de Juan, piensa que la película es buena pero no excepcional y le da un 7. Pedro, con quien rara vez coincide en gustos, no la recomienda en absoluto y le otorga un 2.


Para tomar una decisión ponderada, usted asigna un peso a la opinión de cada amigo según la confianza que tiene en su criterio. Por ejemplo, podría dar un peso de 0.5 a la opinión de Juan, 0.3 a la de María y 0.2 a la de Pedro.

El siguiente paso es calcular una suma ponderada de estas opiniones. Matemáticamente, esto se expresa como:


(9 x 0.5) + (7 x 0.3) + (2 x 0.2) = 4.5 + 2.1 + 0.4 = 7


El resultado, 7, representa la entrada total ponderada que usted ha recibido sobre la película.


Ahora, suponga que tiene un umbral personal para decidir si ve una película, digamos, 6. Si la entrada total supera este umbral, usted decide ver la película; si no, opta por no verla. En este caso, como la entrada total de 7 supera su umbral de 6, usted decide ir a ver la película.


Esta decisión basada en un umbral es exactamente análoga a cómo una neurona artificial procesa su entrada. En una neurona artificial:


  1. Las entradas (las opiniones de sus amigos) se multiplican por pesos (la confianza que tiene en cada opinión).

  2. Estas entradas ponderadas se suman.

  3. La suma se pasa a través de una función de activación (su umbral personal de 6) para generar una salida (su decisión de ver o no la película).


FIGURA 1: Representación esquemática del funcionamiento de una neurona artificial.















FIGURA 1: Representación esquemática del funcionamiento de una neurona artificial. Las entradas (X1, X2, X3) son ponderadas por sus respectivos pesos (w1, w2, w3) y sumadas. La suma ponderada resultante (w1X1 + w2X2 + w3X3) se procesa a través de una función de activación (círculo amarillo) para generar la salida final (Y1). Este proceso emula la computación básica realizada por una neurona biológica, donde las entradas son las señales recibidas a través de las dendritas, los pesos representan la fuerza de las sinapsis, y la función de activación determina si la neurona se "dispara" o no, generando una señal de salida.



Partiendo del caso anterior, resulta ilustrativo revisar el presente diagrama. En el las entradas X1, X2 y X3 representan las opiniones de Juan, María y Pedro, respectivamente. Los pesos w1, w2 y w3 corresponden a la importancia que usted asigna a cada opinión. La suma ponderada (w1X1 + w2X2 + w3X3) es el cálculo que usted realiza para combinar las opiniones. Finalmente, la función de activación (el círculo amarillo) representa su umbral personal para tomar una decisión, y la salida Y1 es su decisión final de ir o no ir a ver la película.


Este ejemplo simplificado ilustra cómo una neurona artificial procesa información: recibe entradas, las pondera según su importancia, realiza una suma ponderada y luego aplica una función de activación para generar una salida. En una red neuronal, muchas de estas neuronas trabajan juntas, aprendiendo a ajustar los pesos para realizar tareas complejas como el reconocimiento de imágenes o la generación de texto. Este proceso simple pero poderoso de cálculo ponderado y toma de decisiones basada en umbrales es el bloque de construcción fundamental de las redes neuronales que están impulsando los avances en la IA moderna.



Aprendiendo de la experiencia: el algoritmo de retropropagación


Pero ¿cómo aprende la red a ajustar estos pesos? Aquí es donde entra en juego el algoritmo de retropropagación, una de las contribuciones clave de Geoffrey Hinton. Durante la década de 1980, cuando la mayoría de los investigadores había abandonado la idea de las redes neuronales artificiales por considerarlas impracticables, Hinton persistió en su visión. Sus investigaciones pioneras sobre el algoritmo de retropropagación o "backpropagation" establecieron los cimientos matemáticos y conceptuales sobre los que se erige buena parte de la revolución actual en inteligencia artificial. Este método, que permite a las redes neuronales artificiales "aprender", es fundamental para el funcionamiento de sistemas como ChatGPT y otros modelos de lenguaje avanzados.


Piense que usted es un profesor que enseña a un grupo de estudiantes a resolver problemas matemáticos. Cada estudiante en la clase representa una neurona en una red neuronal, y las conexiones entre los estudiantes representan las conexiones entre las neuronas.


Supongamos que presenta a la clase un problema matemático (los datos de entrada) y les pide que lo resuelvan. Cada estudiante intenta resolver el problema individualmente, utilizando su propio enfoque y conocimientos previos (los pesos de las conexiones). Luego, cada estudiante proporciona su respuesta (la salida de cada neurona).


Después de que todos los estudiantes han dado sus respuestas, usted, como profesor, evalúa la precisión de cada respuesta comparándola con la solución correcta (la salida deseada). Si las respuestas no son lo suficientemente precisas, usted les proporciona retroalimentación sobre cómo mejorar.


Aquí es donde entra en juego el algoritmo de retro propagación. En lugar de simplemente decirles a los estudiantes que sus respuestas son incorrectas, usted les da instrucciones específicas sobre cómo ajustar su enfoque para obtener una respuesta más precisa. Por ejemplo, puede sugerirles que presten más atención a ciertos conceptos, que apliquen una fórmula diferente o que revisen sus cálculos.


Los estudiantes toman esta retroalimentación y ajustan su enfoque (actualizan los pesos de las conexiones) en consecuencia. Luego, les presenta un nuevo problema similar y les pide que lo resuelvan nuevamente. Esta vez, los estudiantes incorporan los ajustes que han realizado basados en la retroalimentación anterior.


Este proceso se repite varias veces, con usted proporcionando problemas (datos de entrada) y los estudiantes ajustando continuamente su enfoque basado en la retroalimentación recibida. Con cada iteración, las respuestas de los estudiantes se vuelven más precisas, ya que han aprendido de sus errores anteriores y han ajustado su metodología en consecuencia.


Después de muchas rondas de este proceso, los estudiantes habrán mejorado significativamente su capacidad para resolver este tipo de problemas matemáticos. Han aprendido de los ejemplos y han ajustado su enfoque de manera iterativa hasta que pueden producir consistentemente respuestas precisas.


Este es esencialmente el proceso que sigue el algoritmo de retro propagación en una red neuronal. Los datos de entrada se alimentan a través de la red (los estudiantes intentan resolver el problema), y la salida se compara con la salida deseada (las respuestas se comparan con la solución correcta). El error se calcula y se propaga hacia atrás a través de la red (usted proporciona retroalimentación a los estudiantes), y los pesos de las conexiones se ajustan en consecuencia (los estudiantes ajustan su enfoque basado en la retroalimentación). Este proceso se repite muchas veces hasta que la red puede producir consistentemente salidas precisas (los estudiantes pueden resolver los problemas correctamente).


La brillantez del enfoque de Hinton radica en haber reconocido que este proceso de aprendizaje podía ser matematizado y automatizado. En lugar de programar explícitamente las reglas para resolver problemas, el sistema aprende por sí mismo a través de la experiencia, refinando continuamente sus conexiones internas hasta alcanzar un nivel de precisión sorprendente.


La analogía del aula se extiende aún más: así como los estudiantes eventualmente desarrollan intuiciones matemáticas que les permiten abordar problemas nuevos y más complejos, las redes neuronales entrenadas con backpropagation desarrollan representaciones internas que les permiten generalizar su aprendizaje a situaciones no vistas previamente. Esta capacidad de generalización es lo que hace que el algoritmo sea tan poderoso y versátil.


El impacto del backpropagation ha sido transformador. Este algoritmo es el motor de aprendizaje que impulsa desde los sistemas de reconocimiento facial hasta los modelos de lenguaje como GPT-4o. Cada vez que estos sistemas mejoran su rendimiento a través del entrenamiento, están empleando esencialmente el mismo principio fundamental que Hinton y sus colaboradores desarrollaron: aprender sistemáticamente de los errores, propagando las correcciones hacia atrás a través de la red.


El Premio Nobel otorgado a Hinton reconoce no solo la elegancia matemática de su solución, sino también su impacto transformador en prácticamente todos los aspectos de la tecnología moderna. El backpropagation ha demostrado ser la llave maestra que desbloqueó el potencial del aprendizaje profundo, permitiendo que las máquinas desarrollen capacidades que hace apenas unas décadas parecían ciencia ficción.


Geoffrey Hinton: del triunfo a la advertencia.


La trayectoria de Geoffrey Hinton presenta una de las paradojas más fascinantes en la historia de la tecnología. El mismo científico que construyó los cimientos matemáticos de la revolución en inteligencia artificial ahora advierte sobre sus peligros con una urgencia amplificada por el prestigio del Premio Nobel.


En una entrevista desde una modesta habitación de hotel en California, tras recibir la llamada del Nobel en plena madrugada, Hinton reflexionó sobre el impacto de la IA: “Estamos en un punto de bifurcación en la historia, y en los próximos años debemos descubrir si hay una forma de lidiar con la amenaza de perder el control”.


Hinton subraya que la incertidumbre sobre el desarrollo de la inteligencia artificial es mucho mayor que en otras crisis globales, lo que dificulta aún más tomar medidas preventivas. Comparando la situación con el cambio climático, enfatiza que el desafío con la IA es más incierto y complejo:


“Creo que esto es bastante diferente al cambio climático. Con el cambio climático, todos saben lo que hay que hacer: debemos dejar de quemar carbono. Es solo una cuestión de voluntad política para hacerlo. Y de grandes empresas que obtienen enormes ganancias y no están dispuestas a hacerlo. Pero está claro qué se necesita hacer. Aquí estamos lidiando con algo sobre lo que tenemos mucha menos idea de lo que va a suceder y qué hacer al respecto. Me gustaría tener una especie de receta sencilla que dijera: ‘Si haces esto, todo estará bien’. Pero no la tengo. (…)  Creo que es muy importante que la gente trabaje ahora mismo en cómo mantener el control. Necesitamos invertir muchos esfuerzos de investigación en ello. Creo que una cosa que los gobiernos pueden hacer es obligar a las grandes empresas a destinar muchos más recursos a la investigación en seguridad, para que, por ejemplo, compañías como OpenAI no puedan relegar la investigación en seguridad a un segundo plano”. (Énfasis agregado)

Lo que hace particularmente perturbadoras sus advertencias es precisamente su profunda comprensión técnica del campo. No son las cavilaciones de un tecnófobo ni las especulaciones de un observador casual. Hinton puede trazar una línea directa desde los principios matemáticos que él mismo desarrolló hasta los riesgos que ahora identifica. Su renuncia a Google en 2023 para hablar más libremente sobre estos peligros subraya la seriedad de sus preocupaciones.


No estamos simplemente ante un científico arrepentido, sino frente a un visionario que comprende mejor que nadie tanto el potencial como los peligros de la tecnología que ayudó a crear. El reconocimiento del Nobel no solo corona sus contribuciones fundamentales, sino que amplifica significativamente el alcance de sus advertencias en un momento crucial para el futuro de la humanidad. Sus palabras ya no son simplemente las de un científico eminente; ahora llevan el peso de la distinción científica más prestigiosa del mundo. No es el vértigo del progreso lo que debe preocuparnos, advierte Hinton, sino la llegada del día en que miremos hacia adelante y comprendamos que las riendas han cambiado de manos sin que nos diéramos cuenta.



 

Biografia de Khevin Sánchez Zamora.


Bibliografía.


DotCSV. “¿Qué es una Red Neuronal? Parte 1: La Neurona.” YouTube, video, 2:00, 19 de marzo de 2018. https://www.youtube.com/watch?v=MRIv2IwFTPg&list=PLOgd76BhmcB9OjPucsnc2-piEE96jJDQ.


DotCSV. “¿Qué es una Red Neuronal? Parte 2: La Red.” YouTube, video, 1:53, 26 de marzo de 2018. https://www.youtube.com/watch?v=uwbHOpp9xkc&list=PL-Ogd76BhmcB9OjPucsnc2-piEE96jJDQ&index=2.


Hinton, Geoffrey E. “First Reactions.” Entrevista telefónica por Adam Smith, octubre de 2024. The Nobel Prize. https://www.nobelprize.org/prizes/physics/2024/hinton/interview/.


Knight, Will. “What Really Made Geoffrey Hinton into an AI Doomer.” WIRED, 8 de mayo de 2023. https://www.wired.com/story/geoffrey-hinton-ai-chatgpt-dangers/.


LeCun, Yann, Yoshua Bengio y Geoffrey Hinton. “Deep Learning.” Nature 521, no. 7553 (2015): 436–444. https://www.nature.com/articles/nature14539


Rumelhart, David E., Geoffrey E. Hinton y Ronald J. Williams. “Learning Representations by Back-Propagating Errors.” Nature 323, no. 6088 (1986): 533–536. https://www.nature.com/articles/323533a0.


The Royal Swedish Academy of Sciences. “Press Release: The Nobel Prize in Physics 2024.” 8 de octubre de 2024. https://www.nobelprize.org/prizes/physics/2024/press-release/.

Suscríbete a nuestro newsletter

Recibe contenido exclusivo en tu bandeja de entrada cada semana.

¡Gracias por suscribirte!

bottom of page