Historia de la IA a mi manera

Si quieres conocer como se desarrolló la IA y lo que ha supuesto para la sociedad te puede interesar este artículo.

Tabla de Contenido

La historia de la Inteligencia Artificial, contada a mi bola.

Estamos en pleno auge de la IA, ahora todo el mundo manda felicitaciones de sus gepetos caricaturizados de los Simpsons o aparece en una foto junto a Messi. Sin embargo esto no es algo nuevo, la idea de crear máquinas capaces de pensar acompaña al ser humano desde hace décadas. La historia de la IA no es una línea recta de éxitos, si no un camino lleno cagadas y resurrecciones.

Quiero dejar claro que este post NO lo ha hecho la IA (o SÍ, eso nunca lo sabrás). Básicamente es un compendio de datos sobre los que tenía algún conocimiento y/o profundizado en Google, notas rescatadas de artículos sobre el tema y, sobre todo, mucha curiosidad, porque tengo que resaltar que NO SOY NINGÚN EXPERTO en el tema y que hay muchas anotaciones y opiniones personales, que esto no es la Wikipedia ni yo soy Geoffrey Hinton.

Ahora pongamos énfasis:

Todo empieza mucho antes de que existieran los ordenadores personales…

En los años 40, en plena Segunda Guerra Mundial, el Reino Unido, que tenía una mijica las bolas en el gaznate con los nazis, desarrolló una máquina llamada Colossus. Su función era descifrar los mensajes secretos megaencriptados del ejército alemán. No pensaba ni aprendía, pero hizo algo revolucionario para la época: procesar enormes cantidades de información a gran velocidad. Aquello demostró que una máquina podía ayudar al ser humano a resolver problemas complejos.

En ese contexto trabajaba Alan Turing, matemático y pionero de la computación. Tras la guerra, Turing se hizo una pregunta tan simple como inquietante: ¿pueden pensar las máquinas? Con ella sembró la base de todo lo que hoy llamamos Inteligencia Artificial. El test de Turing es un experimento de 1950 que mide el parecido de una máquina al del ser humano, a partir de su comportamiento inteligente. Es decir, este examen permitia distinguir si el interlocutor es un humano o un robot… como los captcha de “to verify you are not a bot” pero más serio. Y la respuesta a tu pregunta es no, ya no se usa, es un sistema actualmente obsoleto, ya que solo mide la imitación superficial, no la verdadera comprensión o conciencia, modelos actuales como ChatGPT lo superan fácilmente, demostrando una gran capacidad de conversación humana.

Aquí vamos a hacer un inciso, ya que Turing, contrariamente a lo que se popularizó, no creo Colossus, que fue desarrollada principalmente por el ingeniero británico Tommy Flowers (Tomás Flores para los amigos), bajo la dirección conceptual de matemáticos como Max Newman y con influencias de las ideas del propio Turing, que sí descifró anteriormente el código de la máquina alemana Enigma con su némesis denominada “Bomba”. La “Bomba” (Cuando lo escribo dos veces me siento King África) atacó el encriptado de Enigma; Colossus era una respuesta posterior y mejorada a la amenaza mayor de Lorenz, un sistema de encriptación más sofisticado de los alemanes. Colossus fue la primera computadora digital electrónica programable, usando miles de tubos de vacío (válvulas).

Después de esta inmersión en la historia seguimos con la movida de la IA.

En los años 50 este meollo empezó a tomarse en serio. El término Inteligencia Artificial fue acuñado por John McCarthy en 1956 durante la Conferencia de Dartmouth, un evento histórico que reunió a algunos de los mejores científicos de la época para discutir la posibilidad de crear una máquina que pudiera pensar como un ser humano. Los científicos estaban convencidos de que, en pocos años, los ordenadores podrían razonar como personas. Se crearon programas capaces de resolver problemas lógicos y realizar tareas simples. El optimismo era enorme pero, admitámoslo, faltaba tecnología real.

En 1958, Frank Rosenblatt, crea el concepto de neurona y redes neuronales. Mucho tiempo después se crean las redes neuronales profundas, las multicapas, pero no desvelemos la trama antes de tiempo.

Durante los años 60, ese entusiasmo continuó. Aparecieron programas que simulaban conversaciones humanas muy básicas y otros que resolvían rompecabezas o demostraciones matemáticas. Para muchos, aquello parecía el principio de una nueva era. Sin embargo, las máquinas seguían siendo limitadas y frágiles. Funcionaban bien en situaciones muy concretas, pero se bloqueaban ante cualquier cambio, como un tertuliano del Sálvame Deluxe.

En 1966, Joseph Weizenbaum crea el primer ChatBot. No tenía nada que ver con el ChatGPT actual, pero era un chatbot. Es decir, tú le escribías y te contestaba. Se llamaba ELIZA. Simplemente era una lista de parámetros, y el chatbot leía esos parámetros y, si encontraba alguno de esos parámetros, respondía con respuestas ya predefinidas… pero para ser el año 66 ya era alucinante.

Para hacernos una idea de como andaba la tecnología de la época, el 20 de Julio de 1969 acompañó en su viaje lunar a Armstrong, Aldrin y Collins el primer ordenador de la historia en incorporar circuitos integrados, un cacharro revolucionario: el Apollo Guidance Computer (AGC). Esa “bestia parda” para la época tenía una capacidad de unos 2 KB (2048 palabras) de RAM y 36 KB (36.864 palabras) de ROM (memoria fija), con una velocidad de reloj de aproximadamente 2 MHz y un bus de 16 bits, resumiendo, un smartphone actual es millones de veces más potente que el AGC.

En los años 70, la realidad empezó a imponerse, como la música Disco. Los avances no iban tan rápido como se había prometido. Los ordenadores no tenían suficiente potencia y los programas eran demasiado limitados. Poco a poco, gobiernos y empresas comenzaron a retirar fondos a la investigación en IA.

Así comenzó lo que se conoce como el primer “invierno de la IA”: una etapa en que los que daban pasta estaban hasta la poll… desilusionados con el tema y la Inteligencia Artificial dejó de estar de moda. No desapareció, pero quedó relegada a laboratorios y proyectos muy específicos.

En los años 80, la IA vivió un pequeño renacer gracias a los llamados sistemas expertos. Eran programas diseñados para imitar el conocimiento de especialistas humanos en campos como la medicina o la industria. Funcionaban bien, pero eran caros, difíciles de mantener y poco flexibles. Cuando dejaron de ser rentables, llegó un segundo invierno de la IA. Otra vez, grandes expectativas seguidas de una guantá a mano abierta para frenar.

El cambio real llegó en los años 90 y 2000. En lugar de intentar que las máquinas “pensaran” como humanos, se empezó a enseñarles a aprender a partir de datos.

Uno de los hitos en el avance tecnológico nos lleva a 1997, donde la nueva versión de la computadora Deep Blue, llamada Deeper Blue (azul más oscuro) jugó contra Kaspárov en mayo de 1997, ganando el encuentro a 6 partidas por 3½-2½, lo que lo convirtió en el primer ordenador en derrotar a un campeón del mundo vigente. A ver esto tenía un poco de “truqui” por parte de la máquina de IBM, ya que la computadora leía los códigos de las jugadas, procesaba una gran cantidad de movimientos que tenía en su base de datos (Entrenada y cargada durante meses por otros maestros del ajedrez), encontraba la mejor jugada y la devolvía. No era inteligencia artificial al uso, era más bien leo mil veces más rápido que tú y te jodo la jugada, ya que podía evaluar 220.000.000 de posiciones por segundo, desechando las que no eran interesantes y aplicando las pocas que tenían “salida real”.

Con la llegada de internet, los smartphones y el crecimiento masivo de información, la IA encontró lo que siempre había necesitado: datos y potencia de cálculo. Sin darnos cuenta, empezó a colarse en nuestra vida diaria recomendándonos música, ayudándonos a buscar información o traduciendo idiomas.

Tenemos que destacar a tres figuras clave en el nacimiento de la IA actual. Yoshua Bengio, Geoffrey Hinton y Yann LeCun, tres investigadores conocidos con el epíteto de “padrinos de la inteligencia artificial”.
Concretamente son considerados los padres del deep learning o aprendizaje profundo, o lo que es lo mismo para entendernos porque suena a película de Spielberg, en el uso de redes neuronales (volvemos a 1958, Frank Rosenblatt) para el reconocimiento de voz, la visión por ordenador y el procesamiento del lenguaje natural. Estas redes neuronales quieren imitar el funcionamiento del cerebro humano, utilizando algoritmos que convierten el proceso biológico del aprendizaje en secuencias matemáticas ¿Cómo te quedas?
En 1986, Hinton inventó los algoritmos de retropropagación, cosa fina para el entrenamiento de redes neuronales. Gracias a eso, en 2012 consiguió crear una red neuronal convolucional llamada AlexNet, compuesta por 650 000 neuronas y entrenada con 1,2 millones de imágenes, que registró tan solo un 26 % de errores en el reconocimiento de objetos y redujo a la mitad el porcentaje de sistemas anteriores, vamos que les hizo una pasada que les borró las pegatinas.
Yann LeCun hizo aportaciones al desarrollo de los algoritmos de retropropagación que Hinton había inventado y en 1989 creó LeNet-5, un sistema de reconocimiento de caracteres escritos. También ha trabajado en métodos de aprendizaje profundo para el reconocimiento de documentos, la interacción humano-computadora, la compresión de imágenes (tecnología DjVu que usan miles de webs) y el reconocimiento de voz.
Bengio ha hecho contribuciones clave en modelos probabilísticos de secuencias, utilizados para el reconocimiento de voz y de escritura y en aprendizaje no supervisado… Vale, yo tampoco sé muy bien que he escrito, pero es importante para el tema que estamos tratando.

Durante años, la Inteligencia Artificial avanzó en silencio, lejos del gran público. Y entonces ocurrió algo distinto.

En 2011, Apple nos presenta a la famosa Siri, un asistente con inteligencia artificial. Era muy básica la joia, pero era IA. Reconocía el lenguaje humano, te hablaba con una voz más o menos natural y te ayudaba con tareas del móvil. Era algo increíble para 2011, hace 15 años. Apple dio el pistoletazo de salida a la inteligencia artificial social.

Esta fue la primera cosa que acojonó a Google que le estaba viendo las orejas al lobo con el tema IA, y en 2014 compra DeepMind, que ya tenían su departamento de IA llamado Google Brain.
En este contexto quiero hablar un poco de una figura importante, Demis Hassabis CEO y cofundador de DeepMind. El crack ha creado con DeepMind un modelo de red neuronal que combina las capacidades de una red neuronal artificial con la potencia algorítmica de un ordenador programable. Ha unido los progresos hechos en machine learning con los procesos de deep learning y el llamado aprendizaje de refuerzo para crear un nuevo campo de aprendizaje por refuerzo profundo, un sistema de inteligencia artificial que abre la puerta a múltiples aplicaciones en el estudio de numerosas disciplinas científicas por su versatilidad y rapidez. En 2021 el equipo de DeepMind logró predecir, con un grado muy elevado de exactitud, la estructura de más de 350 000 proteínas humanas (el 44 % de todas las conocidas), algo que hubiese costado años de estudio de manera tradicional.

Aprovecho para contar que Open AI la fundaron Elon Musk (Sí el de X, Grok, los cohetes que explotan y la Casa Blanca) y Sam Altman en 2015 a raíz de esa compra de DeepMind, tirando de cartera a cascoporro y birlándole a Google expertos en IA como el superstar Ilya Sutskever, que cobraba 2 milloncejos anuales.

¿Y cómo terminó esta movida? Pues en 2018 el bueno de Elon dice que le molan las cosicas de la IA pero no le gusta el nombre de Open y lo va a fusionar con Tesla bajo su dirección, por lo que Altman le dice que deje de fumar cosas raras (esto me lo invento por ser suave) y que se vaya al carajo. Al final de muchas disputas Eloncio se cabrea, se va dando un portazo con el típico “me voy yo, no me echan”, llevándose la pasta, of course.

Así que el pobre Sam se vio en cueros y ¿A quién engatuso? Pues nada menos que a Satya Nadella, CEO de Microsoft, que vio potencial y les dio en 2021 mil millones de dólares by te face, pero con la promesa de tener acceso a su tecnología, no estaba comprando, estaba invirtiendo. OpenAI utilizó la infraestructura de Azure de Microsoft para entrenar sus modelos, lo que les permitió mejorar la capacidad de sus propios modelos y servicios de IA.

Para terminar este periplo, dejo el apunte de que GPT significa Generative Pre-trained Transformer (Transformador generativo preentrenado). Transforma y Genera cosas preentrenadas por el ser humano (O algo así, tampoco soy experto en la materia, si alguien tiene el teléfono de Altman que lo llame para preguntarle).

En 2021 Google se sacó la chorra con LaMDA, que significa Language Model for Dialogue Applications (modelo de lenguaje para aplicaciones de diálogo), es una familia de modelos de lenguaje neuronal conversacional. La primera generación se anunció durante el discurso de apertura de Google I/O de 2021 y era brutalísima, LaMDA te contestaba e inventaba movidas.

La siguiente cosa que les puso el culito apretao a los de Google, y al mundo de la IA en general, fue cuando en Noviembre de 2022 OpenAI marcó un punto de inflexión al hacer la IA accesible para todos con una idea sencilla pero genial: metiéndole un ChatBot para que cualquier usuario pudiese interactuar, hablar con ella, pedirle ayuda o usarla como herramienta creativa, este modelo se basaba en GPT-3.5. La IA dejó de ser algo técnico y distante para convertirse en algo cotidiano.

Ese paso fue clave para la socialización de la IA. No solo avanzó la tecnología, sino también la percepción pública. La Inteligencia Artificial pasó de generar miedo o desconfianza a despertar curiosidad, debate y nuevas formas de trabajar y crear.

Ahora estamos en plena carrera por la superación en el campo de la IA, con Google (los que más recursos tienen de lejos), Open AI y Microsoft a la cabeza de los meollos, Meta a su bola, Grok con sus movidas elónicas, Anthropic emergiendo, Amazon empezando (o afinando, porque estos son como el British Museum con Grecia, lo miro y me lo llevo), Apple rezagado (por ahora) y muchas más empresas buscando su trozo de pastel de una u otra manera.

 

¿DÓNDE NOS LLEVARÁ LA INTELIGENCIA ARTIFICIAL?


Pues yo no tengo ni pajolera idea, pero es que los propios creadores o expertos en la materia tampoco. No sabemos si habrá una “fusión” correcta con la humanidad que nos haga llegar muy lejos, o si se creará una AGI que nos supere tanto que nos domine y nos lleve a nuestra extinción ¡Que viene Skynet!… que esto no lo digo yo, lo dicen algunos entendidos. AGI, para los que habéis puesta cara de un tertuliano de TV en un Museo de Antropología, es Inteligencia Artificial General (Artificial General Intelligence), una forma hipotética de IA que puede entender, aprender y aplicar conocimientos para realizar cualquier tarea intelectual que un humano pueda, a diferencia de la IA actual (IA estrecha) que se especializa en tareas específicas, es la evolución probable de la IA, podría adaptarse y aprender de nuevas experiencias sin ser reprogramada.

 

Lo que sí es cierto es que la IA es una realidad, forma parte de nuestras vidas en la actualidad y pienso que la mejor manera de mirar hacia el futuro es adaptarse y hacerla funcional para mejorar nuestro trabajo y nuestro día a día.

Otra cosa que no se nos puede escapar es el gasto de energía que supone la IA. Los centros de IA gastan muchísima energía, y su consumo está creciendo exponencialmente; entrenar un modelo grande como GPT-4 puede consumir cientos de megavatios-hora (MWh) (equivalente a miles de hogares), mientras que cada consulta de IA gasta mucho más que una búsqueda normal (2-10 veces más). Se estima que la demanda total de los centros de datos podría duplicarse para 2030, llegando a cifras enormes como los 326 TWh/año, lo que se acerca al consumo de una parte significativa de EE. UU.

Algo muy importante que deben plantearse estas empresas es la eficiencia, desarrollar nuevos modelos y técnicas para controlar y minimizar el impacto de ese gasto, que el planeta no está para muchas cargas más. El tema de mandar centros de datos al espacio (más chatarra en órbita, vengaaaa) está calentito, para conseguir a la vez refrigerar y obtener energía directa del sol sin filtros.

Hasta aquí, mi “pequeña historia de la IA” en la que faltarán muchos datos y protagonistas, y puede haber algún error histórico porque, obviamente, yo no estaba allí, tengo que fiarme de fuentes externas, pero espero que os haya entretenido y aclarado algunas cosas sobre unas de las evoluciones tecnológicas más importantes de la humanidad, si no la que más.

P. D.: La foto de cabecera son Sam Altman y Alan Turing frente a una colossus y un centro TPU actual ( Las TPU son Unidades de Procesamiento Tensorial,  ASICs diseñados por Google específicamente para acelerar cálculos masivos de aprendizaje automático (Machine Learning) y redes neuronales, ofreciendo más eficiencia y rendimiento por vatio en tareas de IA específicas, frente a las GPU de Nvidia, diseñadas originalmente para gráficos y luego adaptadas a la IA).