Historia de la Inteligencia Artificial

La historia de la inteligencia artificial comenzó en 1943 con la publicación del artículo «A Logical Calculus of Ideas Immanent in Nervous Activity» de Warren McCullough y Walter Pitts. En ese trabajo, los científicos presentaron el primer modelo matemático para la creación de una red neuronal.

 

El primer ordenador de red neuronal, fue creado en 1950 por dos alumnos de Harvard, Marvin Minsky y Dean Edmonds. Ese mismo año, Alan Turing publicó el Test de Turing, que todavía se utiliza hoy para valorar las IA.

La primera vez que aparecen los conceptos de aprendizaje automático e inteligencia artificial fue en los años 1950. El termino inteligencia Artificial se usa formalmente desde la conferencia de Darmouth, encuentro considerado como evento que inauguró ese campo, pero ya se había trabajado mucho en ello, durante años en los que se propusieron muchas definiciones distintas que nunca se aceptaron totalmente por la comunidad investigadora.

En ese acto, los investigadores presentaron los objetivos y la visión de la IA. Muchos consideran esta conferencia como el verdadero nacimiento de la inteligencia artificial, tal y como se conoce hoy en día.

En 1952, Arthur Samuel creó un software capaz de aprender a jugar al ajedrez de forma autónoma. El término de inteligencia artificial fue utilizado por primera vez en la conferencia «Dartmouth Summer Research Project on Artificial Intelligence» de John McCarthy en 1956.

En la conferencia de Darmouth, donde acudieron Mccarthy, Minsk y Shanon, se hicieron pronósticos exitosos en un margen de diez años que no se cumpleron. Antes de caer en el abandono del campo, MacCarthy en 1958 desarrolla en el MIT, el Lisp processor, primer lenguaje para procesamiento simbólico. En 1959, Samuelson uso el termino de aprendizaje automático mientras trabajaba en IBM en el campo de la Inteligencia Artificial, y Rosenblatt introduce el perceptrón, que es el modelo matemático mas simple de una neurona y la unidad básica de las redes neuronales.

En 1959, Arthur Samuel acuñó el término Machine Learning mientras trabajaba en IBM. Por su parte, John McCarthy y Marvin Minsky fundaron el MIT Artificial Intelligence Project. En 1963, John McCarthy también creó el «AI Lab» en la Universidad de Stanford.

Ya en 1963 Quillan desarrolla las redes semánticas como forma de conocimiento lingüístico en la que los conceptos y sus relaciones se presentan mediante grafos. En 1964, Bertrand Raphael proporciona el semantic information retrieval ( SIR ), capaz de inferir conocimiento basado en la información suministrada. A mediados de esta década aparecen los sistemas expertos capaces de predecir la probabilidad de una solución bajo un conjunto de condiciones.

En los siguientes años, aparecieron dudas sobre este campo. En 1966, el informe estadounidense ALPAC puso de manifiesto la falta de avances en la investigación de la traducción automática destinada a traducir simultáneamente la lengua rusa en el contexto de la Guerra Fría. Muchos proyectos financiados por el gobierno estadounidense fueron cancelados.

A principios de los años 70, Colmerauer crea el programmation en logique (Prolog ), lenguaje de programación utilizado en inteligencia Artificial y se desarrollo el concepto de scripts, o secuencia de comandos.

En 1973, el gobierno británico publicó su informe «Lighthill» en el que destacaba las decepciones de la investigación en IA. Una vez más, los proyectos de investigación fueron reducidos por los recortes presupuestarios. Este periodo de duda duró hasta 1980, y ahora se denomina el «primer invierno de la IA«.

Después se perdió el interés en este campo, así como la financiación de gobierno americano y llegó el inverno de la IA, hasta el año 1980.

Ese invierno terminó con la creación de R1 (XCON) por parte de Digital Equipment Corporations. Este sistema comercial experto está diseñado para configurar los pedidos de nuevos sistemas informáticos, y provocó un auténtico auge de las inversiones que se prolongó durante más de una década.

Japón y Estados Unidos hicieron grandes inversiones en la investigación de la IA. Las empresas se gastaron más de mil millones de dólares al año en sistemas expertos y el sector no paraba de crecer.

Desgraciadamente, el mercado de las máquinas “Lisp” se desplomó en 1987 al surgir alternativas más baratas. Este fue el «segundo invierno de la IA». Las empresas perdieron el interés por los sistemas expertos. Los gobiernos de Estados Unidos y Japón abandonaron sus proyectos de investigación y se gastaron miles de millones de dólares para nada.

Diez años después, en 1997, la historia de la IA estuvo marcada por un acontecimiento importante. La IA Deep Blue de IBM triunfó sobre el campeón mundial de ajedrez Gary Kasparov. Por primera vez, el hombre fue derrotado por la máquina.

Diez años después, los avances tecnológicos permitieron el resurgimiento de la inteligencia artificial. En 2008, Google hizo grandes avances en el reconocimiento de voz y lanzó esa función en sus aplicaciones para smartphones.

En 2012, Andrew Ng alimentó una red neuronal con 10 millones de vídeos de YouTube como serie de datos de entrenamiento. Gracias al Deep Learning, esta red neuronal aprendió a reconocer un gato sin que se le enseñara lo que es un gato.

En 2016 se produjo otra victoria de la IA sobre el ser humano, con el triunfo del sistema AlphaGo de Google DeepMind sobre Lee Sedol, el campeón de Go. La inteligencia artificial también conquistó el campo de los videojuegos, especialmente con DeepMind AlphaStar en Starcraft u OpenAI Five en Dota 2.

Actualmente, empresas de todos los sectores utilizan el Deep Learning y el Machine Learning para infinidad de aplicaciones. La IA no deja de avanzar y sorprender con su rendimiento. El sueño de la inteligencia artificial general se acerca cada vez más a la realidad.

La inteligencia artificial ofrece muchas promesas para la humanidad, pero también podría representar una amenaza más peligrosa que la bomba nuclear.

Con su capacidad de aprender y evolucionar de forma autónoma, la IA podría superar algún día la inteligencia humana. Entonces podría decidir volverse contra sus creadores.

Este oscuro presagio puede parecer sacado directamente de una película de ciencia ficción, pero es una posibilidad muy real. Destacados expertos como Stephen Hawking, Elon Musk o Bill Gates ya han dado la voz de alarma sobre la inteligencia artificial.

Según ellos, la IA representa un riesgo inminente e inevitable en los próximos años. Por eso piden a los gobiernos que regulen este campo para que se desarrolle de forma ética y segura. Más de un centenar de expertos ha pedido también a Naciones Unidas que prohíba los «robots asesinos» y otras armas militares autónomas.

Sin embargo, otros expertos creen que el futuro de la inteligencia artificial depende únicamente de cómo decidan utilizarla los humanos. Incluso una IA aparentemente inofensiva podría manipularse y utilizarse de forma malintencionada. Ya podemos verlo con el incremento de los «DeepFakes», vídeos falsos creados mediante Deep Learning para mostrar a una persona en una situación comprometida.

La inteligencia artificial seguirá desarrollándose a gran velocidad en los próximos años. La humanidad es quien debe decidir qué dirección tomará su desarrollo.

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *