La inteligencia artificial para quienes no la usan a diario, supone un término muy ligado a lo que las historias de Hollywood y los libros de Philip K. Dick y Asimov entre otros, ha calado culturalmente, pero la realidad es que se trata de un conjunto de tecnologías no solo casi centenarias, sino además muy asentada en nuestro día a día y que ofrece soluciones muy eficaces a procedimientos que usamos sin darnos cuenta. Es por ello que, tras definir el término y los usos de la inteligencia artificial, desde elternativa nos gustaría profundizaros en su origen, los datos más relevantes, curiosidades históricas y su actual auge en sectores como el retail, la banca y los seguros entre otros.

 

Historia de la inteligencia artificial: sus tempranos inicios

 

Cuando nos hemos referido a la IA como una tecnología casi centenaria, es debido a que su origen más primigenio se remonta a la década de los 30 del pasado siglo, ya de manos de una figura muy relevante en el desarrollo de las que conocemos hoy día como nuevas tecnologías: Alan Turing.

Alan Turing no solo es considerado el padre de la inteligencia artificial, sino como el precursor de la informática moderna. Ingenió numerosas soluciones basadas en computación y el uso de algoritmos para la previsión y prevención de casuísticas ya en la primera mitad de siglo, siendo una de ellas relevante para que el bando aliado ganara la II GM al ser capaz de descifrar los mensajes ocultos que los nazis se enviaban a través de la máquina Enigma.

 

Para conocer los detalles de este suceso histórico y otros relevantes a la biografía de Alan Turing, recomendamos el visionado de la película «Descifrando Enigma» («The Imitation Game»)

 

En cuanto al campo de la inteligencia artificial que nos ocupa, Turing ya afirmaba en la década de los 50 en su estudio “Computing machinery and intelligence” que las máquinas eran “capaces de pensar”: “Si una máquina tiene un comportamiento inteligente en todos los aspectos, entonces es inteligente”. Para poder teorizar con esta afirmación, ideó el aún vigente “Test de Turing” o juego de imitación, mediante el cual se prueba la eficacia de una IA sometiendo a juicio ciego las respuestas escritas de un ser humano y de una computadora. Se considera IA si el sistema electrónico consigue confundir al juez.

El reconocimiento de la inteligencia artificial como tal

 

Son muchos los casos en la historia en los que el reconocimiento por la innovación y creación de nuevas soluciones en un campo, no se lo lleva quien lo crea, sino quien le pone nombre: quien identifica los usos y los traslada a la vida cotidiana. Pese a lo relevante y reconocido de los aportes de Turing, no se empieza a hablar de inteligencia artificial en los términos que hoy la conocemos hasta 1956, cuando John McCarthy, Marvin Minsky y Claude Shannon acuñaron formalmente el término durante la conferencia de Dartmouth denominada “Dartmouth Summer Research Project on Artificial Intelligence” (Proyecto de investigación de verano de Dartmouth sobre inteligencia artificial).

En tal conferencia, se partía de la premisa de que “la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, ser descrito con tanta precisión que puede fabricarse una máquina para simularlo”. De hecho, a McCarthy también se le atribuye acuñar el término “cloud computing”, y junto a Minsky, fundó el laboratorio del MIT donde surgirían las primeras teorizaciones y prototipados de inteligencia artificial.

Previamente, se atisbaron avances clave no solo en el desarrollo de la inteligencia artificial, sino en su teorización, como los aportes de Warren McCulloch y Walter Pitts a la conceptualización o modelado de neuronas artificiales cuando aún este nombre no era vigente.

 

La popularización del término IA y su impacto en la cultura

 

Que tengamos una concepción contemporánea sobre el término inteligencia artificial, es debido a que a pesar de los avances dados entre la década de los 30 y los 50, estableciéndose bases firmes sobre su desarrollo y conceptualizando sus posibles usos, la falta de resultados y su no materialización en proyectos concretos produjo un total vacío al respecto en las décadas de los 60 y 70, abordándose nuevamente de forma tímida en los 80 y 90, y explosionando ya a partir del nuevo siglo. Son los denominados “inviernos y veranos de la IA”: periodos en los que la inversión en esta materia fluctúa de alta a baja y viceversa sin un aparente término medio.

Así, el siguiente hito lo encontramos en 1987, cuando Martin Fischles y Oscar Firschein describieron lo que deberían ser los 12 atributos de un agente inteligente:

 

  • Tener actitudes mentales tales como creencias e intenciones.
  • Tener la capacidad de obtener conocimiento, es decir, aprender.
  • Poder resolver problemas, incluso descomponiendo problemas complejos en otros más simples.
  • Capaz de realizar operaciones más complejas.
  • Poseer la capacidad de dar sentido, si es posible, a ideas ambiguas o contradictorias.
  • Planificar, predecir consecuencias, evaluar alternativas (como en los juegos de ajedrez)
  • Conocer los límites de sus propias habilidades y conocimientos.
  • Poder distinguir a pesar de la similitud de las situaciones.
  • Poder ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.
  • Poder generalizar.
  • Poder percibir y modelar el mundo exterior.
  • Poder entender y utilizar el lenguaje y sus símbolos.

 

De esta forma, el fin de la creación de una inteligencia artificial no solo se basaría en ser capaz de imitar el raciocinio humano, sino emular la mente humana, funcionar y responder como tal, lo que conlleva evolucionar y alcanzar un conocimiento superior al que fue concebido.

Con estos principios como base, en los 90 se profundizó en el concepto y en el desarrollo de agentes inteligentes, siendo uno de los más famosos el icónico ordenador Deep Blue de IBM, que en 1997 consiguió ganar al entonces campeón mundial de ajedrez Gari Kasparov. Se toma esta fecha como referencia a la hora de hablar de la popularización del término, ya que este hecho hizo saltar a la IA de los laboratorios y entornos académicos, a la cultura popular.

La edad de oro de la inteligencia artificial

 

Llega el nuevo siglo y conceptos como chatbots, recomendadores, clasificadores, etc., se vuelven frecuentes y de común uso en sectores que, como es el caso de la atención al público, permiten que se aumente el servicio hasta las 24 h., pero aún con el hándicap que planteaba el decano test de Turing: un chatbot nos pueda ayudar a resolver cuestiones básicas, incluso complejas a medida que se le introduce más información, pero en los tempranos 2000 aún era muy sencillo distinguir la máquina del ser humano, sin ser posible el “engaño”.

No obstante, la mejora constante en esta tecnología permitió que supercomputadores de nueva generación como el supercomputador Watson (también perteneciente a IBM), siguieran marcando hitos, en este caso en 2011, ganando el concurso televisivo “Jeopardy!” a sus dos mejores concursantes.

 

 

Lo que diferenciaba a Watson de su antecesor Deep Blue no era el hecho de ganar en esta ocasión en un concurso en el que la interactuación con el resto y la capacidad y velocidad de improvisación son clave, sino en ser una computadora capaz de aprender a medida que trabaja y acumula información y que puede interactuar con el lenguaje humano en un lenguaje natural, saliéndose del simple prototipado y ser usada por numerosos clientes a través de la tecnología cloud, como ocurre en el caso de España con Caixabank y Repsol entre otros.

El funcionamiento de Watson fue una de las claves en el desarrollo y teorización del Deep Learning, acercándose al público masivo con aplicaciones como la creación de Siri ese mismo año de manos de Apple, comenzando las primeras experiencias de aprendizaje automático y los primeros indicios de aprendizaje profundo de forma globalizada. Ya no se habla de chatbots, sino de asistentes virtuales…

 

Pese a icónicos ejemplos como Deep Blue o Watson, no fue hasta el 7 de junio de 2014 que la IA denominada «Eugene Goostman», pasó por primera vez en la historia el test de Turing

 

Pese a todos estos avances de pasos agigantados en un área estancada desde hace décadas, no fue hasta 2014 que, por vez primera, una inteligencia artificial se hizo merecedora del término al hacer creer a un tercio de sus  interrogadores que era un chico de 13 años llamado Eugene Goostman, respondiendo a preguntas de forma natural e incluso con sentido del humor, superando por tanto el test de Turing.

Desde entonces la inteligencia artificial se ha ido abriendo paso hasta ser de uso cotidiano, como es el caso de los traductores automáticos, la conducción autónoma en los Tesla o Google Lens, que utiliza el visor de la cámara de los smartphones para ser capaz de identificar todo tipo de imágenes y ofrecer información relevante al respecto.

 

La IA hoy en día

 

Aún hoy en día seguimos inmersos en esta edad de oro de la inteligencia artificial, que cada día conquista nuevos sectores y usos que permiten mejorar la eficiencia, automatizar procesos complejos y ofrecer soluciones ágiles a conflictos y problemáticas en los que el propio ser humano se ve superado o requeriría de mucho más tiempo.

Así, la inteligencia artificial ya no es una simple simulación de tareas de humanos en manos de computadoras, sino que es toda una metodología y herramienta eficaz para usos como la segmentación de clientes, previsión de ventas, optimización de recursos, tratamiento de datos masivos y un largo etcétera que se construye a cada momento.

De hecho, el uso de inteligencia artificial en las empresas se está imponiendo a otras metodologías y supone toda una herramienta competitiva cuya utilización aporta grandes ventajas tanto económicas como estructurales, aplicándose en sectores como la banca y seguros, farma, retail, turismo y ocio, energías, educación, transporte y logística, telecomunicaciones, real estate, industria, etc.

 

2025: año clave para la inteligencia artificial

 

La IA se abre paso a gran velocidad, compensando rápidamente ese letargo de décadas al que se vio asumida desde su concepción hasta el s. XXI. Así, ya se habla de 2025 como el año clave y umbral en el que, de inteligencias artificiales instaladas en sistemas habituales como los ordenadores o los móviles, se pasen a combinaciones con otras tecnologías como la robótica o la realidad aumentada para ofrecer una experiencia más completa y realista.

De esta forma, se prevé que en 2025 explotará el uso de IA: una tecnología que hoy en día se asienta pasando de asistentes virtuales en el móvil, a conserjes robotizados a los que consultar “cara a cara”, por indicar un único ejemplo de hacia dónde se dirige la IA. Tal es la confianza en este tipo de tecnología que previsiones del sector cifran en 30.000 millones de € los destinados a este tipo de estrategias para esta fecha.

Es por todo ello que, si en algún momento te has planteado incorporar inteligencia artificial en tu sector profesional o agilizar procesos que refieran a la analítica o gestión de datos, ahora es el mejor momento de dar el paso en cuanto apostarás por una tecnología que aporta hoy una notable ventaja competitiva. En Elternativa te asesoraremos y te acompañaremos en la implementación de los servicios de IA (machine learning / deep learning, big data, data science…) que mejor encajen con los objetivos y el entorno de tu empresa. Confía en la tecnología llamada a cambiar cómo vemos y analizamos los datos, confía en los profesionales que la hacen posible día tras día.