GPT-3, La tecnología que envidian Alexa y Google Home

En el mundo de la Inteligencia artificial existe un campo especialmente competitivo en el que los grandes gigantes tecnológicos como Google y Amazon invierten mucho dinero y desean encontrar el santo grial.


Estamos hablando del campo del Natural Language Processing (Procesamiento natural del lenguaje). Este campo de la IA lo que busca es que un humano pueda mantener una conversación fluida con una inteligencia artificial de tal manera que el humano no sea capaz de diferenciar que con quién está hablando es con una máquina, es decir, lo que se pretende es poder comunicarte con una máquina de una manera perfectamente humana.

Todos conocemos los modelos cutres de ChatBots como Cleverbot o los famosos asistentes de empresas como Apple, Google o Amazon.

En todos estos casos, se usa la inteligencia artificial de una forma directa o indirecta para tomar decisiones respecto a la “conversación” que estamos teniendo. Pero todos sabemos que actualmente tienen poca fidelidad real y están muy muy incompletos. Esto lo notamos en cosas como que no son capaces de recordar partes anteriores de la conversación y por ende responder en consecuencia del hilo de la conversación. Sencillamente, son muy estúpidos a la
hora de la verdad.

Ahora bien, ¿Existe algún modelo de IA capaz de superar el test de Turing
actualmente?.

Podemos afirmar a medias tintas que esto está cambiando y actualmente tenemos un
aspirante claro.

GPT-3

GPT-3 es un modelo de Deep Learning enfocado al Natural Language Processing creado por la empresa Open AI.

GPT-3 actualmente es la Inteligencia artificial más próxima a marcar este hito, es posible que muchos no hayáis oído hablar de este modelo, pero en él se pueden conseguir conversaciones impresionantes que confundirían a cualquier humano.

Bueno, no es un modelo entrenado expresamente para mantener conversaciones, su potencial excede este hito, es literalmente un generador de texto capaz de continuar escribiendo cualquier texto que se le pase como input, es decir:

Si le pasas una conversación escrita hablándole directamente él te responderá personalmente manteniendo una conversación extremadamente realista de “tú a tú”.

Si le pasas el primer párrafo del Quijote, el continuará la historia de la forma que a él le parezca mejor, inventando y procesando a tiempo real los párrafos.

Si le introduces un párrafo de un noticiario sobre política o economía, él es capaz de mantener un hilo descriptivo completamente coherente con la noticia que se le ha pasado, incluso involucrando las nociones del mundo real, es capaz de reconocer quién es un personaje público, una empresa, una persona y actuar en consecuencia.

Este es un modelo de Deep Learning contempla la friolera de 175.000.000.000 parámetros en su red neuronal, esto es una barbaridad de parámetros a tener en cuenta al alcance de la capacidad de cómputo de pocos súper ordenadores en el mundo, por eso el modelo solo ha sido entrenado una vez en un súper ordenador teniendo como Dataset (set de datos) todas las páginas conocidas en internet, no hay datos específicos de si se ha entrenado con alguna clase de filtro de fiabilidad de las webs que escaneaba, por lo tanto, es posible que las Fake news y demás morralla de la web puedan influir negativamente en su percepción del mundo.

Si se quiere conocer más sobre cómo funcionan las Redes neuronales o que es el Deep Learning, hablamos sobre estos términos en nuestro último post: DEEP LEARNING, MACHINE LEARNING Y ¿QUÉ SON LAS REDES NEURONALES? .

Por desgracia la versión funcional de pruebas es una Beta privada al alcance de poca gente actualmente, por eso dejo un vídeo en español del canal de Youtube Dot CSV que consiguió acceso a la API privada y estuvo experimentando con ella.

Hay que tener en cuenta que el futuro estará lleno de robots que incorporarán estas tecnologías, por eso considero necesario conocer un poco como funcionan y como son entrenadas para adquirir el conocimiento necesario para funcionar. Quién sabe, tal vez el día de mañana tu tostadora incorpore el modelo GPT-3 y te cuente un cuento a la hora de irte adormir.

Bromas aparte, estas tecnologías tendrán fuertes implicaciones morales el día de mañana, porque ya son una realidad y esto solo puede suponer el comienzo de la nueva era tecnológica.

Exploraremos estas implicaciones filosóficas y morales en futuros post. Gracias por leernos.

Deep Learning, Machine Learning y ¿Qué son las redes neuronales?

En el mundo de la Inteligencia Artificial se habla mucho de los conceptos de Red Neuronal, Machine Learning y Deep Learning, para el lector casual interesado en este campo quizás son conceptos demasiado técnicos y difíciles de entender, por eso hoy vamos a centrarnos en asentar de una manera divulgativa estos conceptos tan importantes para poder entender mejor noticias de Inteligencia Artificial y iniciarse en el mundillo de la IA.

Como me gusta decir, -“El conocimiento es poder”. A si que para poder entender el mundo del mañana hay que saber como funciona a día de hoy, ¡Al lío!.

¿Por qué se comparan estos algoritmos con el cerebro humano?

Las redes neuronales son estructuras algorítmicas que intentan emular el comportamiento del tejido cerebral por medio de “neuronas” que son unidades básicas de computación dentro de las redes neuronales.

Las redes neuronales están compuestas de capas de neuronas que se conectan entre sí y varían sus conexiones y sus procesos algorítmicos que manejan internamente.

Representación artística de una red neuronal.

Entonces, cabe preguntarse, ¿Cómo se logra a partir de unas normas tan básicas formar comportamientos complejos como los que ofrecen estos algoritmos?.

Es fácil, al principio la red neuronal es prácticamente aleatoria, su comportamiento viene definido por cómo están conectadas sus neuronas y sus capas y que operaciones realizan.

Esto está completamente desajustado del problema para el que se quiere entrenar, es por medio del entrenamiento del modelo,  que se va a conseguir que una red neuronal ajustándose a sí misma, consiga formar el entramado ideal de sus neuronas y conexiones que le permiten resolver el problema para el que se está entrenando.

Es posible que no se comprenda al 100% su comportamiento, se por eso a lo largo de este post, iremos explorando esta idea.

¿Qué es del Deep Learning y en que se diferencia del Machine Learning?

El propósito general de los modelos clásicos de Machine Learning es conseguir a aprender a través de un dataset identificado y las características que diferencian unos datos de otros a generalizar un conocimiento para extrapolarlo a ejemplos que el modelo nunca haya visto antes. Es decir, el modelo aprende en base  a las características que se le han dicho que tiene que observar de los datos del problema a resolver y a una gran cantidad de datos catalogados.

El Deep Learning es una forma específica de Machine Learning con un potencial mucho mayor dado que en este tipo de modelos, únicamente tenemos que preocuparnos de darle al modelo de aprendizaje un dataSet catalogado sin definirle las características en las que se tiene que fijar, el propio modelo es el que aprenderá a identificar esas características que le ayudan a la hora de identificar el problema.

Quizás sea confuso sin poner un ejemplo, así que vamos a imaginar que queremos resolver el problema de catalogar fotos para saber si lo que contienen es una imagen de un gato.

Modelos de Machine Learning

En un modelo de Machine Learning tendremos que proveer a una red neuronal del dataset para el entrenamiento pero también tendremos que especificarle cuales son las características en las que se tiene que fijar para diferenciar una imagen de un gato, características como pueden ser el número de patas que tiene un gato, los colores habituales del pelaje de un gato, la forma de su cabeza y cuerpo etc..

Flujo de entrenamiento de un modelo de Machine Learning de inteligencia artificial.

De esta manera el flujo de trabajo para el entrenamiento del modelo de Machine Learning será el siguiente: Por medio de esas características y muchas pruebas evaluando datos, debe de ir ajustando las capas de su red neuronal hasta que la tasa de aciertos sea la esperada, en ese momento, podremos decir que el modelo ha finalizado su entrenamiento.

Modelos de Deep Learning

En cambio para un modelo de Deep Learning que se enfrenta al mismo problema, no tenemos que especificarle cuales son las características de las imágenes en las que se tiene que fijar para entrenar a su red neuronal, sino que es la propia red neuronal la que tiene la capacidad de encontrar estas características sin que se hayan programado específicamente.

El flujo de trabajo para el entrenamiento del modelo quedaría así:

Flujo de entrenamiento de un modelo de Deep Learning de inteligencia artificial.

Estos modelos son mucho más potentes e ingeniosos dado que puede sacar característica que no habían sido imaginadas por los desarrolladores, lo que hace que estén mucho más optimizados y se puedan enfrentar a una gran variedad de problemas sin tener que variar mucho el modelo. En este caso, si el modelo está bien hecho, podríamos entrenar al mismo modelo para reconocer perros, hámsters, pájaros etc. Este es el verdadero potencial del Deep Learning, son modelos más complejos pero que poseen una gran capacidad para adaptarse al problema que deben de resolver.

Estas capacidades emergentes de los modelos de Deep Learning abren las puertas a un sin fin de posibilidades a la hora de enfocar y resolver una tarea para la que ha sido planteado un modelo, florecen comportamientos que ni los propios desarrolladores pueden llegar a imaginar a la hora de obtener soluciones para los problemas. Pero de eso hablaremos en un futuro post.

Implicaciones Actuales de la IA

¿Qué es y en que puede convertirse la IA?

La IA no deja de ser un software capaz de aprender a resolver tareas complejas por si sola, es un sistema autómata que es capaz de tomar decisiones inteligentes y detectar el entorno en el que trabaja o asimilar casi cualquier problema y buscar una solución que optimizará hasta niveles nunca antes vistos.

Boston Dynamics robot
Boston Dynamics robot

Podríamos decir que la IA es y será la mente de los robots autómatas del futuro, es decir, la Inteligencia Artificial sería el software y la robótica sería el hardware.

Si, sí, has oído bien, ROBOTS AUTÓMATAS capaces de actuar y sentir igual o mejor que un humano, incluso quien sabe, llegar a tomar conciencia de su propia existencia y actuar acorde una profunda crisis existencial por el hecho de concebir cuestiones como la muerte, la soledad o la avaricia.

Por suerte, ese momento todavía no ha llegado.

Un uso real …

En la actualidad, la Inteligencia Artificial ya es una realidad que solo irá a más con las mejoras de las tecnologías y campos de estudio que la componen, es más, las previsiones en vista a un futuro cercano son de un crecimiento exponencial tanto en el uso como en las capacidades de estas tecnologías.

A día de hoy ya se usan estas tecnologías y tienen implicaciones directas en nuestras vidas. Si eres un consumidor habitual de contenido multimedia en YouTube es posible que alguna vez te hayas preguntado… ¿Quién decide los videos que se me sugieren en la entrada de la web o en los vídeos relacionados ? . Sí, lo has adivinado, es una Inteligencia Artificial de Google que no solo se encarga de personalizar las sugerencias a los usuarios, sino que también modera y analiza absolutamente todo el contenido de la web como son los propios vídeos o los comentarios.

Es fascinante en este ejemplo como ni los propios desarrolladores de Google que crearon este sistema de Inteligencia Artificial saben por qué actúa como actúa, es un sistema pensado para automatizar casi la totalidad de los procesos de la plataforma y optimizarse y aprender con cada acción. Es un sistema autónomo completo.

Muchos más sistemas de IA a día de hoy tienen un gran impacto en el mundo, como por ejemplo, sistemas de trading automático en la bolsa de valores que operan un alto porcentaje de las operaciones financieras que de una manera directa inciden en el comportamiento de la economía a nivel mundial.

La implicación ética

Es por todos sabido desde el tiempo en el que tan solo se especulaba sobre la futura existencia de estas tecnologías, ya se tenía claro que un sistema autónomo de estas características, podría conllevar grandes conflictos éticos.

Con la puesta en marcha de Inteligencias Artificiales que toman decisiones relevantes para todos y el apogeo de la robótica, muchas personas temen que en algún momento una IA autómata con un poder e impacto real en la sociedad y el mundo pueda revelarse contra la humanidad y tomarnos por sus enemigos con tal de conseguir a toda costa sus objetivos.

Por eso mismo ya en 1964, Isaac Asimov planteó las tres leyes de la robótica para asegurar con unas simples directrices que ninguna Inteligencia Artificial pudiera llegar a causar daños a la humanidad.

Estas son directivas que cualquier sistema IA debe tener presentes, o sea deben ser normas incorrompibles que deben estar presentes en cada decisión tomada por las IAs. Para esto se deben programar de una manera que nos asegure la integridad de su toma de decisiones.

Estas son las 3 leyes de la robótica de Isaac Asimov:

(en realidad son 4)

  • Ley Zero: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
  • Ley Uno: Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
  • Ley Dos: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
  • Ley Tres: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Bienvenidos al mundo de la inteligencia artificial

Como todos sabemos, la inteligencia artificial es una tecnología en auge que promete ser el futuro de el comportamiento del software y la robótica.

Esta es un tipo de programación que se basa en que el software se auto-regule a si mismo para aprender a resolver una tarea planteada.

Actualmente en el mundo de la IA hay diversos paradigmas a la hora de realizar algoritmos de IA.

Photo by Markus Spiske on Pexels.com

Machine learning

Es una rama de las tecnologías derivadas de la IA. Es un paradigma de la ingeniería de software que pretende conseguir por medio de técnicas como el aprendizaje reforzado, que un algoritmo se auto- regule para resolver una tarea específica, dentro de este paradigma hay diversas técnicas como:

  • Aprendizaje por refuerzo (Reinforcement Learning)
  • Aprendizaje supervisado (Supervised machine learning)
  • Aprendizaje no supervisado (Unsupervised machine learning)

Las veremos y explicaremos a lo largo del transcurso de este blog.