Por ahora solo los más enterados son capaces de entender qué es eso del lenguaje GPT-3, una herramienta de inteligencia artificial (IA) que a ratos desconcierta y las más de las veces asusta. En los últimos días se ha liado una buena en los perfiles en redes sociales de expertos en IA por el anuncio que ha hecho la empresa californiana OpenIA sobre su último modelo de lenguaje desarrollado, el GPT-3. Dicho a lo bruto, este sistema sería capaz de generar conversaciones y sus respuestas estarían basadas en el aprendizaje de una descomunal cantidad de información disponible en internet. Vamos, que tú le das una orden comprensible y la plataforma la desarrolla. No hablamos de preguntar la hora y que te la diga, hablamos de que tú escribas un par de frases de un artículo y la inteligencia artificial monte el artículo entero.
Para lograr esa complejidad en sus respuestas, el modelo de redes neuronales ha tenido que entrenar y mucho. Según sostienen los especialistas de la publicación Xataka, GPT-3 se ha aprendido todos los libros que se hayan escrito y estén disponibles en internet, toda la Wikipedia y millones de páginas web y documentos científicos. “Esencialmente ha absorbido todo el conocimiento humano más relevante que hemos publicado en la red”. Se habla de que el modelo ha entrenado con más de 175.000 millones de parámetros.
¿Estamos ante el último modelo de procesamiento de lenguaje natural, lo que se conoce como NLP? Probablemente no. Todas los gigantes tecnológicos participan en una carrera sin meta conocida. Ahora ha sido una start-up impulsada por Elon Musk, el magnate tecnológico de Tesla, pero todas las compañías investigan con la IA. Por procesamiento de lenguaje natural hablamos de un campo de la ciencia computacional que se dedica a investigar mecanismos eficaces para la comunicación entre personas y máquinas por medio del lenguaje natural, de las lenguas que usan los humanos.
Los expertos ponen un sencillo ejemplo, el autocompletado cuando escribimos un mail. Empiezas una frase y la máquina te da opción para la siguiente palabra. Ofrece predicciones de palabras en función de todas las palabras anteriores. Pues ahora pensemos esto a lo grande: hacer un texto completo, largo y complejo solo con mandarle una idea. También podrá conversar de manera natural con una persona sobre temas sofisticados. Esta IA tiene una base de datos tan ingente que tendría respuesta para todo. Programadores, diseñadores y periodisas tendrían que estar temblando pero los impulsores del modelo han asegurado que su utilidad por el momento no es mucha. Para empezar, por muchas respuestas que genere, esta herramienta predictora no entiende el contexto ni quizá nada de lo que predice. “Como carece de razonamiento abstracto es fácil que cometa errores que una persona no cometería jamás”, explican en Genbeta, publicación dedicada al software y las aplicaciones.
Como siempre y hablando de la actualidad, el principal riesgo de estos inventos mágicos es que pueden utilizarse para la creación y difusión de bulos y desinformación. Como explicaba hace poco en Levanta la cabeza el responsable de divulgación de OdiseIA, Borja Adsuara, el buen uso de la inteligencia artificial solo depende de las personas que están detrás. “No hay que tener miedo a la IA, solo al ser humano porque la maldad es humana”.