jueves. 18.04.2024
El Tiempo
Jaime Panqueva
11:15
01/04/23

Chats OGT’s • Jaime Panqueva

“…ser más reflexivos en los usos personales y la exposición que tenemos como individuos a estas tecnologías…”

ChatGPT
ChatGPT
Chats OGT’s • Jaime Panqueva

Me quedo con esta frase que pesqué en un reciente artículo del diario español El País: “Ya no puedes creer en NADA que provenga de un dispositivo digital. Contrástalo todo”, una frase que aplicaba también a la antigua cultura analógica, pero que se ha potenciado al máximo en la era digital. Las inteligencias artificiales generativas no dejan de sorprendernos a quienes ya estábamos algo abrumados con los vocaloides y las aplicaciones de edición de imagen que hacen posible crear imágenes falsas de una verosimilitud asombrosa.  

IA Midjourney, una de las más utilizadas y que hasta hace poco era gratuita, es capaz de crear una imagen en el estilo solicitado siguiendo los parámetros del usuario. Ella interpreta cada palabra y lo plasma en diferentes imágenes que el usuario puede escoger para depurar el resultado final. Impresiona que es posible darle cuantos detalles sean necesarios para facilitar la interpretación de las palabras del usuario. Tras su éxito comercial y actual cambio a política de pago, existe una pléyade más de programas análogos disponibles de forma gratuita como Leonardo AI; Starryai, que cuenta con una versión para Android; Craiyon, de muy fácil uso y descarga; Blue Willow; DALL-E; PrismaAI o DrawAnyone, para retrabajar fotografías personales; entre otros. 

Pero el asunto, por supuesto, no se trata sólo de la generación de imágenes. En un artículo reciente comentaba el desarrollo del ChatGPT y los temores que infundía en la comunidad académica. Esta semana, el pánico ha seguido cundiendo ante el desarrollo de la versión 4.0 de esta aplicación que muestra un nivel de avance abrumador; mientras el GPT-3 tenía 12 capas y 175.000 millones de parámetros. El último modelo de OpenAI puede haber sido entrenado con 100 billones de parámetros, casi 600 veces más que su predecesor.

La capacidad de esta nueva versión llevó a un grupo de personalidades y académicos, entre ellos Elon Musk, Steve Wozniak y Yuval Noah Harari, a publicar esta semana una carta pidiendo una moratoria en los lanzamientos de nuevos desarrollos, en donde solicitan a todos los laboratorios de inteligencia artificial detener durante seis meses el entrenamiento de sistemas más poderosos que el GPT-4. El temor de estas personalidades rebasa el miedo de los académicos a que sus alumnos se vean muy listos a la hora de presentar trabajos o exámenes, se trata de aplicaciones que prácticamente borrarían del mercado de laboral a millones de seres humanos cualificados. En la misma carta comentan que “los sistemas avanzados de IA deberían sólo desarrollarse cuando se tenga alguna certeza del beneficio de sus efectos y cuando sus riesgos sean controlables/administrables”. Temen que este “verano” de la IA pueda llevarnos a un otoño para el que no estemos preparados.

He hecho algunos ejercicios con el ChatGPT y puede emplearse como un asistente del cual debe tenerse mucho cuidado, pues tiende a presentar información falsa como fidedigna. Si el usuario no está familiarizado con el tema a tratar, sencillamente tragará entero todo lo que el chat le proporcione. Y ante el reclamo que uno pueda hacerle, se limitará a contestar: Tienes razón, mis disculpas por la confusión. Lamento la imprecisión en mi respuesta anterior.

Es difícil prever cuál será el futuro de esta revolución de la inteligencia, en particular porque hablamos de capacidades descomunales para realizar operaciones, resolver problemas o tabular información a escalas descomunales, con fines y profundidades que desconocemos, en manos de científicos azuzados por las multimillonarias inversiones de grandes corporaciones privadas. La alarma de personalidades del ámbito científico que prevén las consecuencias disruptivas debería llamarnos, por lo menos, a ser más reflexivos en los usos personales y la exposición que tenemos como individuos a estas tecnologías. 

Comentarios a mi correo electrónico: [email protected]