El ChatGPT es un modelo de Inteligencia
artificial (IA) desarrollado por OpeanAI, empresa cofundada por Elon Musk. La
cual responde a preguntas y dialoga con humanos. Dando respuestas relativamente
bien articuladas, pero no necesariamente acabadas ni veraces en todos los casos. Cuando no accede a
información, responde que no tiene “opiniones políticas ni preferencias … [que su] función es proporcionar información
objetiva y neutral”. Sometí una respuesta dada por ChatGPT a un software para detectar similitud y me arrojó
0%. Muchas personas y en particular trabajadores de la educación se alarmaron puesto
que algunos estudiantes hacen sus tareas usando ChatGPT.
Este programa conversacional funciona de forma
sencilla, el usuario realiza una pregunta y la IA hace un extractivismo en
millones de datos para brindar una respuesta y seguir un diálogo. Yo la usaría
de forma responsable para que los estudiantes hagan preguntas y problematicen
esas respuestas.
Como
dice el pedagogo crítico Luis Bonilla, “ChatGPT es solo tecnología desprovista
de la condición ética humana y así la debemos entender”. Para la realización de
este artículo, abrí una cuenta de ChatGPT, le pregunté si es ético usarla. Me
respondió que sí, siempre y cuando sea de “manera responsable y respetuosa”, estos
valores solo pueden ser atribuidos a un ser humano y no a una IA. Además,
remarcó que “no tiene emociones ni conciencia propia”. El filósofo
estadounidense Leslie Stevenson estudió las emociones como un asunto
centralmente ético. Es decir, la IA está desprovista de lo que es propio a los
seres humanos.
El problema
de la IA no es nuevo y está con nosotros hace décadas para quedarse. Como dicen
Henry Kissinger, Eric Schmidt y Daniel Huttnlocher en un artículo en The Wall
Street Journal, “La inteligencia artificial generativa presenta un desafío
filosófico y práctico a una escala que no se ha experimentado desde el comienzo
de la Ilustración”. Es precisamente un desafió filosófico porque amerita
pensarse en su complejidad. Porque no hay que rechazarlo a priori, pero tampoco
usarlo inocentemente. Tenemos que preguntarnos ¿qué nos aporta? Nos dicen estos
mismos autores, uno fue secretario de Estado, otro CEO de Google, y el último,
decano en el MIT que, si bien esta IA extrae información de millones de
archivos, libros y artículos científicos, no podrá ayudarnos a comprender los
problemas.
Noam
Chomsky, Ian Roberts y Jeffrey Watumull culminaron su artículo en The New
York Times con la siguiente sentencia: “Dada la amoralidad, la ciencia falsa
y la incompetencia lingüística de estos sistemas, solo podemos reírnos o llorar
por su popularidad”. También, en este mismo diario, Paul Krugman, se preocupaba
por la suplantación de trabajadores del conocimiento por este tipo de IA. En
última instancia, nuestra preocupación es Ética con respecto al uso
irresponsable teniendo en cuenta su amoralidad.
Abdiel Rodríguez Reyes
Comentarios
Publicar un comentario