La página de inicio del chat advierte que ocasionalmente puede generar información incorrecta, producir instrucciones dañinas o contenido sesgado y que su conocimiento sobre el mundo está limitado hasta el 2021.
#ChatGPT es un modelo de lenguaje entrenado con texto de internet, por lo tanto, las respuestas pueden tener imprecisiones. A ella se le sigue añadiendo información (Hasta 2021) y correcciones a la medida que se le hacen preguntas. Así puede en el futuro puede llegar a tener conversaciones más naturales y coherentes.
Lo anterior es suficiente para tener en cuenta que no debemos tomar como definitivo todas las respuestas que nos arroja #ChatGPT, sino que debemos indagar más allá. Recordemos que es una herramienta de apoyo y no de reemplazo de funciones de los humanos, que somos los capaces de comprender y razonar.
Haciendo referencia al hilo del Dr. Juan en Twitter, valga decir qué #ChatGPT como IA, no tiene la capacidad de "alucinar", y desde la pantalla de aterrizaje deja claro que puede generar información incorrecta y sesgada, como él lo admitió previamente. Agrego que, las imprecisiones de las respuestas pueden aumentar cuando se indaga por personas; máxime cuando no se usan datos adicionales, preguntas concretas o un contexto.
En el punto 3 del hilo, lo ideal hubiese sido preguntar algo así: ¿El político, economista y senador de la república de Colombia, Gustavo Francisco Petro Urrego ha estado en la cárcel?, tal vez así se hubiese podido lograr una respuesta un poco más acertada. Y si se preguntan por qué mencioné “Senador de la república de Colombia”; porque para el 2021, fecha de corte de la información de #ChatGPT él era ocupaba dicho cargo.
Vale aclarar que no se puede preguntar por cualquier persona, solo personalidades, sobre la que probablemente exista información en internet hasta el 2021. Si preguntas por ti, probablemente dirá que no existe información. En conclusión, lo ideal sería preguntar algo concreto, con nombres completos, datos complementarios y contexto. Es decir, saber preguntar.
También hay que tener en cuenta que la herramienta #ChatGPT sigue el hilo de la conversación, o sea que las respuestas pueden ser influenciadas por el contexto en el que se viene desarrollando la conversación. En este caso, o sea el hilo del Dr. Juan, exactamente en el punto 3, veo que se había iniciado la conversación preguntando “Comparación de personalidades Uribe y Petro.” A esta pregunta le falta precisión.
Refiriéndome al punto 5 del hilo del Dr. Juan, tiene razón referente a respuestas diferentes ante las mismas preguntas. Esto se debe a la arquitectura "transformer" de #ChatGPT lo cual puede ocasionar que ante las mismas preguntas arroje respuestas diferentes, aún si se hacen desde el mismo ordenador. Por eso, hay que indagar más allá ante las respuestas y no tomarlas como algo definitivo.
Considero igual, urge la capacitación a funcionarios y empleados sobre el uso de herramientas tecnológicas e IA en la Administración de Justicia. Todo con el fin de facilitar la labor judicial. Pero esto tiene sus límites y sus capacidades. Pues estas herramientas no pueden ser usadas en reemplazo de funcionarios o empleados judiciales.
Considero que lo correcto que hubiese podido hacer el juez, es haber incluido en la sentencia una captura de pantalla de la consulta y la respuesta en #ChatGPT. Insisto, de acuerdo con el modo de construcción de la herramienta hay altas probabilidades de que exista respuestas diferentes a igual cuestionamiento.