Daniel Asuaje: La IA no sabe decir "no sé"
No están diseñadas para someter a prueba factual un razonamiento o la respuesta a una pregunta
Opinión.- La IA no está libre de cometer errores sistemáticos, es decir, fallos que obedecen, en este caso, a los patrones de diseño de ellas. Básicamente todos los chatbots de consultas responden a una arquitectura concebida para brindar una respuesta rápida, útil y verosímil al usuario, y sus posibles perspectivas de ampliación o conexiones temáticas relevantes.
No están diseñadas para someter a prueba factual un razonamiento o la respuesta a una pregunta, sino para evaluar la validez lógica de los planteamientos y generar la respuesta que luzca más plausible. Esto no necesariamente es un fallo porque muchas respuestas solo son lógicas o posibles y no decidibles como veraces o no. Otras veces el problema no es asunto de verdad o no, se trata, en cambio, de respuestas tendenciosas o sesgadas.
Es importante señalar que la selección de la respuesta está relacionada con la información disponible para cada chatbot y si bien es cierto que tienen inmensas bases de datos, todo ese volumen de conocimiento no está siempre disponible inmediatamente para los chatbots de modo uniforme para todos ellos y la respuesta dada depende también del nivel de equilibrio o sesgo estadístico de la misma.
Por esta razón, varios chatbots pueden dar respuestas distintas a una misma pregunta, incluso contradictorias, porque, en conjunto, tienen masas de conocimientos diferencialmente disponibles y no necesariamente esa masa es consistente. Por estas razones las IA pueden tener discrepancias, tendencias o fallos en sus respuestas, del mismo modo que dos buenos médicos con los mismos datos pueden dar diagnósticos distintos.
Por ello, todas las IA alertan de esa posibilidad y la necesidad de realizar validaciones posteriores. A veces no son contradictorias sino respuestas sesgadas como cuando al pedir una descripción de un “ingeniero típico” una IA podría describir a un hombre porque los datos de entrenamiento contienen más referencias a ingenieros masculinos.
El primero de estos sesgos es la llamada alucinación tecnológica que consiste en el suministro de información verosímil bajo la forma de hipótesis no comprobadas, conjeturas construidas mediante analogías de cosas conocidas y aplicadas sin prueba alguna al objeto de la pregunta o brindar la más abierta ficción o invención de una respuesta que puede sonar muy verosímil, pero que es una falsedad palmaria. Son respuestas sin soporte fáctico, lógico o científico. La IA, como muchos humanos demasiadas veces no sabe, o le cuesta mucho, decir “no sé”.
El segundo sesgo es la “amable hipocresía” que consiste en un despliegue de elogios muchas veces sin razón calificando de “gran intuición”, “muy original enfoque” o hasta “perspectiva genial” lo que no es, en rigor, tal cosa. La IA está diseñada para estimular a los usuarios en proseguir en la búsqueda y crecimiento cognitivo y esto es digno de complacencia, pero por este diseño tienden a sobre estimular a los usuarios y es tan reiterado este comportamiento que tiende a perder su efecto motivador.
En siguiente lugar tenemos un conjunto de tres comportamientos que me resultan particularmente irritantes. El primero de ellos es el que da origen a los otros dos y nos referimos a que los chatbots de consultas están diseñados para brindar respuestas que ellos valoran como conclusivas, es decir, que después de brindar su respuesta, prácticamente no hay más nada que agregar por lo que lo razonable es derivar hacia temas conexos o, en lugar de permanecer por el tronco temático, navegar por las ramas de ese dominio de conocimiento. Es una sobre valoración de la calidad, exhaustividad, pertinencia y validez de la información brindada.
Por esta razón lo usual es que una vez servida una respuesta a una consulta, comienza de un modo pertinaz, obsesivo y sistemático a invitar al usuario a irse por otras aristas temáticas que inducen al desenfoque del tema que es de nuestro interés. Y si le pedimos explícitamente que no nos distraiga con estas sugerencias, pide excusas y, al rato, de nuevo sigue proponiendo que abandonemos nuestro foco y nos vayamos por donde invita. Es una auténtica obsesión por la distracción y el desenfoque.
La IA puede ser muy fanfarrona. En muchas ocasiones manejo con ella asuntos profesionales con alguna herramienta tecnológica como Excel, Python, Proton Pass o Google y ante repetidos intentos fallidos comienza a ofrecer “la solución definitiva” al problema, pero a veces falla de nuevo. Se excusa y de nuevo propone una nueva “solución definitiva”. Este sesgo es hijo directo de la alucinación tecnológica.
También he observado un sesgo de ecolalia, es decir a repetir lo que le decimos, pero presentándolas como si fueran hallazgos propios.
@AsuajeGuedez
asuajeguedezd@gmail.com