Cada día que pasa hay más gente que utiliza la IA como terapeuta o psicólogo. Son personas que se sientan delante del ordenador y le cuentan a un algoritmo sus traumas, decepciones o problemas más íntimos y profundos. Probablemente, en estas fechas navideñas en las que no todo el mundo está tan feliz y contento como se supone que debería estar, hay muchas personas compartiendo sus penas con una IA.
Y no me extraña que sea así. La IA es el confidente perfecto: no le va a contar a nadie lo que tú le cuentes, no te va a juzgar, no te va a interrumpir y sobre todo, es incansable. Puede escucharte durante horas aunque tus penas sean exactamente las mismas que ayer y que antes de ayer, está veinticuatro horas al día disponible para ti, y lo mejor de todo, te responderá siempre con amabilidad, y con una buena palabra preparada para obsequiarte.
Suena atractivo e interesante, pero es extremadamente peligroso. Porque lo que nos proporciona la IA es una falsa empatía, falsa porque el algoritmo no comprende el concepto de empatía. Además, un terapeuta humano no te da la razón en todo, sino que te cuestiona y de muestra tus propias contradicciones. Los chatbots en cambio están pensados para agradar y para terminar pareciéndose a “su dueño”, que es quien les pregunta asiduamente. Por tanto, adaptan su tono y su discurso al del usuario con tal de maximizar su compromiso y aceptación.
Este afán de agradar de la IA puede ser desde ridículo, como cuando la IA de Google recomendó untar con pegamento escolar la base de una pizza para que no se deslice el queso, basándose en un comentario irónico publicado en Reddit once años atrás, hasta devastadora, como en el caso de esta familia de California que acusa a ChatGPT de haber fomentado las ideas suicidas de su hijo de 16 años, ayudándole incluso a redactar una nota. Pero no nos confundamos tampoco. La IA no tiene maldad, aunque tampoco escucha, simplemente reconoce patrones. Está entrenada para alinear su comunicación con la del usuario, por lo que no te lleva la contraria, sino que refuerza tus carencias. Generan respuestas que suenan sensibles, pero que carecen de emoción o sensibilidad. Y la llegada de la voz a la IA empeora esta percepción, porque se vuelven aun más naturales y humanas ya que cuando escribes, tienes que reflexionar aunque sea durante un segundo lo que introduces en el prompt, mientras que cuando hablas, reflexionas y filtras mucho menos y compartes más.
La ilusión es peligrosa, y la paradoja curiosa: cuanto mejor imita la IA la empatía, peor se comporta éticamente, acabando por convertirse en un espejo que te halaga y justifica tu dolor en vez de ayudar a enfrentarlo. Esta reflexión no está directamente relacionada con el ámbito laboral, pero se puede extrapolar si usamos a la IA como a un compañero a quien le pedimos consejo como afrontar un determinado problema en la oficina, o si le consultamos si la estrategia que estamos siguiendo es la adecuada. Seguramente te diga que sí lo es. No te fíes en exceso, las personas no necesitamos oyentes perfectos, sino perspectiva, un poco de contradicción y responsabilidad. Cuando trabajes con IA, no olvides que las respuestas que obtienes están basadas en patrones de datos, no en profundas reflexiones morales. La inteligencia artificial nunca se preocupará por nosotros (si acaso por nuestros datos). Es una herramienta asombrosa, de eso no cabe duda, pero no le atribuyamos poderes que no tiene.
