Este año el torneo de tenis de Wimbledon ha hecho historia ya que, por primera vez, ha eliminado por completo a los jueces de línea, que son los que siempre dictaminaban si la pelota había salido fuera o no en cada golpe, 𝘆 𝗵𝗮 𝗰𝗼𝗻𝗳𝗶𝗮𝗱𝗼 𝘁𝗼𝗱𝗮𝘀 𝗹𝗮𝘀 𝗱𝗲𝗰𝗶𝘀𝗶𝗼𝗻𝗲𝘀 𝗮 𝗹𝗮 𝗜𝗻𝘁𝗲𝗹𝗶𝗴𝗲𝗻𝗰𝗶𝗮 𝗔𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗮𝗹, con un sistema formado por 450 cámaras y algoritmos de precisión milimétrica. Se supone que con esa decisión se acabaría cualquier polémica arbitral, y además, porque no decirlo, se ahorrarán los costes de los jueces de línea.
Sin embargo, ocurrió un hecho curioso. En el partido de octavos de final entre la rusa Pavlyuchenkova y la británica Kartal, el sistema falló claramente al no detectar una bola que botó manifiestamente fuera. Al fallo le siguió una pausa confusa en la que nadie sabía bien qué hacer hasta que el juez de silla (a ese no le había sustituido ninguna IA) decidió que se repitiera el punto, causando una cierta indignación en la pista por la poca seriedad de dicha decisión, ya que el árbitro había visto con sus propios ojos que la bola había botado un palmo fuera. En tenis, los puntos no se repiten, o son buenos o son malos, así que la decisión suena a lo que habría pasado si dos amigos están peloteando una tarde cualquiera en el polideportivo del barrio y no se acaban de poner de acuerdo entre ellos en lo que sucede en un punto.
¿Por qué esa decisión? Porque es lo que dicta el protocolo. Si la máquina falla, se repite el punto, aunque ses evidente para todos que la máquina haya fallado y que una de las jugadoras saldrá manifiestamente perjudicada por la decisión.
Hay que decir que después se atribuyó el error de la máquina a un error humano. Parece ser que un operario había desactivado el sistema sin querer (quien sabe si fue más bien “sin querer evitarlo”) durante el partido, y la organización del torneo tuvo que pedir disculpas públicamente, bloqueando la función de desactivación manual para evitar nuevas incidencias futuras. Por cierto, y abro paréntesis, dudo mucho que la Inteligencia Artificial se convierta por sí sola en una especia de dios computarizado y extermine a todos los humanos de la faz de la tierra en 2027 como ha pronosticado recientemente la organización AI Futures. Pero que algún humano desaprensivo toque un botón que provoque que una IA haga alguna barrabasada de consecuencias apocalípticas, no lo tengo tan claro…
No deja de tener su gracia: se sustituye al humano por la IA porque la IA se supone que será mucho más precisa e infalible, y luego un error humano convierte a la IA en todo lo contrario, en una chapuza que confunde y equivoca. La primera moraleja está clara. La IA hace cosas maravillosas, pero depende totalmente de una 𝗰𝗼𝗿𝗿𝗲𝗰𝘁𝗮 𝗶𝗺𝗽𝗹𝗲𝗺𝗲𝗻𝘁𝗮𝗰𝗶ó𝗻 y de una 𝘀𝘂𝗽𝗲𝗿𝘃𝗶𝘀𝗶ó𝗻 humana experta y 𝗰𝗼𝗻𝘀𝘁𝗮𝗻𝘁𝗲.
Y después, surgen otras reflexiones: ¿qué papel deben jugar las personas cuando la tecnología se equivoca? ¿Dónde está su liderazgo para gestionar situaciones perjudiciales o injustas motivadas por ese error? ¿Y el fair play de las jugadoras? Porque vale que tenga que repetir el punto, pero si reconozco que la bola ha salido fuera, la tiro directamente fuera en la repetición del punto para reparar la injusticia que ha cometido el sistema…
La conclusión es evidente. Aunque suene paradójico, cuanto más automaticemos los procesos, más importancia cobra la supervisión y el criterio de los humanos. También es evidente que debemos entrenarnos para gestionar situaciones inesperadas y que para ello, es fundamental tener criterio propio en los tiempos de la Inteligencia Artificial. Y que la tecnología ayuda, pero el juicio humano y la integridad de las personas siguen siendo insustituibles.
