
Escribe: Sandy Alexandra Pinedo Pirnog
Estudiante de 4° año de Derecho de la UNMSM
Colaboradora en el curso de MARC Derecho UNMSM
Fuente: https://www.international-arbitration-attorney.com/
En los últimos años, el uso de la inteligencia artificial (IA) ha comenzado a incorporarse aceleradamente en distintos ámbitos, y el jurídico no ha sido la excepción (1). Su implementación, inicialmente limitada a funciones administrativas, ha comenzado a extenderse peligrosamente. Por ejemplo, en el arbitraje se cuestiona la posibilidad de que la IA elija a los árbitros pertinentes para un caso o apoye al árbitro en materia decisoria pues “carecería” de los sesgos que condicionan las mentes humanas. Ante este panorama, es inevitable preguntarnos: ¿Es posible hablar de imparcialidad de la IA? ¿Puede una herramienta diseñada y alimentada por humanos superar las limitaciones de los mismos?
Los jueces peruanos vienen usando la IA. En 2023 la Corte Superior de Justicia de Lima Sur la empleó para fijar una pensión alimenticia (Exp. 00052-2022-18-3002-JP-FC-01). Asimismo, la Corte Superior de Justicia de Lima Norte propone que ayude a decidir si se otorgan medidas de protección en casos de violencia familiar. Si bien en sede arbitral no hay un precedente nacional conocido (considerando la confidencialidad de los laudos), resulta interesante el caso estadounidense LaPaglia vs. Valve Corporation.
En dicho caso, LaPaglia solicitó la anulación del laudo alegando que el árbitro usó IA al punto de que «externalizó su función adjudicadora» y que una IA resuelva el caso «traiciona las expectativas de las partes de una decisión bien razonada dictada por un árbitro humano» (LaPaglia v. Valve Corporation, U.S. Dist. Ct. S.D. Cal. No. 3:25‑cv‑00833, 2025).
Esto también es coherente con nuestra normativa, pues una causal de anulación del laudo es que la composición del tribunal o las actuaciones arbitrales no se ajusten al acuerdo de las partes (Decreto Legislativo N° 1071, artículo 63, inciso c). Ahora bien, el escenario varía si no es el árbitro quien unilateralmente usa la IA, sino que las partes deciden resolver su conflicto empleando una IA como árbitro.
Hay quienes argumentan a favor de esto, sosteniendo que para casos sencillos que se repiten frecuentemente (por lo que se podría “alimentar” a la IA con información de casos anteriores) se podría prescindir del árbitro, logrando decisiones céleres, con atención a detalles que un humano podría obviar, y, especialmente, totalmente imparciales, libres de sesgos propios de toda mente humana. La lógica es sencilla: si las decisiones humanas están cargadas de prejuicios conscientes o inconscientes, una máquina, supuestamente objetiva, podría corregir esa falla.
Sin perjuicio de interrogantes como la violación a la confidencialidad de los laudos (considerando que la IA necesitaría una base de datos de anteriores casos) o la ética y moral necesarias para resolver un conflicto, siendo peligroso dejar labores tan fundamentales en “manos” de programas incapaces de comprender, y mucho menos replicar, la complejidad humana, en el resto de este artículo, queremos centrarnos en la supuesta carencia de sesgos de la IA.
Dicha tesis tiene un problema fundamental: la inteligencia artificial es creada por humanos, su programación responde a decisiones humanas y los datos que utiliza para su razonamiento son escogidos por humanos. La idea de una inteligencia artificial verdaderamente imparcial sigue siendo inalcanzable, principalmente porque se alimenta de información que puede cargar sesgos y parcialidades humanas (Saini, 2023). Al final, si la IA toma decisiones, lo hace sobre estructuras creadas por humanos y, por tanto, no escapa a sus limitaciones.
Un ejemplo son los modelos de “Predictive policing” estadounidenses. Estos utilizan datos policiales para anticipar delitos, pero como están basadas en registros históricos donde ciertas comunidades han sido sobrerrepresentadas por prácticas policiales discriminatorias, terminan reforzando ese mismo patrón, alimentando un ciclo de vigilancia y criminalización (Ashwini K.P., citada en OHCHR 2024).
Lo mismo podría suceder en el ámbito arbitral, donde solo porque en casos similares se ha laudado de cierta forma, la IA podría replicar ello sin considerar las particularidades del caso. Así, en lugar de eliminar los sesgos, corremos el riesgo de perpetuarlos bajo una apariencia de objetividad.
En consecuencia, para responder a la pregunta planteada inicialmente, aunque la IA promete reducir los sesgos que afectan al juicio humano, esta promesa se debilita al reconocer que la tecnología, como los humanos, no es ajena a las estructuras que la originan y la información con la que se alimenta. El uso de IA en el arbitraje debe limitarse a ser una herramienta de apoyo, nunca como sustituto del criterio humano.
Nota:
(1) Ya se empezaron a desarrollar marcos normativos para su aplicación: en Perú, la Ley N.º 31814; en China, las “Medidas provisionales para la gestión de los servicios de inteligencia artificial generativa”; en la Unión Europea, el Reglamento 2024/1689; además de guías de uso en el ámbito arbitral, como la del CIArb.
Referencias:
Saini, Shubham. 2022. “Artificial Intelligence Arbitrator: A Solution to Arbitral Bias?” Indian Journal of Integrated Research in Law 2 (6). https://acortar.link/dZhoFO
OHCHR (Office of the United Nations High Commissioner for Human Rights). 2024. Racism and AI: ‘Bias from the Past Leads to Bias in the Future’. 30 de julio de 2024. https://acortar.link/gizSM0