|
Diciembre 2025
El impacto de la inteligencia artificial en el arbitraje

Por Beatriz Pimentel Rosales, Máster en Arbitraje Comercial y de Inversiones, Universidad Alcalá de Henares
Hoy en día la inteligencia artificial es una tecnología que está revolucionando el mundo entero, y el arbitraje no es ajeno a la misma, debido a su flexibilidad y celeridad, este es un procedimiento que se adapta fácilmente a los cambios tecnológicos, como sucedió por ejemplo durante la pandemia covid-19, en la que se implementaron rápidamente las audiencias virtuales para no paralizar los procesos.
Uno de los mayores beneficios de la IA es el ahorro de tiempo y consecuentemente de gastos, puede ser muy útil para la realización de tareas repetitivas, análisis voluminosos de datos, revisión de jurisprudencia, traducción casi inmediata de documentos, transcripción de audiencias, etc...
Según la encuesta realizada sobre la IA en Arbitraje Internacional realizada por White & Case, el 2 de junio de 2025, “Se prevé un crecimiento significativo del uso de la IA en los próximos cinco años, impulsado por su potencial de eficiencia. Sus principales usos actuales incluyen la investigación fáctica y jurídica, el análisis de datos y la revisión de documentos. También se prevé un aumento de la asistencia de la IA en la redacción y evaluación de argumentos jurídicos, pero persisten importantes preocupaciones sobre la precisión, las cuestiones éticas y la capacidad de la IA para gestionar razonamientos jurídicos complejos.”[ii]
Es importante mencionar que su uso conlleva ciertos riesgos como:
(I) Las alucinaciones, es decir, puede brindar información que a primera vista parece lógica y hace sentido, pero que no necesariamente concuerda con la realidad, ya que la inteligencia artificial generativa está alimentada con millones de datos, y muchas veces no discrimina qué información es correcta y cuál no, pues funciona a base de matrices numéricas, otorgando información "probable" pero no necesariamente "certera", por lo que su revisión se hace imperiosamente necesaria.
(II) La caja negra, estos grandes modelos de lenguaje (LLM) como ya indiqué trabajan de forma predictiva, y de momento no hay una trazabilidad del "razonamiento", es decir, que no es posible hacer un silogismo que nos ilustre la forma cómo llego a la conclusión. Esto implica un uso responsable por el usuario para "verificar" la información.
(III) Vulnerabilidad de datos confidenciales, varias plataformas de IA utilizan los datos para alimentar su misma base, por lo que colocar datos "sensibles" de personas, empresas, puede causar daños relevantes y podrían darse acciones de responsabilidad civil por no custodiar en forma diligente esa información. Su uso debe hacerse con la debida diligencia por ejemplo anonimizando la información y siendo cuidadosos para no colocar información privilegiada.
(IV) Deep fake, a través de plataformas de IA puede generarse contenido como imágenes, videos o audios falsos, que distorsionen o manipulen la realidad, lo que produce total incertidumbre de los hechos, es por esa razón que la ética debe privar al momento de utilizar este tipo de herramientas para no inducir a error.
(V) Sesgos, la información brindada por la IA puede contener prejuicios, inclinaciones o exclusiones dependiendo de la base de datos con la que fue alimentada, por esa razón también conviene tomar en cuenta estas circunstancias para ser cautelosos y no incurrir en prácticas indeseables.
La encuesta antes referida ilustra como los riesgos anteriores impactan en el uso de la IA, al señalar: “Los principales obstáculos para un mayor uso de la IA en el arbitraje internacional son las preocupaciones sobre errores y sesgos (51%), riesgos de confidencialidad (47%), falta de experiencia (44%) y lagunas regulatorias (38%).”[iii]
Hay algunas normas de soft law (no vinculantes) aplicables al arbitraje como por ejemplo las directrices para el uso de inteligencia artificial en arbitraje publicadas por Silicon Valley, las cuales pueden ser muy útiles para regular con transparencia su uso en los procedimientos arbitrales.
Las citadas directrices, tienen como objetivo servir de guía para un uso adecuado de la IA en arbitrajes, y en resumen señalan:[iv]
(i) Todos los participantes que utilicen herramientas de IA deben realizar esfuerzos razonables para comprender las limitaciones, sesgos y riesgos relevantes de cada herramienta de IA y, en la medida de lo posible, mitigarlos.
(ii) Se debe salvaguardar la confidencialidad y prestar atención a las políticas de registro, almacenamiento y uso de historiales enviados a la IA, y optar por soluciones seguras. Cuando proceda deben anonimizar los materiales enviados.
(iii) La divulgación de que se ha utilizado IA no es una norma general, solo se hará caso por caso teniendo en cuenta las circunstancias particulares.
(iv) Las partes revisarán los resultados de cualquier herramienta de IA y serán responsables de cualquier error o inexactitud.
(v) No se utilizará IA para falsificar pruebas o inducir a error al Tribunal o a la contraparte.
(vi) Los árbitros no delegarán ninguna parte de su mandato personal en ninguna herramienta de IA, su utilización no sustituirá su análisis independiente de los hechos, derechos y la prueba.
(vii) Las Directrices no pretenden sustituir o anular leyes o reglamentos locales en materia de IA.
Todos los actores del arbitraje deben utilizar en forma responsable y ética la Inteligencia Artificial, pues de lo contrario pueden producirse errores que afecten el proceso arbitral o el laudo.
Actualmente se está tramitando ante el Tribunal del Distrito Sur de California de los Estados Unidos, el caso John LaPaglia vs. Valve Corporation, identificado como ´25CV0833 RBM DDL[v], en el cual se ha solicitado la anulación del laudo arbitral alegando que el árbitro utilizó chatgpt para redactarlo por lo que se extralimitó en sus funciones. La resolución de este caso sin duda alguna marcará un hito muy importante en el uso de la IA, pues recordemos que una de las funciones principales del árbitro es dictar el laudo en forma personal, ya que el encargo se le ha otorgado intuitu personae. Es decir, que la designación como árbitro obedece a sus conocimientos y experiencia en la materia de la disputa, lo cual no es dable delegar en terceros.
Notas
[i] Beatriz Pimentel Rosales, Máster en Arbitraje Comercial y de Inversiones, Universidad Alcalá de Henares
[ii]https://www.whitecase.com/insight-our-thinking/2025-international-arbitration-survey-arbitration-and-ai
[iii] ibidem
[iv] https://svamc.org/wp-content/uploads/SVAMC-AI-Guidelines-First-Edition.pdf
[v] https://www.pacermonitor.com/public/case/57590875/Lapaglia_v_Valve_Corporation
|
|