Ratio Iuris

Revista de Derecho

UCES

Vol. 13 Núm. 1, enero-junio 2025, pp. 165-196

ISSN: 2347-0151 (en línea)




Implicancias de los sesgos discriminatorios en la Inteligencia Artificial

Análisis de la responsabilidad civil y daños en el marco actual del Derecho argentino



Graciela María Bariani

Universidad de Ciencias Empresariales y Sociales, Ciudad Autónoma de Buenos Aires, Argentina

ORCID: https://orcid.org/0009-0007-8065-4811

Correo electrónico: gracielabariani@gmail.com

Martín Diego Sabino

Universidad de Ciencias Empresariales y Sociales, Comodoro Rivadavia, Argentina

ORCID: https://orcid.org/0009-0006-9458-1185

Correo electrónico: martindiegosabino@hotmail.com



Recibido: 13 de mayo de 2025

Aprobado: 28 de mayo de 2025



Para citar este artículo:

Bariani, G. M., y Sabino, M. D. (enero-junio 2025). Implicancias de los sesgos discriminatorios en la Inteligencia Artificial: análisis de la responsabilidad civil y daños en el marco actual del Derecho argentino. Ratio Iuris, 13(1), 165-196.

ARK CAICYT: https://id.caicyt.gov.ar/ark:/s23470151/sxrs48ngk




Resumen: Este artículo titulado "Implicancias de los Sesgos Discriminatorios en la Inteligencia Artificial: Análisis de la Responsabilidad Civil y Daños en el marco actual del Derecho Argentino" aborda los desafíos éticos y jurídicos que plantea la inteligencia artificial (en adelante IA) en el contexto argentino.


Nuestro trabajo se centra en la configuración de la responsabilidad civil por los daños que puedan surgir debido a sesgos discriminatorios en los sistemas de IA. El alcance de nuestro trabajo es descriptivo, básico






Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial 4.0 Internacional


y documental. A través de un abordaje de investigación cualitativo y un diseño no experimental y transversal, analizamos cómo estos sesgos pueden perpetuar desigualdades y afectar derechos fundamentales, a la vez que proponemos un marco legal para regular la IA de manera ética y justa.


Nuestra investigación incluye un análisis comparativo con legislaciones internacionales (Unión Europea, Canadá y China) y plantea la integración de la teoría de la acción comunicativa de Habermas (1981) para promover un desarrollo tecnológico basado en el diálogo inclusivo y la cooperación.


A lo largo del estudio, se exploran conceptos claves como la responsabilidad objetiva y subjetiva, el impacto de los sesgos algorítmicos y la necesidad de transparencia en los procesos de toma de decisiones automatizadas. Finalmente, el artículo aporta al campo del derecho recomendaciones normativas que sirven para mitigar los riesgos de discriminación, y busca asegurar que la tecnología avance en armonía con la justicia y la equidad social.


Palabras Claves: Inteligencia artificial, sesgo discriminatorio, responsabilidad civil, regulación jurídica, República Argentina.

Abstract: This article, titled "Implications of Discriminatory Biases in Artificial Intelligence: Analysis of Civil Liability and Damages within the Current Framework of Argentine Law", addresses the ethical and legal challenges posed by artificial intelligence (hereinafter AI) in the Argentine context.


Our work focuses on the configuration of civil liability for damages that may arise due to discriminatory biases in AI systems. The scope of our FDP is descriptive, basic, and documentary. Through a qualitative research approach and a non-experimental, cross-sectional design, we analyze how these biases can perpetuate inequalities and affect fundamental rights, and we propose a legal framework to regulate AI in an ethical and fair manner.


Our research includes a comparative analysis with international legislation (European Union, Canada, and China) and proposes the integration of Habermas’s theory of communicative action (1981) to promote technological development based on inclusive dialogue and cooperation.


Throughout the study, key concepts such as objective and subjective liability, the impact of algorithmic biases, and the need for transparency in automated decision-making processes are explored. Finally, this article contributes to the field of law by offering regulatory recommendations aimed at mitigating the risks of discrimination and seeks to ensure that technology advances in harmony with justice and social equity.


Keywords: Artificial intelligence, discriminatory bias, civil liability, legal regulation, República Argentina.

Resumo: O artigo, intitulado "Implicações dos Vieses Discriminatórios na Inteligência Artificial: Análise da Responsabilidade Civil e Danos no Marco Atual do Direito Argentino", aborda os desafios éticos e jurídicos colocados pela inteligência artificial (doravante IA) no contexto argentino.


Nosso trabalho centra-se na configuração da responsabilidade civil por danos que possam surgir devido a vieses discriminatórios em sistemas de IA. O escopo do nosso trabalho é descritivo, básico e documental. Por meio de uma abordagem qualitativa de pesquisa, com desenho não experimental e transversal, analisamos como esses vieses podem perpetuar desigualdades e afetar direitos fundamentais, propondo um marco legal para regular a IA de forma ética e justa.


Nossa pesquisa inclui uma análise comparativa com legislações internacionais (União Europeia, Canadá e China) e propõe a integração da teoria da ação comunicativa de Habermas (1981) para promover um desenvolvimento tecnológico baseado no diálogo inclusivo e na cooperação.


Ao longo do estudo, são explorados conceitos-chave como a responsabilidade objetiva e subjetiva, o impacto dos vieses algorítmicos e a necessidade de transparência nos processos de tomada de decisão automatizada. Por fim, o artigo contribui com o campo do direito ao oferecer recomendações normativas que visam mitigar os riscos de discriminação e busca garantir que o avanço tecnológico ocorra em harmonia com a justiça e a equidade social.


Palavras Chaves: Inteligência artificial, viés discriminatório, responsabilidade civil, regulação jurídica, República Argentina.



Introducción


El desarrollo acelerado de la inteligencia artificial (IA) ha transformado diversos aspectos de la vida cotidiana, incidiendo de manera directa en la economía, las comunicaciones, la administración de justicia y la formulación de políticas públicas. Este fenómeno, sin embargo, no está exento de controversias. Junto con sus múltiples beneficios, la IA plantea desafíos éticos y jurídicos de gran envergadura, particularmente en lo relativo a la producción y reproducción de desigualdades estructurales a través de decisiones automatizadas.


Uno de los problemas más urgentes en este campo es la aparición de sesgos discriminatorios, generados cuando los algoritmos de IA producen resultados desiguales que favorecen o perjudican a ciertos grupos de manera sistemática. Esta problemática cobra especial relevancia en contextos donde los sistemas automatizados toman decisiones con efectos jurídicos o sociales significativos. El fenómeno del sesgo algorítmico revela cómo los sistemas de IA pueden amplificar prejuicios preexistentes, incluso cuando operan bajo parámetros aparentemente neutros.


El presente artículo, titulado "Implicancias de los Sesgos Discriminatorios en la Inteligencia Artificial: Análisis de la Responsabilidad Civil y Daños en el marco actual del Derecho Argentino", tiene por objeto analizar la configuración de la responsabilidad civil en los casos en que los daños derivados de estos sesgos sean atribuibles a sistemas de IA. En particular, se aborda la cuestión central de cómo se estructura dicha responsabilidad en el marco jurídico argentino.


La metodología adoptada es de tipo cualitativo, con un diseño no experimental y de corte transversal. El análisis se organiza integrando dimensiones jurídicas, éticas y sociales, con el fin de establecer una base para la formulación de propuestas normativas pertinentes. Asimismo, se incorpora como eje teórico la Teoría de la Acción Comunicativa desarrollada por Jürgen Habermas (1981), que ofrece un enfoque normativo fundado en el diálogo, la inclusión y la cooperación, aplicable al diseño de marcos regulatorios para tecnologías emergentes. Esta perspectiva no solo permite problematizar el desarrollo de la IA desde un prisma ético, sino que también aporta fundamentos para orientar políticas públicas que promuevan la justicia social y la equidad.


En el marco de esta investigación se analizan los principales conceptos implicados, tales como la responsabilidad civil, los sesgos discriminatorios y la IA generativa, en tanto categorías fundamentales para comprender las implicancias legales del fenómeno estudiado. Particular atención se presta a la distinción entre responsabilidad objetiva, que no requiere prueba de culpa, y responsabilidad subjetiva, que sí exige la demostración de dolo o negligencia, distinción que resulta clave para asignar obligaciones tanto a los desarrolladores de tecnología como a las organizaciones que implementan, distribuyen y comercializan productos y servicios basados en IA, así como a sus usuarios finales.


El artículo examina también el marco normativo vigente en Argentina en relación con la responsabilidad civil, y lo contrasta con el derecho comparado, especialmente con los avances registrados en la Unión Europea, Canadá y China. Estos sistemas jurídicos han comenzado a delinear marcos regulatorios específicos para enfrentar los desafíos que plantea la IA, incluyendo la prevención de sesgos discriminatorios. A partir de este análisis comparado, se reflexiona sobre cómo el ordenamiento jurídico argentino puede adaptarse para garantizar un uso responsable y justo de estas tecnologías.


Sobre esta base, se sostiene la hipótesis de que, en el contexto actual del derecho argentino, la responsabilidad civil por los daños ocasionados por sesgos discriminatorios en sistemas de IA debe configurarse como objetiva para los desarrolladores y para las entidades que implementan, distribuyen o comercializan estas tecnologías, y como subjetiva para los usuarios individuales. Este planteo permite avanzar en la definición de un marco de responsabilidad más adecuado a las complejidades que presenta la inteligencia artificial en la actualidad.


Finalmente, el objetivo general del trabajo es contribuir a la construcción de un marco jurídico robusto para la regulación de la IA en Argentina, que permita proteger los derechos fundamentales de las personas, garantizar la equidad en las decisiones automatizadas y promover el desarrollo de tecnologías compatibles con los principios de justicia, dignidad humana e inclusión. Para ello, se presentan recomendaciones concretas orientadas a asegurar la transparencia algorítmica, reforzar el control humano sobre decisiones críticas y establecer lineamientos normativos que anticipen los riesgos asociados a los sesgos discriminatorios en sistemas inteligentes.


En este artículo no solo proponemos analizar el estado actual del derecho argentino frente a los desafíos de la IA, sino también abordar soluciones orientadas a un futuro en el que el progreso tecnológico se encuentre alineado con valores democráticos y principios de justicia social.


Concepto de Responsabilidad Civil en el derecho argentino


La responsabilidad civil en Argentina, según Ameal (2021) e identificada en los arts.1708 a 1780 del Código Civil y Comercial de la Nación Argentina (en adelante CCCN), es un sistema normativo que va más allá de la simple función reparadora del daño, e integra también la función preventiva y, en algunos casos, la función punitiva, aunque esta última, no haya sido desarrollada en el CCCN.


Tradicionalmente, la responsabilidad civil se centraba exclusivamente en la función resarcitoria, es decir, indemnizar a la víctima por el daño sufrido, sin que ello conlleve un beneficio adicional para ella. Esta concepción resarcitoria ha sido ampliada con la inclusión de la prevención del daño, al reconocer que, en algunos contextos, es más beneficioso evitar el daño que solo repararlo.


El CCCN (2024), refuerza la función preventiva, y faculta a los jueces a ordenar medidas preventivas de oficio en ciertos casos, como se evidencia en leyes especiales, como la Ley General del Ambiente 25.675 (2002); sin embargo, la función punitiva, no fue incorporada en el CCCN pese a propuestas previas, aunque sigue vigente en normativas específicas como la Ley de Defensa del Consumidor 24.240 (1993) y la Ley de Protección de Datos Personales 25.326 (2000).


De esta manera, la responsabilidad civil contemporánea se concibe no sólo como una herramienta para resarcir, sino también para prevenir y, potencialmente, sancionar conductas especialmente reprochables, y busca un equilibrio entre la indemnización del daño y la protección de intereses sociales y colectivos.


Dentro de este marco, la responsabilidad civil se articula mediante la responsabilidad subjetiva y objetiva, lo que resulta fundamental para entender los distintos criterios bajo los cuales se atribuye responsabilidad por daños.


En términos simples, se diferencian en los factores que atribuyen el daño: mientras que la responsabilidad subjetiva evalúa la culpa o dolo en la actitud y comportamiento del agente, la responsabilidad objetiva prescinde de la conducta y se enfoca en el incumplimiento del resultado comprometido, y así ajustan, la respuesta jurídica a cada caso.


La responsabilidad objetiva, en el art.1723 CCCN que comenta Ameal (2021), se entiende cuando una persona se compromete a lograr un resultado específico, y su incumplimiento se establece por la simple falta de ese resultado, sin considerar la conducta o diligencia del deudor. En estos casos, no es necesario probar la culpa o negligencia, ya que la responsabilidad se deriva directamente de la falta de cumplimiento del objetivo pactado, lo que obliga al deudor a reparar los daños causados por no alcanzar lo prometido.


La responsabilidad subjetiva, en el art.1724 CCCN que comenta Ameal (2021), se fundamenta en la atribución de un daño a una persona a partir de factores como la culpa y el dolo. La culpa implica la omisión de la diligencia debida, que puede manifestarse a través de negligencia, imprudencia o impericia; además se tiene en cuenta la naturaleza de la obligación y las condiciones específicas del caso. Por otro lado, el dolo se configura cuando hay intención de causar daño o una actitud de indiferencia hacia los intereses de los demás. Ambos factores exigen un análisis detallado de la conducta del agente y las circunstancias particulares del hecho dañoso.

Concepto, aplicaciones, funcionamiento básico de la Inteligencia Artificial Generativa


La IA se refiere al uso de tecnología digital para crear sistemas capaces de realizar tareas que comúnmente requieren habilidades humanas, como el razonamiento, el aprendizaje y la toma de decisiones. Aunque la IA no es una novedad, el avance en el poder de procesamiento de las computadoras, el acceso a enormes cantidades de datos y el desarrollo de nuevos programas, han impulsado un progreso rápido y significativo en los últimos años.


Dado que, no se ha alcanzado un consenso unánime entre organismos internacionales y especialistas sobre un concepto universal de IA hasta el presente, hemos seleccionado algunos enfoques que nos ayudarán a acercarnos a su definición.


Así la, Unión Europea, según el Reglamento (UE) 2024/1689, define a la inteligencia artificial en su art.3 como:

...un sistema basado en máquinas que está diseñado para funcionar con diversos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales…

Este reglamento y de acuerdo a lo indicado en el considerando 12, postula una definición de los sistemas de IA que se basa en su capacidad de inferencia, que permite generar predicciones, decisiones y recomendaciones, y los diferencian del software tradicional.


Estos sistemas utilizan técnicas como el aprendizaje automático y el razonamiento lógico, y operan con diversos grados de autonomía y autoaprendizaje. Pueden integrarse en productos o funcionar por separado, adaptarse a los contextos en los que se utilizan y evolucionar durante su uso sin intervención humana. La definición busca alinearse con estándares internacionales, al garantizar seguridad jurídica y flexibilidad ante avances tecnológicos.


En la página del Consejo Europeo vemos una definición de IA (https://www.consilium.europa.eu/es/policies/artificial-intelligence/#what). Al respecto, se señala que la IA está presente en diversas actividades cotidianas, como asistentes virtuales, diagnósticos médicos, traducciones automáticas, navegación, control de calidad en fábricas y predicción de desastres naturales, y su implementación puede aumentar la innovación, eficiencia y sostenibilidad en la economía; además de beneficiar sectores clave como educación, salud y seguridad, y contribuir en la lucha contra el cambio climático. Sin embargo, es crucial considerar los riesgos asociados al desarrollo de la IA.


La inteligencia artificial es, para Crawford (2022), un complejo sistema tecnológico que funciona como una vasta red interconectada de infraestructuras industriales, cadenas de suministro globales y mano de obra. Va mucho más allá de algoritmos y modelos de aprendizaje automático; se sustenta en una vasta maquinaria que incluye manufactura, centros de datos, cables submarinos y señales de transmisión. Esta "megamáquina" se extiende a lo largo del planeta e implica un uso intensivo de recursos físicos y humanos, con costos ocultos que afectan tanto a la economía como al medio ambiente.


Una reflexión crítica sobre la IA y su verdadera naturaleza, según Crawford (2022), es presentar a la misma como un fenómeno puramente técnico, pero en realidad está profundamente arraigada en prácticas sociales y culturales. Muchas personas asocian la IA con ejemplos populares como Siri, los autos Tesla o el algoritmo de Google, y los expertos técnicos la explican mediante redes neuronales y aprendizaje profundo. Crawford (2022) argumenta que la IA no es "artificial" ni "inteligente" en el sentido tradicional, sino que se construye a partir de recursos naturales, mano de obra, infraestructuras y está influenciada por factores económicos, políticos y sociales.


Entonces, en lugar de ser autónoma o racional, la IA, según Crawford (2022), depende de grandes cantidades de datos y entrenamiento intensivo, y está diseñada principalmente para servir a los intereses de los poderes dominantes. Ello al convertir a la IA en un símbolo de poder impulsada por dichas fuerzas económicas y políticas que determinan su desarrollo.


Existen varios tipos de IA, entre ellas la tradicional y la generativa. La IA tradicional se basa, según Corvalán (2024), en el aprendizaje automático y se enfoca en analizar datos para producir resultados específicos, como predicciones, recomendaciones o decisiones automatizadas. Estos sistemas utilizan datos previos para mejorar su precisión y eficiencia en tareas específicas.


Por otro lado, según Corvalán (2024), la IA generativa utiliza técnicas avanzadas de aprendizaje profundo para identificar patrones en los datos y generar contenido nuevo, como textos, imágenes o videos o mejorar los existentes. A diferencia de la IA tradicional, no solo interpreta la información, sino que también puede crear contenido original, aunque con el riesgo de generar datos incorrectos o ficticios, fenómeno conocido como "alucinaciones".


Sesgos Discriminatorios: concepto, identificación, manifestación y consecuencias en la Inteligencia Artificial Generativa


En la revista Nueva Sociedad 294 (2021) Enzo Ferrante da una definición de los sesgos algorítmicos, y señala que son distorsiones que ocurren en los sistemas de IA, donde los algoritmos producen resultados que favorecen a un grupo en detrimento de otro, y esto genera injusticias.


Estos sesgos, suelen surgir de los datos utilizados para entrenar los modelos, que son estructuras matemáticas o esquemas que, a partir de los datos, identifican y reflejan patrones o relaciones existentes. La exactitud de un modelo está estrechamente vinculada a la calidad y cantidad de datos empleados en su proceso de entrenamiento.


Estos modelos, a menudo reflejan prejuicios sociales y culturales existentes, lo que lleva a decisiones o predicciones desiguales.


Los sesgos discriminatorios pueden configurarse, según Crawford (2022), desde el inicio de la construcción de un sistema de aprendizaje automático, un proceso que requiere la recolección y etiquetado de grandes volúmenes de datos. Estos datos son fundamentales, ya que determinan cómo el modelo interpretará y predecirá patrones en la realidad. Cuando los conjuntos de datos de entrenamiento no son representativos de la diversidad del mundo real, se corre el riesgo de que el sistema aprenda y perpetúe sesgos existentes.


Un ejemplo de ello se da en el ámbito de la visión artificial, que se encarga de enseñar a las máquinas a interpretar imágenes, los modelos se entrenan al utilizar vastos conjuntos de imágenes recopiladas de internet. Si se entrena un sistema para distinguir entre imágenes de manzanas y naranjas, y todas las imágenes de manzanas son rojas, el modelo podría inferir incorrectamente que "todas las manzanas son rojas". Esta limitación se debe a que el modelo generaliza a partir de los ejemplos disponibles, y si estos son parciales, las inferencias que realiza también lo serán.


Además, el proceso de etiquetado de datos, señala Crawford (2022), aunque parezca técnico, está influenciado por decisiones humanas que pueden reflejar prejuicios implícitos. Por lo tanto, cuando los ingenieros seleccionan y etiquetan los datos, sus propias perspectivas pueden afectar el resultado final. Esto lleva a que los algoritmos no solo aprendan de los datos, sino que también reproduzcan y amplifiquen los sesgos presentes en ellos, y se conviertan en la base sobre la cual los sistemas de IA “ven” el mundo.


Al simplificar y categorizar una realidad compleja es probable que se introduzcan incongruencias y sesgos discriminatorios, lo cual afecta la precisión y equidad de las decisiones automatizadas tomadas por estos sistemas.


Entonces, es fundamental asegurar que los datos empleados en el entrenamiento de la IA, sean diversos y representativos, con el fin de evitar que los sesgos se reflejen en las decisiones generadas por estos sistemas y que resulten dañinos.


La IA, señala Crawford (2022), ya no es utilizada solamente como lo fue en sus comienzos para investigaciones en laboratorios, hoy está al alcance de millones de personas, por lo que es imprescindible incorporar una perspectiva ética en su desarrollo y aplicación. Dado el impacto que la IA puede tener en la sociedad, los principios éticos deben orientar la creación de algoritmos y evitar que refuercen desigualdades o discriminen a ciertos grupos. Así se garantiza un uso más equitativo y consciente de esta tecnología, al considerar sus implicaciones sociales.


Teoría de Habermas (1981): acción comunicativa


Desde tiempos antiguos, las ciencias sociales como la economía, la sociología y la psicología han estudiado el funcionamiento de la sociedad humana y los factores que influyen en nuestras decisiones cotidianas, como la compra de productos o la elección de pareja. Estas teorías son utilizadas por políticos y organismos internacionales para justificar decisiones que impactan en la vida de las personas. Sin embargo, dichas teorías no están libres de sesgos, ideologías o prejuicios, ya que son creadas por científicos con intereses subyacentes.


En el contexto de la IA, esta cuestión se vuelve aún más crítica. Aunque la IA pretende ser objetiva, sus algoritmos pueden perpetuar las desigualdades existentes en la sociedad, ya que están impregnados de los mismos sesgos de sus creadores. Así, las decisiones automatizadas que parecen neutras pueden, en realidad, agravar problemas sociales.


La teoría de la acción comunicativa de Habermas (1981), enmarcada en la teoría crítica, ofrece una perspectiva útil para abordar estas implicaciones. Habermas (1981) sostiene que todas las acciones humanas, incluidas las científicas, están atravesadas por intereses que deben ser revelados y analizados. Al aplicar esta teoría a la IA se pone de relieve la necesidad de examinar los sesgos discriminatorios en estos sistemas, no solo desde una lógica técnica, sino también desde una dimensión ética y social.


Frente a la racionalidad instrumental, que se centra en la eficiencia y el control, Habermas (1981) propone una racionalidad comunicativa, basada en el diálogo y el entendimiento mutuo. Esta perspectiva, que reconoce a los seres humanos como sujetos libres e iguales, promueve una sociedad más inclusiva y cooperativa, orientada al consenso y al reconocimiento.


En la sociedad prevalece, según Habermas (1981), una razón orientada a la manipulación bajo un esquema de medio-fin, que denomina razón estratégica e instrumental. Frente a esto, propone la razón comunicativa como respuesta a la tendencia de estas racionalidades a conducir hacia Estados autoritarios y tecnocráticos. Esta propuesta se desarrolla en su teoría de la acción comunicativa, que se puede desglosar en cuatro dimensiones principales: teoría de la racionalidad, teoría de la acción, teoría del orden social y la crítica a los intentos de alterar dicho orden.


En la teoría de la racionalidad, Habermas (1981), amplía el concepto de razón más allá del utilitarismo y señala que las interacciones lingüísticas tienen un gran potencial para generar entendimiento y consenso. Toda comunicación incluye tres pretensiones de validez: 1) la relación con el mundo objetivo (lo que se dice debe ser verdadero); 2) la relación con el mundo social (las normas deben ser correctas y aceptables socialmente); y 3) la relación con el mundo subjetivo (lo expresado debe ser sincero). La racionalidad comunicativa se basa en la búsqueda de acuerdos justificados a través de un diálogo libre y equitativo, donde las afirmaciones se someten a crítica racional y se busca un entendimiento mutuo.


En el mundo del entendimiento de la teoría de la acción comunicativa que propone Habermas (1981), se distingue cinco tipos de acciones:

1. Acción instrumental, orientada a manipular objetos materiales para alcanzar fines.

2. Acción estratégica, que aplica una lógica de medio-fin sobre personas y recursos, al buscar resultados sin importar la justicia de los fines.

3. Acción normativa, que se basa en las expectativas compartidas de comportamiento dentro de un grupo.

4. Acción dramatúrgica, donde los actores expresan vivencias ante una audiencia.

5. Acción comunicativa, donde el objetivo es alcanzar un entendimiento mutuo sin una meta predeterminada, al permitir que los fines puedan ser revisados y cuestionados.


Sobre la diferencia entre el mundo de la vida y los sistemas, Habermas (1981) al referirse a la Teoría del orden social, señala que el mundo de la vida es un espacio donde los individuos se relacionan mediante normas y acuerdos comunes, al buscar consenso a través de la acción comunicativa.


Por otro lado, los sistemas, como el mercado o el Estado, operan con una lógica propia y no permiten la misma interacción humana directa. Estos sistemas funcionan mediante mecanismos como el dinero o el poder, sin requerir la intervención directa de los individuos en sus decisiones.


Sobre el desacoplamiento entre los sistemas y el mundo de la vida, Habermas (1981) advierte que ha permitido un aumento en la eficiencia social, pero también ha generado riesgos. Identificamos esto como una crítica que hace el autor a la alteración del orden social. El mercado, a través de la mercantilización, y el Estado, mediante la regulación excesiva, pueden "colonizar" el mundo de la vida, al imponer lógicas ajenas a las interacciones humanas. Habermas (1981) alerta contra los intentos de regular o mercantilizar todos los aspectos de la vida social, ya que eso podría debilitar la capacidad de los individuos para actuar libremente dentro de su mundo.


La teoría de la acción comunicativa de Habermas (1981) nos ayuda a pensar de manera crítica sobre el impacto ético y social de la IA. Habermas (1981) dice que tanto la ciencia como la tecnología no son neutrales, sino que están influenciadas por intereses y prejuicios. En lugar de usar la IA solo para ser más eficiente y tener más control (racionalidad instrumental), deberíamos centrarnos en un enfoque que fomente el diálogo y el entendimiento entre las personas (racionalidad comunicativa). Este enfoque, trata a todos como seres humanos libres e iguales, lo que es clave para evitar que los algoritmos de IA reproduzcan injusticias sociales.


Unión Europea: regulación y leyes existentes


La IA ha traído importantes avances tecnológicos, pero también ha planteado desafíos legales y éticos, especialmente en cuanto a la discriminación.


El nuevo Reglamento (UE) 2024/1689 es el marco normativo de la Unión Europea que aborda los riesgos asociados a los sesgos discriminatorios en los sistemas de IA, al establecer un conjunto de responsabilidades civiles para los desarrolladores, proveedores y usuarios.


Dentro de las consideraciones observadas en el Reglamento (UE) 2024/1689 sobre la responsabilidad civil y los sesgos discriminatorios en IA podemos hacer referencia a los siguientes puntos que consideramos relevantes. Así, en su Considerando 27 indica las directrices éticas para una IA fiable, al subrayar los principios de diversidad, no discriminación y equidad. Según esta normativa, los sistemas de IA deben desarrollarse y utilizarse de manera que se garantice la inclusión de una variedad de agentes y se promueva la igualdad de acceso. Esto incluye la obligación de evitar efectos discriminatorios y sesgos injustos, cuya prohibición está consagrada en dicho considerando. Los proveedores de IA tienen una responsabilidad implícita en garantizar que sus sistemas respeten estas normas, y la falta de cumplimiento puede acarrear responsabilidad civil en casos de discriminación.


El Reglamento (UE) 2024/1689 clasifica algunos sistemas de IA como de alto riesgo (aquellos que tienen altas posibilidades de producir daños a las personas), en particular aquellos utilizados en la administración de justicia, tal como se menciona en el Considerando 61.

Estos sistemas de IA de alto riesgo pueden afectar el Estado de derecho y la imparcialidad judicial si contienen sesgos o errores, lo que pone en riesgo el derecho a un juez imparcial. Las empresas que desarrollan y comercializan estos sistemas son responsables de garantizar que estén diseñados y que operen sin sesgos. La normativa establece que el proceso de toma de decisiones finales debe ser siempre humano y limitar el papel de la IA a un apoyo para evitar la automatización de decisiones sesgadas.


El propio Reglamento (UE) 2024/1689 señala la importancia de utilizar datos de alta calidad para evitar la perpetuación de discriminación a través de los sistemas de IA. En particular, los datos históricos o generados en entornos reales, pueden contener sesgos inherentes que tienden a perpetuarse y afectan negativamente a grupos vulnerables como colectivos raciales o étnicos. Los proveedores de IA son responsables de mitigar estos sesgos y asegurar que los datos que alimentan sus sistemas sean completos, representativos y libres de errores. El uso inadecuado de datos sesgados puede conllevar consecuencias legales por violaciones de los derechos fundamentales.


Para corregir los sesgos identificados en los sistemas de IA de alto riesgo, el Considerando 70 autoriza, bajo ciertas condiciones, el tratamiento de categorías especiales de datos personales, como la raza o etnia. El tratamiento de estos datos debe ser estrictamente necesario y estar sujeto a garantías adecuadas para proteger los derechos fundamentales. Si los proveedores no adoptan las medidas necesarias para corregir sesgos que generen discriminación, pueden ser considerados responsables civiles por los daños resultantes de dicha discriminación.


El Parlamento Europeo tuvo en cuenta al momento de aprobar el Reglamento (UE) 2024/1689 la importancia de establecer en el mismo las obligaciones de los proveedores en la mitigación de los sesgos. El art. 10 del mismo regula el uso de datos en los sistemas de IA de alto riesgo, al incluir medidas específicas para prevenir los sesgos discriminatorios.


Este art.10 del Reglamento (UE) 2024/1689 exige, a su vez, que los proveedores implementen mecanismos rigurosos para asegurar la calidad de los datos utilizados en el entrenamiento, prueba y validación de los sistemas de IA para evitar cualquier sesgo que pueda afectar negativamente a la salud, la seguridad o los derechos fundamentales. Los proveedores deben evaluar y corregir los sesgos identificados en los datos y tomar medidas correctivas para mitigar cualquier riesgo asociado a los sesgos.


Además, se permite en el Reglamento (UE) 2024/1689 el uso de categorías especiales de datos personales (como la raza o etnia) de manera excepcional y bajo estrictas condiciones de seguridad, con el fin de detectar y corregir sesgos. La falta de cumplimiento de estas obligaciones podría resultar en responsabilidad civil para el proveedor en caso de que los sesgos en los sistemas de IA resulten en discriminación.


El art.16 del Reglamento (UE) 2024/1689 establece una serie de responsabilidades obligatorias para los proveedores de sistemas de IA de alto riesgo que incluyen garantizar el cumplimiento de los requisitos normativos, lo que abarca la identificación y mitigación de los sesgos discriminatorios. Los proveedores, deben implementar un sistema de gestión de calidad que permita el desarrollo de sistemas de IA que minimicen los sesgos, además de documentar exhaustivamente los procesos relacionados con los datos y decisiones de la IA. La normativa también obliga a los proveedores a garantizar la trazabilidad del sistema de IA, de modo que se pueda identificar al responsable en caso de que el sistema cause un daño.


Por último, el Reglamento (UE) 2024/1689 indica que si los proveedores no adoptan las medidas necesarias para prevenir o corregir sesgos discriminatorios en sus sistemas de IA pueden enfrentarse a acciones de responsabilidad civil. Esto incluye el deber de proporcionar documentación técnica y mantener registros que permitan auditorías sobre el funcionamiento de los sistemas de IA, especialmente cuando se trata de sistemas de alto riesgo. Los sistemas que no cumplan con estas obligaciones y resulten en discriminación pueden generar una base sólida para demandas de responsabilidad civil por daños.


Canadá: regulación y leyes existentes


Con el aumento del uso de la IA varios países, como Canadá, han comenzado a implementar regulaciones para mitigar los riesgos como, por ejemplo, a los sesgos discriminatorios. (https://www.bestlawyers.com/article/ai-regulation-in-canada/5659).


Tras el lanzamiento de ChatGPT en 2022 surgieron preocupaciones sobre derechos de autor, privacidad, seguridad y empleos, lo que llevó a un debate sobre si la IA debe ser regulada. Creemos oportuno señalar que chatGPT, según Corvalán, Estevez, Le Fevre, Schapira, y Simari (2024), es considerado un agente conversacional versátil que puede identificar y correlacionar patrones en la información, para responder a preguntas sobre una amplia gama de temas. Funciona con una base de datos estática, lo que significa que no se actualiza dinámicamente con las interacciones de los usuarios, quienes no pueden etiquetar las respuestas como incorrectas o correctas.


Canadá introduce el proyecto de ley C-27 en junio de 2023 que propone la Ley de Inteligencia Artificial y Datos (AIDA) (https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-intelligence-and-data-act-aida-companion-document) para supervisar los sistemas de IA de alto impacto. AIDA busca prevenir daños y usos discriminatorios mediante la creación de un marco que promueva la investigación y la innovación responsable. Debemos aclarar que AIDA está vigente en Canadá, pero la ley C-27, aunque incluye a AIDA, aún no entró en vigencia.


El debate en torno a AIDA refleja tensiones entre la necesidad de claridad regulatoria y el riesgo de sofocar la innovación. Se prevé que Canadá continúe con el desarrollo de su marco legislativo para garantizar un equilibrio entre el progreso en IA y la protección pública.


La Parte 3 de la Ley de Inteligencia Artificial y Datos (AIDA) (https://www.justice.gc.ca/eng/csj-sjc/pl/charter-charte/c27_1.html), introduce regulaciones para el comercio internacional e interprovincial canadiense de sistemas de IA. Esta ley establece requisitos comunes para el diseño, desarrollo y uso de estos sistemas; AIDA se enfoca en mitigar riesgos de daño y sesgo. Se prohíben ciertas prácticas relacionadas con datos y sistemas de IA que puedan ocasionar daños significativos a las personas.


La ley C-27 (no vigente hasta la fecha), otorga al ministro de Innovación, Ciencia e Industria de Canadá (https://www.justice.gc.ca/eng/csj-sjc/pl/charter-charte/c27_1.html) la autoridad para exigir información a las entidades reguladas con el fin de asegurar el cumplimiento, así como para acceder a registros que faciliten auditorías. Además, permite a este ministro canadiense de Innovación, Ciencia e Industria publicar información sobre sistemas de inteligencia artificial que representen riesgos graves, y compartir datos con otras entidades gubernamentales. Estas facultades se justifican en el contexto de la necesidad de supervisar el cumplimiento de las normas regulatorias, y equilibrar así, el derecho a la privacidad con la obligación de asegurar la regulación efectiva.


Sin embargo, las medidas de la ley C-27 también pueden afectar la libertad de expresión al limitar ciertos usos de la IA y el acceso a contenido generado por estos sistemas. No obstante, se argumenta que estas restricciones son proporcionales al interés público en prevenir daños asociados con la IA.


La ley C-27 contempla sanciones administrativas y penales por incumplimiento, con multas por infracciones específicas y nuevos delitos por obstrucción o presentación de información engañosa. Las sanciones son diseñadas para promover el cumplimiento, no para castigar.


Por último, la ley C-27 introduce disposiciones para proteger los derechos de las personas bajo la Carta Canadiense de Derechos y Libertades, al asegurar que las regulaciones y las sanciones impuestas se alineen con principios de justicia fundamental y no afecten desproporcionadamente los derechos de los ciudadanos.

China: regulación y leyes existentes


El 8 de febrero de 2024 el Tribunal de Internet de Guangzhou emitió un fallo sobre la infracción de derechos de propiedad intelectual relacionada con imágenes generadas por IA, donde la empresa titular del dibujo animado “Ultraman” demandó a un proveedor de IA. El tribunal concluyó que el demandado había accedido a las obras protegidas, al generar imágenes sustancialmente similares, lo que constituyó una violación de los derechos de reproducción y transformación (https://institutoautor.org/china-un-tribunal-se-pronuncia-sobre-la-vulneracion-de-los-derechos-de-propiedad-intelectual-por-la-creacion-de-imagenes-generadas-por-inteligencia-artificial/).


Un aspecto destacado del fallo del Tribunal de Guangzhou fue la consideración de las "Medidas Provisionales para la Administración de Servicios de Inteligencia Generativa" (Medidas GAI) que regulan el desarrollo y uso de la IA en China. El tribunal afirmó que, a pesar de que el demandado adoptó algunas medidas de protección, como el filtrado de palabras claves, no cumplió adecuadamente con las obligaciones establecidas en las Medidas GAI. Estas medidas requieren que los proveedores implementen mecanismos para proteger los derechos de propiedad intelectual y reconozcan que el contenido ha sido generado por IA (https://institutoautor.org/china-un-tribunal-se-pronuncia-sobre-la-vulneracion-de-los-derechos-de-propiedad-intelectual-por-la-creacion-de-imagenes-generadas-por-inteligencia-artificial/).


Como resultado, el tribunal de Guangzhou resolvió que el demandado era responsable y debía pagar una indemnización por la infracción. Este caso resalta la importancia de la diligencia y el cumplimiento de las regulaciones en el uso de contenido generado por IA.


La regulación creada por la República Democrática China (Medidas provisionales para la gestión de servicios de inteligencia artificial generativa) establece un marco regulatorio con el objeto de promover el desarrollo saludable de IA generativa y proteger los derechos de los ciudadanos y las organizaciones (https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm), donde las normas se aplican a los servicios de IA generativa destinados al público y no a investigaciones internas.


Los proveedores de servicios de IA generativa, deben cumplir con varias obligaciones para evitar la creación de discriminación y proteger los derechos de propiedad intelectual y la privacidad de los datos personales (https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm).


En esta normativa se indica específicamente que: 1. Los proveedores son responsables por el contenido generado y deben asegurarse de que este no infrinja la legislación vigente; 2. Deben obtener el consentimiento adecuado para el uso de datos personales y asegurarse de que los datos de entrenamiento sean de fuentes legales y de calidad; 3. Los proveedores deben implementar medidas que garanticen la transparencia en sus servicios, e incluir claridad sobre el uso de los mismos por parte de los usuarios; 4. Cuando los proveedores detecten contenido que no cumple con la ley, deben actuar de manera rápida y efectiva para abordar el manejo de dicho contenido ilegal.


Además, la República Democrática China, en las Medidas provisionales para la gestión de servicios de inteligencia artificial generativa establece mecanismos para la supervisión y regulación de estos servicios, al asegurar que los proveedores colaboren con las autoridades para mantener estándares de seguridad y calidad. Las violaciones a estas disposiciones pueden resultar en sanciones administrativas y responsabilidades legales, y se refuerza así, la importancia de la responsabilidad civil en la operación de la IA generativa (https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm).

Argentina: regulación y leyes existentes


En Argentina existe desde el 2022 un Proyecto de ley registrado en la Cámara de Diputados de la Nación bajo el Expediente 0805-D-2024. El Proyecto de ley denota la necesidad de regular las innovaciones tecnológicas, el control de datos y su impacto en el comportamiento humano.


En el Proyecto de ley se señala que los algoritmos, al ser creaciones humanas, son susceptibles a errores y sesgos, y que pocos países han regulado adecuadamente su uso. La propuesta se enfoca en la importancia de establecer marcos de transparencia y responsabilidad en la IA, al tener en cuenta los riesgos asociados, como la falta de transparencia (caja negra), los sesgos en los algoritmos, la ética en la toma de decisiones y la gestión de datos.


El texto del Proyecto de ley también menciona que varios países, incluido México, han desarrollado planes para promover la IA mediante la colaboración entre diferentes sectores. Además, se citan cuatro problemas fundamentales que justifican la regulación de los algoritmos, identificados por especialistas de CIPPEC (Centro de Implementación de Políticas Públicas para la Equidad y el Crecimiento): 1. la falta de transparencia en el procesamiento de datos; 2. los sesgos inherentes en los algoritmos; 3. la ética en la selección de decisiones; 4. el manejo de la información.


Dicho Proyecto de ley no solo promueve el desarrollo tecnológico, sino que también busca garantizar la protección de derechos fundamentales y la inclusión social. En este contexto, el Proyecto de ley se alinea con las recomendaciones de la OCDE (Organización para la Cooperación y el Desarrollo Económicos) y busca establecer un marco normativo para un uso responsable de la IA en Argentina a fin de promover la adaptación de los trabajadores y trabajadoras a las nuevas tecnologías y asegurar una protección social adecuada.


A su vez, el Proyecto de ley también establece un marco legal para promover la responsabilidad y la transparencia en el uso de tecnologías algorítmicas para garantizar el bien común y proteger la autonomía individual. Su objetivo principal es regular procesos computacionales, como el aprendizaje automático y el análisis de datos que impactan en decisiones humanas, particularmente, en el consumo y la vida social.


El Proyecto de ley se basa en varios principios fundamentales como el crecimiento inclusivo para asegurar que los resultados de la IA beneficien a las personas y al medio ambiente, promueve la inclusión y reducción de desigualdades, con valores centrados en el ser humano, en el respeto de los derechos humanos y en los valores democráticos a lo largo de todo el ciclo de la vida de los sistemas de IA.


Este Proyecto de ley destaca que los sistemas de IA deben ser seguros y confiables, y requerir trazabilidad de datos y decisiones para garantizar su correcto funcionamiento y el deber de los actores de proporcionar información clara sobre los sistemas de IA, para que los usuarios puedan entender y cuestionar sus resultados.


Respecto a la responsabilidad, se establece en el Proyecto de ley que los actores son responsables de asegurar que sus sistemas cumplan con los principios establecidos y de eliminar déficits de transparencia, al enfatizar la necesidad de evitar daños en el uso de datos personales como en procesos de contratación y comunicación comercial.


Este Proyecto de ley aboga por una colaboración efectiva entre el sector público y privado, y presta especial atención a las micro, pequeñas y medianas empresas para no obstaculizar su desarrollo, al requerir un programa de transparencia y responsabilidad cuando las tecnologías se utilicen para la prevención de delitos, al asegurar la supervisión judicial.


El Proyecto de ley promueve la creación del Consejo Federal de IA compuesto por expertos del sector público y privado, encargado de elaborar planes para prevenir riesgos y promover buenas prácticas en el uso de tecnologías innovadoras. Además, se establecen protocolos para garantizar la transparencia y la protección de información sensible, así como un registro público de sistemas de decisión automatizada que presenten riesgos significativos, especialmente aquellos que manejan datos personales.


Por último, señalamos que el Proyecto de ley propone el Programa Federal de Inteligencia Artificial, que tiene por objeto desarrollar y promover tecnologías en el país, al fomentar la participación de la sociedad en la adopción de estas.

Falta de racionalidad comunicativa hoy en los sistemas de IA que vuelven irrazonable la posibilidad de abordar la responsabilidad civil


El concepto de racionalidad comunicativa desarrollado, según Habermas (1981), parte de la idea de que el diálogo entre los seres humanos debe estar orientado hacia el entendimiento mutuo y el consenso, no simplemente hacia la eficacia o el control. Según el filósofo, en las interacciones humanas, las personas buscan validar sus afirmaciones a través de un proceso de comunicación basado en la crítica racional y la equidad, donde todos los participantes son considerados sujetos libres e iguales.


La racionalidad comunicativa se caracteriza, según Habermas (1981), por su intención de alcanzar acuerdos justificados de manera transparente, a través de un diálogo libre de coerción, donde las afirmaciones se evalúan según tres pretensiones de validez: 1) Las afirmaciones deben ser verdaderas, es decir, deben corresponder a la realidad; 2) Las normas que guían las interacciones deben ser correctas y aceptadas socialmente; 3) Los participantes en la comunicación deben ser sinceros, es decir, lo que expresan debe reflejar sus creencias o sentimientos verdaderos, en referencia a las subjetividades.


La racionalidad comunicativa promueve entonces el diálogo crítico y constructivo, donde se busca el entendimiento a través del reconocimiento y la participación igualitaria de los interlocutores.


En este punto, surge un interrogante clave: ¿Por qué los sistemas de IA no cumplen con la racionalidad comunicativa? A partir de nuestro análisis, identificamos varias razones fundamentales que explican esta incompatibilidad:


1. La IA, al ser una herramienta técnica, según Crawford (2022), carece de subjetividad y de capacidad para expresar intenciones, sinceridad o participar en un diálogo crítico. No puede expresar sus propias creencias ni justificar sus acciones en un contexto de interacción social. Los sistemas de IA simplemente procesan datos y ejecutan algoritmos, sin tener la capacidad de participar en un intercambio comunicativo que promueva el entendimiento mutuo.


2. Los sistemas de IA, según Crawford (2022), operan bajo una lógica de eficiencia y optimización, lo que Habermas (1981) llama racionalidad instrumental o estratégica, donde el objetivo es alcanzar fines específicos de manera eficiente, sin considerar el consenso o las normas sociales en el proceso. Estos sistemas están diseñados, según Crawford (2022), para maximizar resultados (por ejemplo, predicciones o decisiones), pero no están diseñados para interactuar con otros agentes con el fin de generar acuerdos éticos o sociales.


3. La IA puede estar condicionada, según Crawford (2022), por los datos con los que es entrenada, lo que puede llevar a la generación de sesgos discriminatorios. Estos sesgos, en lugar de ser revelados y discutidos, según Habermas (1981), en un contexto comunicativo para lograr consensos justos, permanecen ocultos, según Crawford (2022), dentro del funcionamiento técnico del sistema. Esto contraviene el principio de transparencia y crítica que es central a la racionalidad comunicativa de Habermas (1981).


Los sistemas de IA, al ser herramientas técnicas, no pueden participar en un intercambio crítico, ya que no tienen subjetividad ni capacidad para expresar intenciones o creencias propias, tal como señala Crawford (2022).


Además, los sistemas de IA hoy operan bajo una racionalidad instrumental, enfocada en la eficiencia y optimización de resultados, e ignoran las normas sociales y la necesidad de consenso, lo que los hace incapaces de generar acuerdos éticos o sociales, como subraya Habermas (1981). Por otro lado, los sesgos algorítmicos que pueden surgir en los sistemas de IA, debido a los datos con los que son entrenados, no pueden ser discutidos ni revelados de forma transparente dentro de un proceso comunicativo.


Esto hace que los sesgos permanezcan ocultos y no se sometan a la crítica necesaria para corregirlos, al no ser interpelados con los principios fundamentales de la racionalidad comunicativa de Habermas (1981).


Esta falta de racionalidad comunicativa vuelve irrazonable la posibilidad de abordar la responsabilidad civil en la IA, ya que no existen marcos normativos adecuados que contemplen este vacío en el diálogo ético y crítico necesario para evaluar sus impactos sociales y discriminatorios.


Criterios de evaluación en la actualidad: valoración judicial de los casos de sesgos discriminatorios en IA en el ordenamiento jurídico argentino


El Gobierno de la Ciudad de Buenos Aires implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP) para identificar personas buscadas mediante cámaras de videovigilancia conectadas a la base de datos del Programa de Consulta Nacional de Rebeldías y Capturas (CoNaRC). Sin embargo, el Observatorio de Derecho Informático Argentino (ODIA) y otras organizaciones, entre ellas el Centro de Estudios Legales y Sociales (CELS), promovieron una acción de amparo y alegaron que el SRFP violaba derechos fundamentales, como la privacidad, libre circulación y la protección de datos personales.


Tras evaluar los reclamos, el Juzgado de Primera Instancia en lo Contencioso Administrativo y Tributario Nro. 4 de CABA en la Causa Nro. 182908/2020 suspendió el SRFP, al señalar que su prematura implementación podía afectar los derechos de las personas. El fallo también exigió que el SRFP contará con controles y un registro adecuado, y que se realizará una Evaluación de Impacto en la Privacidad (EIP) con participación ciudadana antes de reactivarse.

ODIA y el CELS apelaron y señalaron que la sentencia inicial no examinó de manera detallada cómo el SRFP afectaba derechos fundamentales y destacó que el uso de datos personales sensibles, como imágenes faciales, requería el consentimiento de las personas involucradas. Además, el CELS argumentó que el software del SRFP era discriminatorio, ya que su precisión variaba según el color de piel, raza y género, lo cual aumentaba los errores y los falsos positivos, e impactaban de forma desproporcionada a grupos vulnerables, especialmente a mujeres.


Finalmente, la Cámara de Apelaciones rechaza la apelación de ODIA e hizo lugar parcialmente a los agravios del CELS y confirmó la suspensión, según el fallo “Observatorio de derecho informático argentino ODIA. y otros sobre amparo - otros” (2020). Indicó que el SRFP solo podría reactivarse si se demostraba su eficacia y tras un proceso de consultas con la ciudadanía y evaluaciones técnicas rigurosas del software utilizado determinó que el Gobierno de la Ciudad de Buenos Aires es responsable de garantizar un uso adecuado, transparente y respetuoso de los derechos humanos en la implementación del SRFP. La falta de cumplimiento de estos estándares resulta en la responsabilidad civil por posibles daños causados a los ciudadanos.


El fallo se fundamenta en diversas normativas de índole constitucional, legal y convencional, tanto a nivel nacional como local, que protegen derechos fundamentales. Entre estas disposiciones, se destaca el art.14 CN (1994), que asegura derechos esenciales, como la privacidad y la libertad de circulación; mientras que el art.18 CN protege a las personas contra detenciones arbitrarias y refuerza la presunción de inocencia; el art.19 CN, que garantiza la intimidad personal, y prohíbe la intromisión en la vida privada sin una causa justificada y, por último, el art.75, inc.22 CN que otorga jerarquía constitucional a los tratados internacionales sobre derechos humanos que aseguran la protección de la privacidad y la no discriminación en Argentina.


En la Constitución de la Ciudad Autónoma de Buenos Aires (C.CABA 1996) se destacan derechos similares. Así, en su art.14 protege la privacidad y la integridad personal, mientras que el art.16 establece la igualdad ante la ley, y prohíbe cualquier forma de discriminación; el art.18 refuerza las garantías procesales y la presunción de inocencia en el ámbito local.


La Ley de Protección de Datos Personales, Ley 25.326 (2000), también es fundamental en este caso, ya que regula cómo se deben manejar los datos personales en Argentina, la cual subraya que la recolección de datos sólo puede realizarse con consentimiento informado (art.5), que la finalidad del uso de estos datos sea clara y específica (art.6). Además, regula la transferencia de información, que debe estar justificada por la ley (art.11), y obliga a asegurar la transparencia en el tratamiento de los datos personales (art.23).


En la Ciudad de Buenos Aires, las Leyes 5.688 (2016) y 6.339 (2020), sobre el Sistema Integral de Seguridad Pública de la Ciudad Autónoma de Buenos Aires, establecen un marco para los sistemas de videovigilancia al fijar estándares para garantizar el respeto a la privacidad de las personas mediante condiciones bajo las cuales deben operar estos sistemas, así como la obligación de contar con los mecanismos de supervisión y transparencia al establecer la creación de organismos de control específicos para llevar a cabo adecuadamente estas herramientas.


Además de la normativa local, se toma en cuenta varios tratados internacionales suscritos por Argentina que tienen rango constitucional, en particular, el Pacto de San José de Costa Rica que, en su art.7 CADH (1984), protege la libertad personal y evita detenciones arbitrarias, mientras que el art.11 CADH garantiza el derecho a la privacidad y prohíbe injerencias arbitrarias en la vida privada de las personas.


En definitiva, vemos que del caso surgieron múltiples conflictos legales y cuestionamientos sobre la implementación de un sistema de IA, entre los problemas más destacados: a) Posible violación a la Ley de Protección de Datos Personales, b) Riesgo de discriminación y uso indebido, c) Suspensión por riesgos de vigilancia masiva y errores, y que ante la ausencia de una legislación sobre responsabilidad civil por sesgos discriminatorios generados por la IA generativa, tanto los jueces de primera instancia, como los de la Cámara de Apelaciones, tuvieron que tomar varias normativas no específicas en IA, para llegar a la resolución del conflicto.


Actualmente el derecho argentino no contempla un enfoque adecuado para enfrentar las decisiones automáticas tomadas a partir de los algoritmos que aplican las IA generativas en los procesos definidos por sus usuarios, como en este caso lo definió el Gobierno de la Ciudad de Buenos Aires.


A su vez, la ausencia de una racionalidad comunicativa en los sistemas de IA, pone de relieve la necesidad de un marco normativo que aborde de manera específica las particularidades de estos sistemas.


Los jueces al evaluar hoy casos de sesgos discriminatorios producidos por IA se enfrentan a la dificultad de determinar quién es el responsable de esos sesgos, lo que puede llevar a una evaluación judicial defectuosa de la conducta.


En un proceso de racionalidad comunicativa, según Habermas (1981), las partes involucradas deberían poder exponer sus intenciones, discutir la validez de las normas aplicadas y ofrecer justificaciones. Sin embargo, la IA como mero ejecutor de algoritmos no tiene voz en este proceso. Esta ausencia de un “diálogo” dificulta que el juez pueda evaluar si la IA actuó de manera defectuosa o negligente, ya que no hay un ente responsable y legitimado capaz de defender o criticar las decisiones tomadas.

Los sesgos algorítmicos no se originan en una decisión consciente de acuerdo a lo señalado por Ferrante en la revista Nueva Sociedad 294 (2021), ni en una falta voluntaria de cuidado, lo que complica aún más la identificación de una conducta culpable desde la perspectiva tradicional de la responsabilidad civil.


En este punto debemos considerar que los factores de atribución a un daño al responsable, según el art.1721 CCCN (2024), puede haberse basado en factores objetivos o subjetivos. Será objetivo este factor, según el art.1722 CCCN (2024), siempre que no se pueda demostrar una causa ajena o alguna disposición legal que lo permita. Se entiende que conformará una responsabilidad objetiva, según el art.1723 CCCN (2024), cuando el responsable obtenga un determinado resultado pretendido.


Por otro lado, serían factores de atribución subjetivos, según art.1724 CCCN (2024), la culpa y el dolo. La culpa, como ser la negligencia, la impericia o la imprudencia, en las cuales se identifica una omisión de la debida diligencia según las circunstancias de los individuos y/o la naturaleza de las obligaciones, consideradas en lugar y tiempo. Respecto del dolo, se da cuando identificamos la realización de un daño con indiferencia por el otro y sus intereses o de manera intencional.


Cuando analizamos el nexo causal, de acuerdo al art.1726 CCCN (2024), entre el uso de la IA y el daño causado, en el caso de los daños por productos defectuosos, la causalidad está vinculada al defecto del producto. Por lo tanto, es necesario demostrar que el sistema de IA presenta un defecto.


¿Cómo se puede probar esto? Aquí entra en juego el concepto de gobernanza que señala Santarelli (https://www.youtube.com/watch?v=aghxyNlicnY), que se relaciona directamente con la diligencia y el cuidado en el diseño y manejo del sistema, entonces si se demuestra una falta de cuidado en la gestión o funcionamiento de la IA, la responsabilidad será culposa, es decir, basada en la negligencia.


Con esto vemos que sin un marco normativo que facilite la evaluación y revisión crítica de estas decisiones es difícil determinar quién debe ser considerado responsable en los casos de sesgos discriminatorios: ¿será el diseñador del algoritmo o la empresa que lo emplea?


Articulación de la responsabilidad civil con la teoría de Habermas (1981)


En nuestro desarrollo indicamos que la teoría de la acción comunicativa de Habermas (1981) se enfoca en la interacción social y el entendimiento mutuo; por ello comprendemos que puede aplicarse al ámbito de la responsabilidad civil en el derecho argentino al analizar cómo los individuos y las instituciones que desarrollan, implementan y utilizan tecnologías, como la IA, deben actuar bajo principios de diálogo, transparencia y equidad.


La responsabilidad civil, regulada en Argentina por el Código Civil y Comercial de la Nación (CCCN), incluye funciones preventivas y resarcitorias, según Ameal (2021), y evalúa las acciones o negligencias que causan daños. Al integrar la racionalidad comunicativa de Habermas (1981), se puede analizar no solo el daño causado por un sistema de IA, sino también la manera en que las decisiones sobre su diseño, programación y uso fueron tomadas.


La responsabilidad subjetiva exige, según Ameal (2021), probar negligencia o dolo, donde se puede evaluar y considerar si los desarrolladores de IA actuaron de forma abierta, dialogada y transparente, y respetaron los principios de equidad en la toma de decisiones.


Al mismo tiempo, en la responsabilidad objetiva, según Ameal (2021), se evalúa el resultado, sin importar la conducta. De esta manera entendemos que con la teoría de la acción comunicativa de Habermas (1981) si se impusiera la obligación de generar tecnologías libres de sesgos discriminatorios negativos a los generadores y a las empresas que los utilizan, considerando un enfoque en el diálogo social sobre los riesgos y consecuencias de la IA, según la acción comunicativa de Habermas (1981), también se puede beneficiar la resolución de conflictos, ajustando previamente la certificación de dichas tecnologías por un ente de control.


Tomemos ahora la acción comunicativa de Habermas (1981) y la responsabilidad civil de acuerdo a nuestro ordenamiento jurídico. Al aplicar la acción comunicativa como la concibe Habermas (1981), entendimiento mutuo (con las características fundamentales de diálogo abierto y consenso para evaluar la conducta humana), en relación con el diseño, programación y uso de IA, se puede argumentar que los desarrolladores y operadores de IA deben comprometerse a un proceso deliberativo que incluya la transparencia en sus decisiones y la participación de diversos actores en la evaluación de los posibles riesgos éticos y sociales de sus tecnologías.


Al diseñar un sistema de IA, estos actores no deben limitarse a una lógica de eficiencia o racionalidad instrumental, según Habermas (1981), sino que deben considerar cómo los algoritmos podrían generar impactos discriminatorios o sesgos, y abrir el espacio para un análisis crítico y dialogado antes de su implementación.


Además, el proceso de gobernanza de IA debe incluir mecanismos para la revisión continua del sistema, y permitir a los diferentes grupos sociales afectados (usuarios, especialistas en ética, legisladores) participar en la toma de decisiones, lo que contribuiría a una mayor responsabilidad en caso de que los sistemas generen daños.


Nos preguntamos ¿cuál sería el rol de los operadores humanos? Dado que la IA carece de subjetividad y capacidad de reflexión ética, la responsabilidad recae sobre los operadores humanos, como programadores, diseñadores y usuarios profesionales. Estos actores son los únicos capaces de participar en una acción comunicativa en el sentido de Habermas (1981), ya que pueden razonar, dialogar y ajustar sus decisiones en función de principios éticos y sociales.


Por lo tanto, cualquier daño causado a través de un sistema de IA, como los sesgos discriminatorios negativos, debe ser atribuido a la negligencia o falta de diligencia de estos actores en su labor de diseño, implementación y control del sistema. De acuerdo a Santarelli (https://www.youtube.com/watch?v=aghxyNlicnY) ellos tienen el deber de prever los posibles riesgos asociados a la IA, y si no lo hacen, pueden ser considerados culpables por no haber tomado medidas preventivas adecuadas.

Este enfoque, permite asignar responsabilidad civil no sólo en términos de la conducta técnica de la IA, sino también en cómo los actores humanos han fallado en su deber de reflexionar críticamente y actuar en concordancia con los principios de equidad y justicia que propone la racionalidad comunicativa de Habermas (1981).


Lo podemos ver en una aplicación práctica en los casos de sesgos discriminatorios generados por sistemas de IA bajo el derecho civil argentino, en donde creemos que la teoría de Habermas (1981) ofrece un marco útil para examinar si los desarrolladores y operadores actuaron de manera ética y transparente.


La evaluación judicial de estos casos no deberá limitarse a analizar el daño causado, sino que deberá indagar si hubo un proceso crítico y deliberativo en el diseño del sistema. Esto incluye revisar si los operadores humanos consideraron la inclusión de diversos puntos de vista, si participaron expertos en ética o derechos humanos, y si se abordaron los riesgos de discriminación antes de la implementación.


De acuerdo a lo expuesto, supongamos un caso de discriminación en un proceso de selección automatizada por IA, la responsabilidad podría extenderse no solo a la empresa que utiliza el sistema, sino también a los diseñadores del algoritmo si se demuestra que no tomaron las medidas necesarias para evitar sesgos o que actuaron únicamente bajo una lógica de eficiencia, sin considerar los efectos sociales. La racionalidad comunicativa de Habermas (1981) podría, entonces, ser una herramienta clave para establecer estándares más exigentes en la creación y uso de IA, basados en el diálogo y la crítica racional, lo que contribuiría a la prevención y reducción de daños en el ámbito civil.


Entonces al centrar la evaluación de la conducta en la transparencia, el diálogo crítico y el respeto por la equidad (Habermas 1981), los actores involucrados en la creación y uso de IA pueden ser evaluados no solo por los resultados que generan, sino también por cómo participaron en el proceso de toma de decisiones. Esto puede ayudar a establecer un sistema normativo más robusto que proteja a la sociedad frente a los riesgos éticos y sociales de la inteligencia artificial.


Propuestas y recomendaciones para la regulación del uso de la IA respecto de la responsabilidad civil ante sesgos discriminatorios, a partir de la Teoría de acción comunicativa de Habermas (1981)


En el marco de un mundo cada vez más polarizado y desigual, los sistemas de IA han intensificado su presencia en nuestras interacciones cotidianas. Sin embargo, en su diseño y funcionamiento, estos sistemas no están exentos de reproducir o amplificar sesgos discriminatorios presentes en la sociedad. La regulación de la IA respecto de la responsabilidad civil ante estos sesgos discriminatorios, requiere, como señala Nussbaum (2012), un cambio profundo en la concepción misma de progreso y justicia, y apuntar hacia la promoción de una ciudadanía crítica y reflexiva.


Desde su teoría de la acción comunicativa de Habermas (1981) propone un marco en el que las interacciones humanas deben estar basadas en el entendimiento mutuo, en lugar de en la mera búsqueda del éxito individualista. Este enfoque es crucial al abordar los desafíos que plantea la IA, donde las decisiones automatizadas pueden afectar de manera desproporcionada a grupos vulnerables.


A raíz de lo desarrollado estamos en condiciones de presentar las siguientes propuestas:


1. Tal como Nussbaum (2012) plantea la necesidad de una educación que fomente el pensamiento crítico y la empatía, es crucial que se incluya una formación crítica sobre el uso de la IA en los programas educativos. No solo es necesario entender cómo funcionan estos sistemas, sino también reflexionar sobre las implicancias éticas y sociales que conllevan. Esta educación debe abarcar tanto a los desarrolladores de IA como a los consumidores, y fomentar una comprensión más profunda de los sesgos y cómo evitarlos.


Es importante considerar las cuatro capacidades que Nussbaum (2012) señala como necesarias en toda educación: 1) La capacidad de pensar críticamente (la vida examinada, identificado este concepto por la autora en relación con Sócrates); 2) La capacidad de trascender las lealtades locales (el razonamiento lógico, señalado este concepto por Nussbaum al atribuírselo a Sócrates); 3) La capacidad de abordar los problemas mundiales como ciudadano del mundo; 4) La capacidad de imaginar con simpatía (la solidaridad y la empatía manifestada a los otros) la situación de otros seres humanos desde el reconocimiento, la preocupación y el entendimiento de las dificultades, las necesidades y los intereses compartidos entre todos.


2. En consonancia con la visión de Nussbaum (2012) sobre la empatía y la necesidad de "imaginar la situación de otra persona", proponemos que los sistemas de IA incorporen principios de respeto a la dignidad humana en su diseño. Estos sistemas deben ser evaluados no solo en términos de eficiencia económica, sino también en función de su capacidad para respetar y promover los derechos humanos. Un sistema de IA que discrimina, ya sea consciente o inconscientemente, atenta contra la dignidad y los derechos de las personas.


3. Incorporar principios de racionalidad comunicativa en la legislación: En una ley sobre responsabilidad civil por sesgos en IA, la racionalidad comunicativa se podría traducir en mecanismos que obliguen a los desarrolladores y operadores de IA a someter sus sistemas a un proceso de evaluación previo, donde distintos actores sociales (organizaciones de derechos humanos, académicos y representantes de colectivos vulnerables) participen en la discusión pública y el análisis ético de los algoritmos antes de su implementación.


Este proceso podría incluir la evaluación de los sesgos potenciales, con un enfoque en identificar cómo las decisiones automatizadas pueden perpetuar o agravar desigualdades sociales, y determinar medidas preventivas antes de que la IA entre en funcionamiento, que cuando ya está entre nosotros.


4. Obligatoriedad de transparencia en el diseño y entrenamiento de algoritmos: La ley debe exigir transparencia en los procesos de diseño y entrenamiento de los algoritmos de IA. Esto incluye: a) publicar los conjuntos de datos con los que los sistemas de IA son entrenados para asegurar que no contengan sesgos implícitos; b) documentar y hacer accesibles los criterios de toma de decisiones de la IA, y permitir la revisión pública y técnica por parte de terceros; c) permitir auditorías continuas de los sistemas de IA, realizadas por órganos independientes, para garantizar que su comportamiento sea justo y no produzca discriminación.


Entendemos que estos elementos podrían promover un diálogo abierto y continuo entre los diseñadores, usuarios y la sociedad, al prevenir el uso de algoritmos oscuros o arbitrarios que podrían afectar negativamente a ciertos grupos.


5. Evaluación continua de los sistemas de IA en su contexto social: Al tomar el principio de la acción comunicativa, es necesario que los sistemas de IA sean evaluados constantemente en su interacción con la sociedad, en lugar de considerarse como tecnologías estáticas una vez implementadas. La legislación podría crear una obligación de revisión periódica de los sistemas de IA, con especial énfasis en detectar posibles cambios en su comportamiento o resultados discriminatorios.


Esta evaluación continua implicaría que cualquier sistema de IA utilizado en áreas críticas, como el acceso a servicios de salud, educación, empleo, entre otros, sea monitoreado para garantizar que no reproduzca sesgos a medida que se despliega en diversos contextos, así como la responsabilidad civil por los daños causados por sesgos en IA debe contemplar esos mecanismos de evaluación. Esto aseguraría que las decisiones automatizadas se alineen con los principios de equidad y justicia social de acuerdo a Nussbaum (2012).


6. Responsabilidad extendida a todos los actores humanos involucrados: Una legislación basada en la teoría de Habermas (1981) debe reconocer que la responsabilidad no solo recae en la IA, como herramienta, sino también en los actores humanos responsables de su diseño, implementación y uso profesional. Esto incluye: a) desarrolladores y programadores, que deben responder por el diseño defectuoso o sesgado de los algoritmos; b) empresas y usuarios que implementan IA sin los controles necesarios para evitar discriminación; c) auditores que tienen la responsabilidad de supervisar y garantizar que el uso de IA cumpla con las normativas vigentes.


La legislación podría especificar un régimen de responsabilidad compartida en casos de sesgos discriminatorios, donde se evalúe la conducta de cada actor en función de su capacidad para prevenir o mitigar estos sesgos.


7. Introducción de una función preventiva específica para la IA: Inspirada en el enfoque preventivo de la responsabilidad civil en Argentina, la ley podría introducir medidas preventivas específicas para la IA que incluyan: a) obligación de análisis de impacto ético previo a la puesta en marcha de sistemas de IA que puedan afectar derechos fundamentales; b) criterios de diligencia debida específicos para la creación y despliegue de IA, basados en la necesidad de evitar daño a poblaciones vulnerables; c) procedimientos de corrección inmediata ante la detección de sesgos en tiempo real, para evitar que los daños discriminatorios se prolonguen en el tiempo.


Esto también podría incluir la creación de unidades regulatorias especializadas que acompañen el desarrollo de IA en sectores sensibles, y de esta manera asegurar que se cumplan con los estándares éticos y legales en todo momento.


8. Derecho a la explicación y el diálogo en casos de discriminación: Al seguir la idea habermasiana de que las afirmaciones deben poder justificarse y someterse a crítica, la legislación sobre IA debería garantizar que cualquier persona afectada por una decisión automatizada tenga derecho a una explicación clara y detallada sobre cómo la IA llegó a esa decisión. Además, debería incluir el derecho a desafiar la decisión y participar en un proceso de revisión donde su caso sea discutido de forma justa y abierta.


Este derecho a la explicación no solo aumenta la transparencia, sino que también empodera a los individuos para exigir una revisión de las decisiones que los afecten injustamente, y promueve un espacio de acción comunicativa entre los ciudadanos y los responsables del sistema de IA.


La regulación debería establecer foros de diálogo donde se puedan deliberar las implicancias éticas y sociales de la IA, y permitir a los ciudadanos, especialmente aquellos que puedan verse afectados por sesgos, tener voz y voto en las decisiones.


9. Normas sancionatorias claras en casos de negligencia o dolo: Finalmente, la legislación debe prever sanciones específicas en casos de negligencia o dolo, como ser el art.1740 CCCN (2024) sobre reparación integral o plena del damnificado por parte de los operadores humanos que causen daño a través del uso de IA discriminatoria.


Este régimen sancionatorio no solo debe contemplar multas o indemnizaciones, sino también la posibilidad de suspensión o prohibición del uso de ciertos sistemas de IA, si se demuestra que han causado daños graves o no han sido diseñados con los controles éticos adecuados.


Si consideramos la crisis educativa a nivel mundial que señala Nussbaum (2012) por la instrumentación de la educación al servicio de la utilidad y la búsqueda del éxito; proponemos la incorporación de la concepción de las cuatro capacidades, señaladas por Nussbaum (2012), que favorecen la educación desde una proposición de estímulo y desarrollo de la razón crítica de los educados. De manera que, si lo emparentamos con la problemática de la responsabilidad civil en el uso de la IA, podríamos decir que, a la ya concebida acción comunicativa de Habermas (1981), se le podría articular la transformación que propone de la educación, Nussbaum (2012).

De acuerdo a lo ya desarrollado y para que estas nueve propuestas sean efectivas, es necesario que la educación desempeñe un papel central, y que trascienda la simple transmisión de conocimientos técnicos. Tal como señala Nussbaum (2012), la educación debe fomentar la empatía y la responsabilidad social, cualidades esenciales en un contexto donde la IA influye cada vez más en diversos ámbitos de la vida pública.


En este sentido, formar a los operadores del derecho, no solo en cuestiones jurídicas, sino también en los aspectos técnicos y sociales de la IA, se vuelve fundamental.


Los y las profesionales del derecho como quienes imparten justicia deben adquirir conocimientos profundos sobre el funcionamiento de los algoritmos de IA, y comprender cómo estos pueden reflejar o amplificar sesgos sociales. Esta formación es clave para que puedan evaluar correctamente las implicaciones legales del uso de esta tecnología.


También es crucial, que estén al tanto de las normativas y regulaciones vigentes, tanto a nivel nacional como internacional, para garantizar que sus decisiones respeten los derechos y la dignidad de las personas. Asimismo, el análisis de casos jurisprudenciales nacionales o de otros ordenamientos jurídicos donde se ha utilizado IA con sesgos puede ofrecer lecciones valiosas sobre cómo mejorar la aplicación del derecho en contextos donde la tecnología está involucrada.


Por otro lado, los desarrolladores de IA también deben ser conscientes del impacto social de su trabajo, y comprender cómo los sesgos en los datos de entrenamiento pueden afectar a grupos sociales vulnerables, y conocer las normativas relacionadas con la responsabilidad civil por sesgos en los algoritmos. Además, es fundamental que estén capacitados en técnicas para identificar y mitigar estos sesgos, mediante la utilización de auditorías y otras herramientas para garantizar un desarrollo más inclusivo y justo de la tecnología.


La educación interdisciplinaria, que integre a operadores jurídicos y desarrolladores de IA, sería una estrategia poderosa. Al compartir una base común de conocimientos, ambos grupos estarían mejor preparados para colaborar de manera efectiva, prevenir sesgos discriminatorios y aumentar la confianza pública en el uso de la IA.


Sin embargo, si fallamos en esta misión, el precio que pagaremos podría ser desastroso. Un futuro en el que las decisiones cruciales sean tomadas por algoritmos sesgados y discriminatorios, donde la justicia se convierta en un concepto vacío y los derechos humanos sean pisoteados en el altar de la tecnología, es una posibilidad que no podemos permitirnos. La responsabilidad recae sobre nosotros: debemos actuar ahora, antes de que sea demasiado tarde.


Reflexiones finales


A lo largo del presente artículo se ha explorado la problemática de los sesgos discriminatorios en la IA y su impacto en la configuración de la responsabilidad civil en el derecho argentino. Este análisis ha permitido identificar la necesidad urgente de un marco normativo claro que regule el uso de la IA, no solo para prevenir daños, sino también para garantizar que las decisiones automatizadas sean justas éticas y equitativas.


El estudio comparativo con otras jurisdicciones, como la Unión Europea, Canadá y China, ha revelado que existen diferentes enfoques para abordar la regulación de la IA, cada uno con sus fortalezas y limitaciones. En el caso argentino, si bien hay un reconocimiento creciente de la importancia de legislar sobre la materia, la normativa específica aún está en proceso de desarrollo y la falta de regulaciones precisas sobre la responsabilidad civil por sesgos en la IA, deja un vacío que debe ser llenado por los legisladores y legisladoras para proteger adecuadamente los derechos de los ciudadanos y ciudadanas.


La adopción de la teoría de la acción comunicativa de Habermas (1981) ofrece una base sólida para proponer un enfoque ético en el diseño y aplicación de la IA. Este enfoque, centrado en el diálogo y la cooperación, permite superar la visión meramente instrumental de la tecnología, al promover una racionalidad comunicativa que fomente la justicia social y los valores éticos. La IA, desde esta perspectiva, debe ser una herramienta al servicio de la inclusión y el respeto a los derechos fundamentales que evite la perpetuación de desigualdades y discriminaciones.


En este sentido, se concluye que la responsabilidad civil en el contexto de la IA debe contemplar tanto la responsabilidad objetiva para los desarrolladores y proveedores, como la responsabilidad subjetiva para los usuarios finales.


Este estudio ha permitido comprobar que la hipótesis planteada al inicio de la investigación es válida ya que, aunque no existe una legislación específica en Argentina sobre la IA, el análisis conceptual y comparativo realizado muestra que el marco jurídico argentino puede configurarse bajo los principios de responsabilidad objetiva para los desarrolladores y proveedores, y responsabilidad subjetiva para los usuarios finales, en línea con los roles diferenciados de los actores involucrados en el desarrollo y uso de sistemas de IA generativa.


Esto implica que los daños causados por sesgos algorítmicos no deben quedar sin respuesta legal específica, y que es necesario establecer mecanismos legales claros para la reparación de los perjuicios sufridos por las víctimas.


Finalmente, se recomienda la creación de un marco normativo específico en Argentina que regule de manera integral la IA, con especial atención a la prevención de sesgos, la protección de derechos y la promoción de una ética sólida en el desarrollo de tecnología. Este marco debe incluir principios de transparencia, trazabilidad y control humano, así como la obligatoriedad de auditorías independientes que garanticen el correcto funcionamiento de los sistemas de IA. Solo de este modo se logrará una tecnología responsable, capaz de contribuir a una sociedad más justa y equitativa.






Referencias bibliográficas



Ameal, O. (2021). Código Civil y Comercial de la Nación. Comentado, concordado y análisis jurisprudencial. Tomo 6 (1a ed.). Editorial Estudio.


CADH (1984). Convención Americana sobre Derechos Humanos (Pacto de San José de Costa Rica).


C.CABA (1996). Constitución de la Ciudad Autónoma de Buenos Aires. https://www.infoleg.gob.ar/?page_id=166


CCCN (2024). Código Civil y Comercial Nacional. Infoleg.


Cea D’Ancona, M. (2001). Metodología cuantitativa: Estrategias y técnicas de investigación social. SÍNTESIS SOCIOLOGÍA.


CN (1994). Constitución Nacional Argentina. Infoleg.


Consejo de la Unión Europea. https://www.consilium.europa.eu/es/policies/artificial-intelligence/#:~:text=la%20Inteligencia%20Artificial-,%C2%BFQu%C3%A9%20es%20la%20inteligencia%20artificial%3F,no%20es%20una%20tecnolog%C3%ADa%20nueva.


Corvalán, J. (2024). IA Generativa y Gestión de Talento. https://ialab.com.ar/wp-content/uploads/2024/08/IA-Generativa-y-la-Gestion-del-Talento.pdf


Corvalán, J., Estevez, E., Le Fevre, E., Schapira, D., y Simari, G. (2024). ChatGPT vs GPT-4. ¿Imperfecto por diseño? Explorando los límites de la inteligencia artificial conversacional. UBA derecho. IALAB. https://ialab.com.ar/wp-content/uploads/2023/03/ChatGPT-vs-GPT-4.pdf


Crawford, K (2022). Atlas de la Inteligencia Artificial. Poder, política y costos planetarios. Editorial Fondo de Cultura Económica.


Fallo: “Observatorio de derecho informático argentino O.D.I.A. y otros sobre amparo - otros” (2020). EXP. N 182908/2020-0. https://repositorio.mpd.gov.ar/jspui/bitstream/123456789/4657/1/Camara%20de%20Apelaciones%20en%20lo%20CATyRC%20Sala%20I%20-%20CAUSA%20182908-2020.pdf


Habermas, J. (1981). La Teoría de la Acción Comunicativa I. Racionalidad de la acción y racionalización social. Taurus Humanidades.


Juzgado de Primera Instancia en lo Contencioso Administrativo y Tributario Nro. 4 de CABA, Causa Nro. 182908/2020.


Ley 5.688 (2016). Sistema Integral de Seguridad Pública de la Ciudad Autónoma de Buenos Aires. https://www.policiadelaciudad.gob.ar/sites/default/files/LEY%20N.%C2%B0%205688.pdf


Ley 6.339 (2020). Modificatoria de la Ley 5.688 (2016). Sistema Integral de Seguridad Pública de la Ciudad Autónoma de Buenos Aires. https://documentosboletinoficial.buenosaires.gob.ar/publico/ck_PL-LEY-LCABA-LCBA-6339-20-6002.pdf


Ley 24.240 (1993). Ley de defensa del consumidor. Infoleg.


Ley 25.326 (2000). La Ley de Protección de Datos Personales. Infoleg.


Ley 25.675 (2002). Ley general del ambiente. Infoleg.


Nueva Sociedad 294 (2021). Enzo Ferrante ¿Qué sabemos de la inteligencia artificial?. Inteligencia artificial y sesgos algorítmicos. https://library.fes.de/pdf-files/nuso/nuso-294.pdf


Nussbaum M. (2012). Crear capacidades. Propuesta para el desarrollo humano. Paidos.


Proyecto de ley. Expediente Diputados: 0805-D-2024. "Responsabilidad algorítmica y promoción de la robótica, algoritmos verdes e inteligencia artificial en la República Argentina” Iniciado en: Diputados - publicado en: Trámite Parlamentario N° 18 - 18/03/2024. https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2024/PDF2024/TP2024/0805-D-2024.pdf


Reglamento (UE) 2024/1689. Reglamento del Parlamento Europeo y del Consejo. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:32024R1689




188