Ratio Iuris
Revista de Derecho
UCES
Vol. 13 Núm. 1, enero-junio 2025, pp. 197-209
ISSN: 2347-0151 (en línea)
Privacidad bajo amenaza digital: la respuesta estadounidense a los Deepfakes y el vacío legal en Argentina
Federico Angel Addati
UCEMA, Ciudad Autónoma de Buenos Aires, Argentina
ORCID:
https://orcid.org/0009-0000-9042-746X
Correo electrónico: faddati@gmail.com
Recibido: 15 de mayo de 2025
Aprobado: 30 de mayo de 2025
Para citar este artículo:
Addati, F. A. (enero-junio 2025). Privacidad bajo amenaza digital: la respuesta estadounidense a los Deepfakes y el vacío legal en Argentina. Ratio Iuris, 13(1), 197-209.
ARK CAICYT: https://id.caicyt.gov.ar/ark:/s23470151/thm14at8c
Resumen: El presente artículo analiza la legislación estadounidense recientemente sancionada conocida como Take It Down Act (TIDA), promulgada en mayo de 2025, que establece un régimen penal específico frente a la difusión no consentida de representaciones visuales íntimas, incluyendo aquellas generadas mediante inteligencia artificial (Deepfakes). La ley introduce conceptos novedosos, como el de falsificación digital, y fija obligaciones para plataformas digitales, imponiendo plazos perentorios de remoción de contenidos. El trabajo compara dicho marco normativo con el ordenamiento jurídico argentino, el cual actualmente carece de una figura penal que contemple esta modalidad de violencia digital. A partir de un análisis crítico, se examinan proyectos legislativos locales en curso y un precedente jurisprudencial reciente, destacando la necesidad de una reforma normativa que reconozca y sancione adecuadamente la creación y difusión de contenidos digitales manipulados. La investigación se apoya en el principio de protección de los derechos personalísimos y en el imperativo de adaptación del derecho penal a los desafíos que impone la inteligencia artificial en contextos de violencia simbólica y sexual.
Palabras clave: Deepfakes, falsificación digital, Inteligencia artificial, Derechos personalísimos.
Esta
obra está bajo una Licencia Creative Commons Atribución-NoComercial
4.0 Internacional
Abstract: This article analyzes the recently passed US legislation known as the Take It Down Act (TIDA), enacted in May 2025, which establishes a specific criminal regime for the non-consensual dissemination of intimate visual representations, including those generated using artificial intelligence (Deepfakes). The law introduces novel concepts, such as digital falsification, and establishes obligations for digital platforms, imposing peremptory deadlines for content removal. The article compares this regulatory framework with the Argentine legal system, which currently lacks a criminal statute that addresses this form of digital violence. Through a critical analysis, the article examines ongoing local legislative projects and recent case law, highlighting the need for regulatory reform that adequately recognizes and punishes the creation and dissemination of manipulated digital content. The research is based on the principle of protecting highly personal rights and the imperative to adapt criminal law to the challenges posed by artificial intelligence in contexts of symbolic and sexual violence.
Keywords:
Deepfakes,
Digital Forgery, Artificial Intelligence, Personal Rights.
Resumo: Este artigo analisa a legislação americana recentemente aprovada, conhecida como Take It Down Act (TIDA), promulgada em maio de 2025, que estabelece um regime penal específico para a disseminação não consensual de representações visuais íntimas, incluindo aquelas geradas por meio de inteligência artificial (deepfakes). A lei introduz conceitos inovadores, como a falsificação digital, e estabelece obrigações para as plataformas digitais, impondo prazos peremptórios para a remoção de conteúdo. O artigo compara esse arcabouço regulatório com o sistema jurídico argentino, que atualmente carece de uma legislação penal que trate dessa forma de violência digital. Por meio de uma análise crítica, o artigo examina projetos legislativos locais em andamento e jurisprudência recente, destacando a necessidade de uma reforma regulatória que reconheça e puna adequadamente a criação e a disseminação de conteúdo digital manipulado. A pesquisa se baseia no princípio da proteção de direitos personalíssimos e no imperativo de adaptar o direito penal aos desafios impostos pela inteligência artificial em contextos de violência simbólica e sexual.
Palavras-chave: Deepfakes, Falsificação Digital, Inteligência Artificial, Direitos da Pessoa.
Introducción
La proliferación de herramientas basadas en inteligencia artificial (IA), como los llamados Deepfakes, ha transformado radicalmente los modos en que se producen y difunden contenidos digitales, generando nuevas amenazas para los derechos personalísimos y para la integridad sexual. La irrupción de estas tecnologías plantea desafíos jurídicos sin precedentes, que requieren una respuesta normativa clara, eficaz y actualizada.
Si bien no existe, al momento, una definición uniforme del término en los Estados Unidos de América (EE. UU.), diversas iniciativas legislativas y documentos regulatorios coinciden en conceptualizar a los Deepfakes como contenidos audiovisuales manipulados mediante herramientas de IA, con la finalidad de falsear la apariencia, la conducta o el discurso de personas reales.
En ese orden de ideas, la Ley de Autorización de Defensa Nacional para el Año Fiscal 2020 (LADN) incorporó el término Machine-Manipulated Media para referirse a imágenes, videos o audios generados o alterados sustancialmente por técnicas de machine learning, destinados a representar falsamente hechos o personas, o incluso crear sujetos inexistentes (sección 5724).
El marco normativo estadounidense se ha preocupado por definir los conceptos de las tecnologías actuales. Es así como el concepto de machine learning surge de la Ley de Iniciativa Nacional de Inteligencia Artificial (LINIA), entendiéndolo como una aplicación específica de la IA que dota a los sistemas de la capacidad de aprender y mejorar automáticamente a partir del análisis de datos o experiencias previas, sin necesidad de estar programados de manera explícita para cada tarea o función (§ 9401.11). Esta misma ley define a la IA como un sistema basado en máquinas que puede, para un conjunto determinado de objetivos definidos por humanos, hacer predicciones, recomendaciones o tomar decisiones que influyen en entornos reales o virtuales (§ 9401.3).
En este contexto, EE. UU. ha dado un paso decisivo mediante la promulgación de la Take It Down Act (TIDA), sancionada el 19 de mayo de 2025, que establece un régimen punitivo específico para la difusión no consentida de representaciones visuales íntimas, incluyendo aquellas generadas o modificadas mediante IA. El texto legal introduce definiciones innovadoras y de vanguardia tales como la de ‘falsificación digital’, y fija obligaciones concretas para las plataformas tecnológicas, imponiendo plazos perentorios de remoción de contenido lesivo, en línea con una protección eficaz y urgente hacia los derechos personalísimos de las personas afectadas.
Cabe recordar que el contenido de los derechos personalísimos no se agota en proteger las manifestaciones del espíritu, los sentimientos y la moral, sino que tiende a tutelar a la persona humana en su integridad más plena, abarcando todas las aristas de su compleja estructura unitaria (Cifuentes, 1998, p. 702).
La irrupción de tecnologías que facilitan la invasión de la privacidad y sobre todo la sexual, como puede ocurrir con los Deepfakes, constituye no solo una afrenta directa a tales derechos, sino también una manifestación estructural de desigualdades persistentes que afectan gravemente la dignidad humana. Este impacto se observa especialmente en mujeres y niñas, quienes resultan desproporcionadamente expuestas, tornándose así en nuevas formas de violencia digital (Citron, 2019, pp. 1870–1960).
Por este motivo, el presente trabajo se propone indagar si la legislación penal argentina está en condiciones de brindar una respuesta eficaz frente a la divulgación de contenidos digitales dañosos. La pregunta de investigación que guía el estudio es: ¿en qué medida la legislación argentina actual aborda los desafíos jurídicos derivados de la difusión no consentida de Deepfakes de carácter íntimo, y qué enseñanzas pueden extraerse del modelo normativo estadounidense establecido por la Ley TIDA?
La hipótesis a verificar sostiene que la legislación argentina actual resulta insuficiente para abordar los desafíos jurídicos derivados de la difusión no consentida de Deepfakes de carácter íntimo, en tanto carece de una tipificación penal específica que contemple esta modalidad de agresión digital. En contraste, la Ley TIDA de los Estados Unidos ofrece un modelo normativo avanzado que puede ser tomado como referencia para desarrollar una respuesta penal adecuada en el contexto argentino.
Para abordar esta problemática, el trabajo se propone cumplir con los siguientes objetivos específicos:
Analizar el contenido normativo de la Ley TIDA en materia de difusión no consentida de imágenes íntimas.
Evaluar las falencias del marco jurídico argentino respecto a la criminalización de los Deepfakes.
Identificar propuestas legislativas argentinas actuales y valorar su adecuación al fenómeno tecnológico en estudio.
La presente investigación resulta de alta relevancia jurídica ya que aborda una forma emergente y altamente lesiva de violencia digital, con especial impacto sobre mujeres, niñas y adolescentes, que aún no cuenta con una respuesta penal adecuada en Argentina. Asimismo, busca contribuir al debate doctrinario y legislativo sobre cómo el Derecho puede y debe adaptarse a los desafíos que impone la inteligencia artificial sin resignar los principios esenciales que rigen la protección de los derechos fundamentales.
Estados Unidos: la “Take It Down Act” como respuesta normativa a la violencia digital
La Ley TIDA introduce enmiendas sustanciales a la sección 223 de la Ley de Comunicaciones de 1934 (47 USC 223), incluyendo una nueva tipificación penal para la divulgación intencional de representaciones visuales íntimas no consentidas, sean estas auténticas o producto de alteraciones digitales avanzadas. Esta norma marca un hito en la lucha contra los abusos tecnológicos de la imagen y privacidad sexual, al establecer un régimen de protección jurídica en el entorno digital.
Estructura de la Ley:
La ley se divide en cinco secciones principales, que articulan el marco punitivo y regulatorio:
Sección 1 – Título corto
Establece la denominación oficial: Ley de Herramientas para Abordar la Explotación Conocida mediante la Inmovilización de Deepfakes Tecnológicos en Sitios Web y Redes. También puede citarse como Ley para Eliminarla (Take It Down Act).
Sección 2 – Modificación de la Ley de Comunicaciones de 1934
Introduce una nueva subsección (h) en el artículo 223 de la Ley de Comunicaciones de 1934 estableciendo definiciones claves, tales como:
Consentimiento
Falsificación digital
Persona identificable
Representación visual íntima
Servicio informático interactivo
Menor
Se penaliza la publicación de:
Imágenes íntimas auténticas sin consentimiento (adultos y menores)
Deepfakes o falsificaciones digitales (adultos y menores)
Se establecen excepciones legales a la punición siempre y cuando sean con fines:
Judiciales, educativos, médicos o de cumplimiento legal
Actividades autorizadas por agencias de seguridad
Autodivulgación de contenido propio
En torno a las sanciones penales, se establecen:
Adultos: hasta 2 años de prisión
Menores: hasta 3 años
Amenazas: hasta 30 meses
Incluye decomiso de bienes y restitución obligatoria
Incorpora una regla de interpretación en torno a que:
El consentimiento para la creación de la imagen no implica consentimiento para su publicación
Que un tercero haya compartido una imagen no se habilita su difusión pública
Sección 3 – Notificación y eliminación de representaciones visuales íntimas no consensuadas. Les impone a las plataformas cubiertas (redes sociales, apps y sitios web) la obligación de:
Implementar un proceso de notificación y eliminación accesible, sencillo y eficaz
Actuar dentro de un plazo máximo de 48 horas desde la solicitud
Eliminar también las copias idénticas del contenido denunciado
Otorga una limitación de responsabilidad a las plataformas que actúen de buena fe, evitando sanciones si eliminan contenido en base a evidencia razonable, aunque luego resulte legal.
La fiscalización del cumplimiento queda a cargo de la Federal Trade Commission (FTC), quien podrá considerar el incumplimiento como una práctica comercial desleal o engañosa.
Sección 4 – Definiciones generales. Precisa los términos empleados en el cuerpo normativo. Define especialmente:
Qué se entiende por “plataforma cubierta”
Qué servicios o medios quedan excluidos (por ejemplo, proveedores de acceso a internet, correo electrónico, sitios sin contenido generado por usuarios)
Finalmente, la Sección 5 prevé una cláusula de divisibilidad por medio de la cual se especifica que, si alguna parte de la ley fuera declarada inconstitucional o inaplicable, las demás disposiciones permanecerán vigentes y operativas.
La norma se inscribe en una tendencia internacional que busca frenar el uso abusivo de tecnologías de IA generativa, promoviendo una gobernanza digital basada en el respeto al consentimiento y la integridad sexual.
Argentina: ausencia de un marco penal específico frente a los Deepfakes y avances recientes en materia de violencia digital
En la actualidad, el ordenamiento jurídico argentino carece de una figura penal específica que contemple la creación y difusión de contenidos audiovisuales manipulados o generados mediante IA, como los denominados Deepfakes.
Esta omisión normativa presenta serias dificultades para la persecución penal de conductas que, si bien resultan altamente lesivas para los derechos personalísimos, no encuentran adecuada tipificación en la legislación vigente.
Diversos intentos doctrinarios y judiciales han procurado subsumir estas conductas dentro del artículo 128 del Código Penal argentino, el cual sanciona la tenencia y difusión de material de abuso sexual infantil. Sin embargo, dicho precepto exige que las imágenes en cuestión sean reales, lo que impide su aplicación a los casos en los que el contenido ha sido generado artificialmente. En esta línea, cabe recordar que la interpretación restrictiva de las normas penales, conforme al principio de legalidad, impide extender su alcance más allá de los supuestos expresamente previstos.
En el plano internacional, Argentina ha adherido al Convenio de Budapest sobre Ciberdelincuencia, instrumento que desde su redacción generó debate respecto a si debía sancionarse únicamente el contenido real o también el simulado —esto es, ilustraciones o imágenes creadas digitalmente—. La posición adoptada por el Estado argentino al momento de su incorporación fue la de restringir la punibilidad a las imágenes reales, en función de que el bien jurídico tutelado es la integridad sexual de niños y niñas concretos, y no la mera representación gráfica de tales situaciones.
Esta laguna normativa deja en una situación de extrema vulnerabilidad a las víctimas de violencia digital y debilita gravemente la capacidad del Estado para prevenir, sancionar y reparar estas prácticas, a pesar del impacto social y simbólico que generan.
En Argentina, se entiende por violencia digital o telemática:
Toda conducta, acción u omisión en contra de las mujeres basada en su género que sea cometida, instigada o agravada, en parte o en su totalidad, con la asistencia, utilización y/o apropiación de las tecnologías de la información y la comunicación, con el objeto de causar daños físicos, psicológicos, económicos, sexuales o morales tanto en el ámbito privado como en el público a ellas o su grupo familiar. (Ley 26.485, 2009, art. 6, inciso i).
Si bien reconocemos el mérito legislativo de visibilizar una modalidad de violencia particularmente frecuente y devastadora hacia las mujeres en entornos digitales, resulta jurídicamente objetable la exclusión expresa de otros colectivos y, en particular, de las personas de género masculino o identidades no binarias, que también pueden ser víctimas de agresiones de naturaleza digital con idéntica lesividad.
Esta redacción, al restringir el sujeto pasivo del tipo normativo exclusivamente a las mujeres, entra en tensión con el principio de igualdad ante la ley consagrado en el artículo 16 de la Constitución Nacional (CN), que establece que “todos los habitantes son iguales ante la ley sin distinción alguna”.
Asimismo, el artículo 75, inciso 22 CN, otorga jerarquía constitucional a los tratados internacionales de derechos humanos, entre ellos el Pacto Internacional de Derechos Civiles y Políticos (PIDESC) y la Convención Americana sobre Derechos Humanos (CADH) que reconocen el derecho a la igual protección contra toda discriminación y a la igual protección de la ley (PIDESC, art. 26 y CADH, art. 24).
Todo ello nos lleva a concluir que, si bien el enfoque en la protección es hacia la mujer, no debería impedir el reconocimiento normativo de otras víctimas.
Por último, el Código Contravencional de la Ciudad Autónoma de Buenos Aires, a pesar de que no tipifica delitos penales, establece sanciones administrativas para conductas que lesionen la convivencia urbana. En este marco, su artículo 71 sanciona la violación de la intimidad mediante la difusión no autorizada de imágenes, grabaciones o registros obtenidos en ámbitos privados. La sanción prevista oscila entre cinco (5) y diez (10) días de trabajo comunitario o multa económica (Ley N° 1472).
No obstante, esta disposición resulta insuficiente para abordar fenómenos contemporáneos como los Deepfakes, dado su carácter contravencional y su baja intensidad punitiva. La desproporción entre la gravedad del daño causado por estas conductas y la respuesta sancionatoria del ordenamiento jurídico evidencia la necesidad urgente de reformular el marco legal argentino para enfrentar de manera eficaz la violencia digital ejercida a través de tecnologías emergentes.
Consideraciones sobre proyectos legislativos argentinos en materia de Deepfakes
En el plano nacional, existen iniciativas parlamentarias que han comenzado a abordar la problemática emergente de los contenidos íntimos generados o alterados mediante IA, particularmente los conocidos como Deepfakes. En el presente trabajo, destacaremos dos proyectos elaborados en la Honorable Cámara de Diputados de la Nación:
El proyecto del diputado Juan Fernando Brügge propone incorporar al Código Penal figuras específicas que sancionan el uso de herramientas digitales para crear, modificar o manipular imágenes, audios o videos, especialmente aquellos de índole sexual, sin consentimiento de las personas representadas. Este proyecto pretende penalizar la creación de contenido audiovisual apócrifo mediante IA con fines lesivos. También prevé la obligación de advertir al público cuando un contenido ha sido manipulado digitalmente. El texto legislativo reconoce la existencia de tecnologías como las redes generativas antagónicas (GANs) y prevé mecanismos sancionatorios que podrían aplicarse no solo en contextos de violencia de género, sino también frente a situaciones de desinformación y daño reputacional (Expediente N° 3955-D-2024 publicado en el Trámite Parlamentario N° 104 con fecha 29-07-2024).
Por otra parte, el proyecto elaborado por los diputados Rodrigo De Loredo y Pablo Cervi aborda con mayor especificidad la difusión no consentida de representaciones visuales íntimas, incluyendo aquellas generadas mediante inteligencia artificial. En su articulado propone incorporar al Código Penal Argentino la penalización tanto de la distribución inicial como de la redifusión de contenido íntimo, real o falsificado, sin consentimiento. Este proyecto resulta especialmente relevante por su mención expresa a los Deepfakes de carácter sexual, contemplando su producción y difusión como agravantes del tipo penal, y reconociendo el impacto particular que este fenómeno tiene sobre la dignidad, la honra y la imagen de las personas afectadas (Expediente N° 0447-D-2024 publicado en el Trámite Parlamentario N° 11 con fecha 8-03-2024).
Cabe destacar que ambos proyectos representan avances sustantivos en la adaptación del derecho penal argentino a las nuevas formas de violencia simbólica y digital, si bien el proyecto 0447-D-2024 se presenta como el más completo y armónico con la necesidad de tipificar los Deepfakes como una categoría autónoma de afectación de derechos personalísimos, en línea con el principio de dignidad humana consagrado por el artículo 33 de la Constitución Nacional y por los tratados internacionales con jerarquía constitucional y en sintonía con la ley TIDA.
Comentario al fallo judicial
El fallo dictado por el Juzgado de Familia, Niñez y Adolescencia de Paso de los Libres de la Provincia de Corrientes (Resolución 408/2025) representa un precedente relevante en la protección judicial frente a los riesgos del uso de IA generativa aplicada a la creación de contenido sexual simulado sin consentimiento, también llamado Deepfakes (Juzgado de Familia, Niñez y Adolescencia de Paso de los Libres, Provincia de Corrientes, “C.R.A. y Otros S/Acciones derivadas de protección de niñez y adolescencia” sentencia de fecha 21-05-2025).
El caso se originó ante la acción judicial entablada por los progenitores de una menor de edad afectada por la creación de imágenes falsas de desnudez generadas con IA mediante la aplicación UndressHer.app, que fueron posteriormente divulgadas por WhatsApp.
Según el informe pericial realizado en el marco del proceso judicial, se destacó que la app utiliza IA para generar imágenes manipuladas, vulnerando la privacidad, dignidad e integridad digital de las víctimas.
Podemos destacar dos aspectos sumamente interesantes de la resolución judicial. En primer lugar, señala que el daño se inicia con la sola creación del contenido no autorizado. En segundo lugar, para dar una solución, conjuga con precisión un plexo normativo amplio: la Convención sobre los Derechos del Niño, la Ley 26.061 de Protección Integral de los Derechos de las Niñas, Niños y Adolescentes, Ley 26.485 de Protección Integral de las Mujeres y la Ley 27.736 denominada Olimpia.
A partir de encuadrar el caso violencia de género digital, le permitió al magistrado valerse del artículo 26 inciso 9 de la Ley 26.485, el que señala:
Ordenar por auto fundado, a las empresas de plataformas digitales, redes sociales, o páginas electrónicas, de manera escrita o electrónica la supresión de contenidos que constituyan un ejercicio de la violencia digital o telemática definida en la presente ley, debiendo identificarse en la orden la URL específica del contenido cuya remoción se ordena.
Entre las medidas que ordenó la judicatura se encuentran: la intervención del ENACOM para bloquear el acceso desde el territorio argentino a la página web en la que se encontraba disponible dicha aplicación y la remisión de oficio a la Unidad Fiscal Especializada en Ciberdelincuencia (UFECI) dependiente del Ministerio Público Fiscal de la Nación, a fin de promover acciones internacionales tendientes a la identificación de los responsables.
Este fallo se circunscribe como pionero en Argentina, pese a que no existe una normativa específica en nuestro país sobre la problemática tratada. Esta resolución judicial no solo puso en vigencia los principios convencionales de tutela de derechos fundamentales, sino que también evidenció el valor judicial que posee una interpretación evolutiva del derecho, capaz de adaptarse a los desafíos tecnológicos actuales sin perder de vista el núcleo axiológico de la Constitución: la dignidad humana.
Conclusión
A lo largo del presente trabajo se ha analizado en profundidad el contenido normativo de la Take It Down Act (TIDA), destacando sus definiciones innovadoras, su enfoque centrado en el consentimiento informado y su estructura de sanciones claras para la protección de derechos personalísimos, especialmente en casos de divulgación no consentida de imágenes íntimas, reales o manipuladas por IA. La norma estadounidense no solo representa un avance legislativo concreto, sino también un ejemplo de gobernanza digital sensible a los nuevos riesgos que impone la tecnología.
En segundo lugar, el estudio ha puesto en evidencia las falencias del marco jurídico argentino vigente, el cual carece de una figura penal específica que contemple la creación o difusión de Deepfakes íntimos. Esta omisión normativa debilita la capacidad punitiva del Estado y deja en situación de extrema vulnerabilidad a las víctimas, especialmente mujeres, niñas y adolescentes. A pesar de ciertos avances doctrinarios y contravencionales, la legislación penal actual no logra responder con eficacia al fenómeno analizado.
En tercer lugar, se han identificado y examinado proyectos legislativos nacionales que buscan tipificar penalmente la creación y difusión de contenido íntimo manipulado digitalmente. Si bien representan un avance en la dirección correcta, aún persisten desafíos para lograr una regulación armónica, técnica y respetuosa de los principios constitucionales de legalidad, igualdad y dignidad humana.
Finalmente, el comentario del fallo judicial dictado en la Provincia de Corrientes ha demostrado que, aun sin legislación penal específica, el poder judicial argentino puede desplegar herramientas jurídicas eficaces desde la faz civil —a través de interpretaciones dinámicas e integrales del sistema normativo actual— para proteger los derechos vulnerados por el uso malicioso de la IA, sentando un precedente jurisprudencial de altísimo valor.
En definitiva, el fenómeno de los Deepfakes íntimos interpela a la dogmática penal, al legislador y al Poder Judicial, exigiendo respuestas normativas que no solo sancionen el daño, sino que también prevengan su ocurrencia, aseguren la reparación de las víctimas y garanticen que el avance tecnológico no se convierta en un instrumento de opresión.
Referencias bibliográficas
American Sunlight Project (diciembre, 2024). Deepfake pornography targeting members of Congress [Pornografía deepfake dirigida a miembros del Congreso]. https://www.americansunlight.org/updates/deepfake-pornography-targeting-members-of-congress
Cifuentes, S. (1998). Autonomía de los derechos personalísimos a la integridad espiritual. Revista Jurídica Argentina La Ley, 1998(b), 702–705.
Citron, D. K. (2019). Sexual Privacy [Privacidad sexual]. Yale Law Journal, 128, 1870–1960. https://www.yalelawjournal.org/article/sexual-privacy
Código Penal de la Nación Argentina. https://servicios.infoleg.gob.ar/infolegInternet/verNorma.do?id=16546
Congreso de los Estados Unidos (2020). National Defense Authorization Act for Fiscal Year 2020 [Ley de Autorización de Defensa Nacional para el Año Fiscal 2020]. Public Law 116–92, Section 5724. https://www.congress.gov/bill/116th-congress/senate-bill/1790/text
Congreso de los Estados Unidos (2020). U.S. Code: National Artificial Intelligence Initiative Act of 2020 [Código de los Estados Unidos: Ley de Iniciativa Nacional de Inteligencia Artificial], Section 9401. https://uscode.house.gov/view.xhtml?req=%28title%3A15+section%3A9401+edition%3Aprelim%29
Congreso de los Estados Unidos (2025). Take It Down Act (TIDA) [Acto de derribarlo (TIDA)]. S.146, 119th Congress. https://www.congress.gov/bill/119th-congress/senate-bill/146/text
Honorable Cámara de Diputados de la Nación Argentina (2024). Proyecto de ley Nº 3955-D-2024. Trámite Parlamentario Nº 104, 29 de julio de 2024. https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2024/PDF2024/TP2024/3955-D-2024.pdf
Honorable Cámara de Diputados de la Nación Argentina (2024). Proyecto de ley Nº 0447-D-2024. Trámite Parlamentario Nº 11, 8 de marzo de 2024. https://www4.hcdn.gob.ar/dependencias/dsecretaria/Periodo2024/PDF2024/TP2024/0447-D-2024.pdf
Juzgado de Familia, Niñez y Adolescencia de Paso de los Libres, Provincia de Corrientes. C.R.A. y Otros S/Acciones derivadas de protección de niñez y adolescencia, sentencia de fecha 21 de mayo de 2025. https://www.diariojudicial.com/uploads/0000058623-original.pdf
Ley 23.054. Convención Americana sobre Derechos Humanos (Pacto de San José de Costa Rica). https://servicios.infoleg.gob.ar/infolegInternet/verNorma.do?id=28152Ley 23.313. Pacto Internacional de Derechos Civiles y Políticos. https://servicios.infoleg.gob.ar/infolegInternet/verNorma.do?id=23782
Ley 27.411. Convenio sobre la Ciberdelincuencia (Convenio de Budapest). https://servicios.infoleg.gob.ar/infolegInternet/verNorma.do?id=304798
Ley 1472. Código Contravencional de la Ciudad Autónoma de Buenos Aires. https://www.saij.gob.ar/1472-local-ciudad-autonoma-buenos-aires-codigo-contravencional-ciudad-lpx0001472-2004-10-28/123456789-0abc-defg-274-1000xvorpyel
Ley 26.061. Protección Integral de los Derechos de Niñas, Niños y Adolescentes. https://servicios.infoleg.gob.ar/infolegInternet/verNorma.do?id=110778
Ley 26.485. Protección Integral para Prevenir, Sancionar y Erradicar la Violencia contra las Mujeres. https://servicios.infoleg.gob.ar/infolegInternet/verNorma.do?id=152155
Ley 27.736. Ley Olimpia Argentina. https://servicios.infoleg.gob.ar/infolegInternet/verNorma.do?id=391774