RESPONSABILIDAD CIVIL POR DAÑOS CAUSADOS POR INTELIGENCIA ARTIFICIAL: ANÁLISIS JURÍDICO DESDE LA TEORÍA DEL RIESGO Y LOS VACÍOS NORMATIVOS EN ECUADOR

CIVIL LIABILITY FOR DAMAGES CAUSED BY ARTIFICIAL INTELLIGENCE: LEGAL ANALYSIS FROM RISK THEORY AND REGULATORY GAPS IN ECUADOR

 

José Antonio García Vallejo 1*

1 Abogado en libre ejercicio, Portoviejo, Manabí, Ecuador. ORCID: https://orcid.org/ 0000-0002-3530-3568. Correo: [email protected]

 

 

* Autor para correspondencia: [email protected]


 


Resumen

El acelerado desarrollo de la inteligencia artificial (IA) ha generado importantes desafíos para los sistemas jurídicos contemporáneos, especialmente en lo relativo a la responsabilidad civil por los daños ocasionados por sistemas inteligentes autónomos. La capacidad de estos sistemas para tomar decisiones de forma automatizada plantea interrogantes sobre la atribución de responsabilidad jurídica cuando se producen perjuicios a terceros. El objetivo del presente artículo es analizar el régimen de responsabilidad civil aplicable a los daños causados por inteligencia artificial desde la perspectiva del derecho ecuatoriano, abordando los vacíos normativos existentes y evaluando las posibles soluciones jurídicas desde la teoría del riesgo. La investigación se desarrolló mediante un enfoque cualitativo de carácter jurídico-dogmático y documental, sustentado en el análisis de la Constitución de la República del Ecuador, el Código Civil, la Ley Orgánica de Defensa del Consumidor y la doctrina especializada sobre responsabilidad civil tecnológica. Los resultados evidencian que el ordenamiento jurídico ecuatoriano carece de una regulación específica sobre inteligencia artificial, por lo que los daños derivados de su uso deben resolverse mediante las reglas generales de responsabilidad civil extracontractual y de responsabilidad por productos defectuosos. Asimismo, se identifican debates doctrinarios sobre la atribución de responsabilidad al programador, al proveedor del sistema o al usuario que emplea la tecnología. Se concluye que la teoría del riesgo constituye una alternativa viable para estructurar un régimen jurídico adecuado frente a los daños causados por sistemas inteligentes, lo que permitiría garantizar una protección efectiva de los derechos de las personas frente a los riesgos derivados de la automatización tecnológica.

 

Palabras clave: inteligencia artificial; responsabilidad civil; teoría del riesgo; daños tecnológicos; regulación jurídica.

Abstract

The rapid development of artificial intelligence (AI) has created significant challenges for contemporary legal systems, particularly regarding civil liability for damages caused by autonomous intelligent systems. The capacity of these systems to make automated decisions raises complex questions about the attribution of legal responsibility when harm occurs. This article aims to analyze the civil liability regime applicable to damages caused by artificial intelligence from the perspective of Ecuadorian law, addressing existing regulatory gaps and evaluating possible legal solutions based on risk theory. The research follows a qualitative legal-dogmatic and documentary approach, based on the analysis of the Constitution of Ecuador, the Civil Code, the Consumer Protection Law, and specialized legal doctrine on technological liability. The findings reveal that the Ecuadorian legal system lacks specific regulation for artificial intelligence, which means that damages arising from its use must currently be addressed through general rules of extra-contractual liability and product liability. The study also highlights doctrinal debates regarding whether responsibility should fall on the programmer, the company providing the system, or the user employing the technology. The article concludes that risk theory offers a viable framework for structuring an adequate legal regime to address damage caused by intelligent systems, ensuring effective protection of individuals’ rights against technological risks.

 

Keywords: artificial intelligence; civil liability; risk theory; technological damage; legal regulation


 

 

Fecha de recibido: 29/11/2025

Fecha de aceptado: 20/02/2026

Fecha de publicado: 12/03/2026     

           

 

Introducción  

La inteligencia artificial constituye una de las tecnologías más disruptivas del siglo XXI, con aplicaciones en ámbitos tan diversos como la medicina, el transporte, la educación, la industria y los servicios financieros. Estos sistemas tienen la capacidad de procesar grandes volúmenes de datos, aprender de la experiencia y tomar decisiones automatizadas sin intervención humana directa, lo que genera importantes beneficios en términos de eficiencia, innovación y optimización de procesos, pero también plantea riesgos jurídicos, éticos y sociales que requieren una adecuada regulación normativa (Russell & Norvig, 2021; UNESCO, 2021).

Desde una perspectiva conceptual, la inteligencia artificial puede entenderse como el conjunto de sistemas informáticos capaces de realizar tareas que normalmente requieren inteligencia humana, tales como el aprendizaje automático, el reconocimiento de patrones, la toma de decisiones y la resolución de problemas complejos (Russell & Norvig, 2021). En el ámbito jurídico, esta tecnología ha generado nuevos debates sobre la forma en que los sistemas legales deben adaptarse a escenarios donde las decisiones pueden ser adoptadas por algoritmos con cierto grado de autonomía funcional, lo que plantea desafíos para los modelos tradicionales de imputación jurídica (Núñez Zorrilla, 2019; Tomás Martínez, 2017).

Uno de los principales desafíos que plantea esta tecnología es la determinación de la responsabilidad civil cuando los sistemas inteligentes ocasionan daños a terceros. La autonomía operativa de ciertos algoritmos, especialmente aquellos basados en aprendizaje automático o machine learning, puede dificultar la identificación del sujeto responsable, lo que genera interrogantes sobre si la responsabilidad debe atribuirse al programador que diseñó el sistema, al fabricante que lo desarrolló, a la empresa que lo comercializa o al usuario que lo utiliza en una actividad determinada (Barfield & Pagallo, 2020).

En este contexto, la doctrina jurídica contemporánea ha comenzado a analizar el impacto de la inteligencia artificial en las estructuras tradicionales de la responsabilidad civil. Algunos autores sostienen que los modelos clásicos basados en la culpa resultan insuficientes para abordar los daños ocasionados por sistemas autónomos, debido a que en muchos casos el comportamiento del algoritmo no puede ser plenamente previsto por sus desarrolladores (Núñez Zorrilla, 2019). En consecuencia, se plantea la necesidad de revisar los fundamentos tradicionales de imputación jurídica en el marco de la transformación digital y de la creciente automatización de los procesos decisionales (Pagallo, 2013).

En el contexto ecuatoriano, el problema adquiere especial relevancia debido a la ausencia de una normativa específica que regule el desarrollo y uso de la inteligencia artificial. No obstante, el ordenamiento jurídico ecuatoriano establece principios constitucionales que pueden servir como fundamento para analizar la responsabilidad derivada del uso de tecnologías emergentes.

En primer lugar, la Constitución de la República del Ecuador reconoce el derecho a la seguridad jurídica, el cual se fundamenta en la existencia de normas jurídicas claras, públicas y aplicadas por las autoridades competentes (art. 82). Asimismo, el artículo 66 reconoce diversos derechos fundamentales relacionados con la protección de la integridad personal, la privacidad y el acceso a servicios seguros y de calidad, los cuales podrían verse afectados por el uso indebido de sistemas tecnológicos. De igual manera, el artículo 11 numeral 9 de la Constitución establece que el más alto deber del Estado consiste en respetar y hacer respetar los derechos garantizados en la Constitución, lo que implica la obligación de generar marcos regulatorios adecuados frente a los riesgos derivados del desarrollo tecnológico.

En términos generales, el Código Civil ecuatoriano establece que quien causa daño a otro por acción u omisión debe repararlo. Este principio constituye la base del régimen de responsabilidad civil extracontractual y se vincula con el principio jurídico neminem laedere, según el cual nadie debe causar daño a otro. En particular, el artículo 2214 del Código Civil dispone que quien ha cometido un delito o cuasidelito que ha inferido daño a otro está obligado a la indemnización correspondiente.

Sin embargo, la aplicación de estas normas tradicionales puede resultar insuficiente frente a los desafíos que plantea la inteligencia artificial, especialmente cuando el daño se produce como consecuencia de decisiones automatizadas o de comportamientos emergentes de los algoritmos. Ante esta realidad, diversos autores han propuesto la adopción de modelos jurídicos basados en la teoría del riesgo, mediante los cuales la responsabilidad recaería en quienes introducen sistemas inteligentes en el mercado o se benefician económicamente de su utilización, independientemente de la existencia de culpa (Barros, 2006; Alessandri, 2005).

Desde esta perspectiva, la responsabilidad civil en materia de inteligencia artificial podría estructurarse sobre la base del principio según el cual quien crea o explota una fuente de riesgo debe asumir las consecuencias jurídicas derivadas de los daños que dicha actividad pueda generar en la sociedad. Este enfoque permitiría garantizar una mayor protección de los derechos de las personas frente a los riesgos derivados del desarrollo tecnológico y de la creciente automatización de los sistemas de decisión.

En este contexto, el presente estudio tiene como objetivo analizar el régimen de responsabilidad civil aplicable a los daños causados por inteligencia artificial, identificando los principales vacíos normativos existentes en Ecuador y evaluando las posibles soluciones jurídicas desde la teoría del riesgo.

Materiales y métodos  

La presente investigación se desarrolló bajo un enfoque cualitativo, sustentado en el análisis jurídico-dogmático y documental. Este enfoque permitió examinar de manera sistemática el marco normativo vigente y la doctrina especializada relacionada con la responsabilidad civil por daños ocasionados por sistemas de inteligencia artificial.

El método jurídico-dogmático se orientó al estudio e interpretación de las normas jurídicas aplicables al fenómeno analizado, particularmente aquellas relacionadas con la responsabilidad civil extracontractual. Por su parte, el análisis documental permitió revisar literatura científica, doctrina jurídica y estudios comparados sobre la regulación de la inteligencia artificial y sus implicaciones en el ámbito de la responsabilidad civil.

Este enfoque metodológico resulta pertinente debido a que el objeto de estudio se centra en el análisis del ordenamiento jurídico y en la identificación de vacíos normativos frente a los desafíos que plantea el desarrollo de tecnologías inteligentes.

Fuentes de información

La investigación se sustentó en la revisión y análisis de diversas fuentes jurídicas y académicas que permitieron abordar el problema desde una perspectiva normativa, doctrinaria y comparada.

Tabla 1. Fuentes de información utilizadas en la investigación.

Tipo de fuente

Descripción

Finalidad en la investigación

Normativa constitucional

Constitución de la República del Ecuador

Analizar los principios constitucionales relacionados con la responsabilidad jurídica, la seguridad jurídica y la protección de derechos.

Normativa civil

Código Civil ecuatoriano

Examinar el régimen jurídico de la responsabilidad civil extracontractual aplicable a los daños ocasionados a terceros.

Legislación especial

Ley Orgánica de Defensa del Consumidor

Identificar disposiciones relacionadas con la responsabilidad por productos o servicios defectuosos que podrían aplicarse a sistemas de inteligencia artificial.

Doctrina jurídica

Libros y estudios especializados en responsabilidad civil y derecho tecnológico

Analizar las principales teorías jurídicas sobre imputación de responsabilidad en contextos tecnológicos.

Literatura científica

Artículos científicos y estudios comparados sobre inteligencia artificial

Examinar tendencias regulatorias internacionales y debates académicos sobre responsabilidad jurídica por daños causados por sistemas inteligentes.

Técnicas de investigación

Para el desarrollo del estudio se aplicaron diversas técnicas de investigación jurídica orientadas al análisis interpretativo del marco normativo y doctrinario.

Tabla 2. Técnicas de investigación aplicadas

Técnica

Descripción

Aplicación en el estudio

Análisis normativo

Estudio sistemático de normas constitucionales y legales

Permite identificar los fundamentos jurídicos de la responsabilidad civil aplicables al contexto tecnológico.

Revisión doctrinaria

Análisis de literatura jurídica especializada

Facilita comprender los debates teóricos sobre la responsabilidad civil en sistemas de inteligencia artificial.

Interpretación jurídica

Interpretación sistemática y teleológica de normas civiles

Permite determinar cómo las normas tradicionales pueden aplicarse a nuevos escenarios tecnológicos.

Análisis comparado

Revisión de propuestas regulatorias internacionales sobre IA

Permite identificar tendencias regulatorias y posibles modelos normativos aplicables al contexto ecuatoriano.

Método de análisis

El proceso de análisis se desarrolló mediante la interpretación sistemática del derecho civil, contrastando las disposiciones normativas existentes con los nuevos desafíos que plantea la inteligencia artificial. Asimismo, se realizó un análisis comparado de propuestas regulatorias internacionales, con el propósito de identificar posibles criterios jurídicos que puedan contribuir al desarrollo de marcos normativos adecuados para regular la responsabilidad civil derivada del uso de sistemas inteligentes.

Este procedimiento permitió identificar vacíos normativos, debates doctrinarios y posibles soluciones jurídicas, particularmente aquellas relacionadas con la aplicación de la teoría del riesgo y los modelos de responsabilidad objetiva en entornos tecnológicos.

Resultados y discusión  

Responsabilidad civil en sistemas de inteligencia artificial

La responsabilidad civil constituye uno de los mecanismos jurídicos fundamentales destinados a garantizar la reparación de los daños ocasionados a una persona como consecuencia de la acción u omisión de otro sujeto. Este régimen encuentra sustento en el ordenamiento jurídico ecuatoriano, particularmente en el Código Civil, el cual establece que quien comete un delito o cuasidelito que cause daño a otro se encuentra obligado a indemnizarlo (art. 2214).

Asimismo, la Constitución de la República del Ecuador reconoce el derecho a la tutela judicial efectiva (art. 75), lo que implica que toda persona tiene derecho a acceder a mecanismos judiciales para reclamar la reparación de los daños sufridos.

Tradicionalmente, la responsabilidad civil se estructura sobre tres elementos fundamentales:

No obstante, el desarrollo de tecnologías basadas en inteligencia artificial introduce nuevas complejidades en la aplicación de este esquema tradicional. Los sistemas algorítmicos avanzados, especialmente aquellos sustentados en técnicas de aprendizaje automático (machine learning), pueden operar con cierto grado de autonomía, generando decisiones o resultados que no siempre pueden ser plenamente previstos por sus desarrolladores o por quienes los utilizan.

Esta característica dificulta la determinación del nexo causal y la identificación del sujeto responsable del daño, particularmente cuando intervienen múltiples actores en el ciclo de vida del sistema tecnológico, tales como programadores, empresas desarrolladoras, proveedores de datos y usuarios finales.

En este contexto, diversos estudios han identificado diferentes fuentes de riesgo asociadas al funcionamiento de los sistemas de inteligencia artificial, las cuales pueden originar daños a terceros. Estas fuentes de riesgo se presentan de manera sintética en la Tabla 3.

Tabla 3. Principales fuentes de riesgo en sistemas de inteligencia artificial

Fuente del daño

Descripción

Ejemplo

Error de programación

Defectos en el diseño del algoritmo

Fallos en sistemas de conducción autónoma

Datos de entrenamiento sesgados

Uso de bases de datos con sesgos estructurales

Sistemas de selección laboral discriminatorios

Fallos técnicos del sistema

Problemas de funcionamiento del software o hardware

Errores en sistemas médicos asistidos por IA

Decisiones automatizadas

Resultados generados por procesos algorítmicos autónomos

Sistemas de evaluación crediticia

Como se observa en la Tabla 3, los daños derivados de la inteligencia artificial pueden originarse tanto en el diseño del sistema como en su implementación o en los datos utilizados para su funcionamiento, lo que incrementa la complejidad jurídica en la determinación de responsabilidades.

Determinación del sujeto responsable por daños causados por inteligencia artificial

Uno de los principales debates doctrinarios en el ámbito del derecho tecnológico se centra en la identificación del sujeto responsable cuando se producen daños derivados del uso de sistemas de inteligencia artificial.

En el ordenamiento jurídico ecuatoriano, esta problemática debe analizarse también a la luz de la Ley Orgánica de Defensa del Consumidor, la cual establece que los proveedores de bienes o servicios responden por los daños causados a los consumidores cuando estos presentan defectos o fallas en su funcionamiento (arts. 18 y 19).

Sobre esta base, se han identificado tres modelos principales de atribución de responsabilidad, los cuales se presentan en la Tabla 4.

 

 

Tabla 4. Modelos de atribución de responsabilidad en inteligencia artificial

Modelo de responsabilidad

Actor responsable

Fundamento jurídico

Responsabilidad del programador

Desarrollador del algoritmo

Error de diseño

Responsabilidad del proveedor

Empresa desarrolladora

Responsabilidad por productos defectuosos

Responsabilidad del usuario

Usuario del sistema

Uso indebido o negligente

Tal como se observa en la Tabla 4, la atribución de responsabilidad puede recaer en distintos actores dependiendo del origen del daño y del grado de control que cada uno de ellos tenga sobre el funcionamiento del sistema inteligente.

La teoría del riesgo como fundamento de la responsabilidad por inteligencia artificial

Ante las limitaciones de los modelos tradicionales basados en la culpa, diversos autores han propuesto la aplicación de la teoría del riesgo como fundamento jurídico para abordar la responsabilidad civil derivada de los daños ocasionados por sistemas de inteligencia artificial.

Este enfoque se vincula con la idea de que quien introduce en la sociedad una actividad potencialmente peligrosa debe asumir las consecuencias jurídicas derivadas de los daños que esta pueda generar. Este criterio encuentra sustento en el desarrollo doctrinario del derecho de daños y en los principios de reparación integral reconocidos por el ordenamiento jurídico.

Los principales elementos de esta teoría aplicados a la inteligencia artificial se presentan en la Tabla 5.

Tabla 5. Elementos de la teoría del riesgo aplicados a la inteligencia artificial

Elemento

Aplicación

Actividad generadora de riesgo

Uso de sistemas inteligentes autónomos

Sujeto responsable

Empresa o actor que introduce la tecnología

Tipo de responsabilidad

Responsabilidad objetiva

Mecanismos de reparación

Indemnización o seguros obligatorios

Como se observa en la Tabla 5, la teoría del riesgo permite estructurar un modelo de responsabilidad jurídica orientado a garantizar la reparación efectiva de los daños ocasionados por tecnologías emergentes.

Fundamento constitucional de la responsabilidad frente a daños derivados de la inteligencia artificial

El análisis de la responsabilidad civil derivada del uso de sistemas de inteligencia artificial no puede limitarse únicamente al derecho civil, sino que debe interpretarse en armonía con los principios constitucionales que garantizan la protección de los derechos fundamentales y la seguridad jurídica dentro del Estado constitucional de derechos y justicia.

En este sentido, la Constitución de la República del Ecuador establece diversos principios que pueden servir como fundamento para la regulación de los riesgos derivados del uso de tecnologías emergentes.

En primer lugar, el artículo 3 numeral 1 de la Constitución establece como deber primordial del Estado garantizar sin discriminación alguna el efectivo goce de los derechos establecidos en la Constitución y en los instrumentos internacionales de derechos humanos. Este mandato implica que el Estado tiene la obligación de generar mecanismos normativos y regulatorios que permitan prevenir o reparar los daños ocasionados por el uso de tecnologías que puedan afectar derechos fundamentales de las personas.

De igual manera, el artículo 66 reconoce un conjunto de derechos relacionados con la integridad personal, la privacidad, la protección de datos y el acceso a bienes y servicios de calidad. En particular, el numeral 25 reconoce el derecho de las personas a acceder a bienes y servicios públicos y privados de calidad, eficientes y seguros, lo cual adquiere especial relevancia en el contexto del uso de sistemas tecnológicos automatizados que puedan afectar la vida, la salud o la seguridad de las personas.

Asimismo, el artículo 75 de la Constitución reconoce el derecho a la tutela judicial efectiva, lo que garantiza que toda persona pueda acceder a la justicia para reclamar la protección de sus derechos y la reparación de los daños sufridos. Este principio resulta fundamental en el análisis de la responsabilidad civil derivada del uso de sistemas de inteligencia artificial, ya que permite a las víctimas de daños tecnológicos acudir a los órganos jurisdiccionales para exigir la correspondiente indemnización.

Otro principio constitucional relevante es el establecido en el artículo 82, que consagra el derecho a la seguridad jurídica. Este principio se fundamenta en la existencia de normas jurídicas claras, públicas y aplicadas por las autoridades competentes. En el ámbito de la inteligencia artificial, la ausencia de una regulación específica puede generar incertidumbre jurídica respecto a la atribución de responsabilidad por los daños ocasionados por sistemas autónomos.

El artículo 226 de la Constitución establece que las instituciones del Estado, sus organismos, dependencias, servidores públicos y personas que actúen en ejercicio de una potestad estatal ejercerán solamente las competencias y facultades que les sean atribuidas por la Constitución y la ley. Este principio adquiere especial relevancia en el contexto del uso de sistemas de inteligencia artificial en la administración pública, ya que el empleo de algoritmos en procesos de toma de decisiones debe realizarse dentro de los límites establecidos por el ordenamiento jurídico y con respeto a los derechos fundamentales.

En conjunto, estos principios constitucionales permiten sostener que el desarrollo tecnológico debe estar acompañado de marcos regulatorios adecuados que garanticen la protección de los derechos de las personas frente a los riesgos derivados del uso de sistemas inteligentes.

Comparación con el modelo regulatorio de la Unión Europea (AI Act)

A nivel internacional, uno de los avances regulatorios más relevantes en materia de inteligencia artificial es el Reglamento de Inteligencia Artificial de la Unión Europea, conocido como AI Act. Este instrumento normativo constituye el primer marco jurídico integral destinado a regular el desarrollo, comercialización y uso de sistemas de inteligencia artificial.

El AI Act adopta un enfoque basado en el nivel de riesgo, mediante el cual los sistemas de inteligencia artificial se clasifican en diferentes categorías según el grado de peligro que puedan representar para los derechos fundamentales y la seguridad de las personas.

Las principales categorías de riesgo establecidas en este reglamento se presentan en la Tabla 6.

Tabla 6. Clasificación de riesgos en el Reglamento de Inteligencia Artificial de la Unión Europea (AI Act).

Nivel de riesgo

Características

Ejemplos

Riesgo inaceptable

Sistemas prohibidos por vulnerar derechos fundamentales

Sistemas de manipulación cognitiva o vigilancia masiva

Alto riesgo

Sistemas que pueden afectar derechos fundamentales o seguridad

IA en salud, transporte, justicia o educación

Riesgo limitado

Sistemas que requieren transparencia en su funcionamiento

Chatbots o sistemas de interacción automatizada

Riesgo mínimo

Aplicaciones de bajo impacto

Videojuegos o filtros de contenido

Como se observa en la Tabla 6, el modelo europeo establece obligaciones diferenciadas según el nivel de riesgo que presenta cada sistema de inteligencia artificial. Los sistemas considerados de alto riesgo están sujetos a requisitos estrictos relacionados con la evaluación de conformidad, la gestión de riesgos, la transparencia algorítmica y la supervisión humana.

Este modelo regulatorio tiene como objetivo garantizar que el desarrollo de la inteligencia artificial se realice de manera segura y respetuosa de los derechos fundamentales.

En comparación con este enfoque, el ordenamiento jurídico ecuatoriano aún no cuenta con una legislación específica que regule de manera integral la inteligencia artificial. No obstante, los principios constitucionales y las normas generales del derecho civil pueden servir como base para abordar los conflictos derivados del uso de estas tecnologías.

La experiencia europea demuestra que la regulación preventiva de la inteligencia artificial puede contribuir a reducir los riesgos asociados a su uso y a establecer criterios claros para la atribución de responsabilidades en caso de daños.

En este sentido, el análisis comparado sugiere la necesidad de avanzar hacia el desarrollo de marcos regulatorios específicos en Ecuador, que permitan armonizar el desarrollo tecnológico con la protección de los derechos fundamentales y la seguridad jurídica

Conclusiones  

El desarrollo acelerado de la inteligencia artificial ha generado nuevos desafíos para el derecho contemporáneo, especialmente en lo relativo a la responsabilidad civil por los daños ocasionados por sistemas inteligentes. El análisis realizado evidencia que el ordenamiento jurídico ecuatoriano carece de una regulación específica sobre inteligencia artificial, lo que obliga a recurrir a las normas generales del derecho civil para resolver los conflictos derivados de su utilización.

Asimismo, se observa que la determinación del sujeto responsable en estos casos puede resultar compleja debido a la multiplicidad de actores involucrados en el ciclo de vida de los sistemas inteligentes, incluyendo programadores, empresas proveedoras y usuarios.

En este contexto, la teoría del riesgo se presenta como una alternativa jurídica adecuada para abordar los daños causados por inteligencia artificial, ya que permite atribuir responsabilidad a quienes introducen tecnologías potencialmente peligrosas en la sociedad. Resulta necesario desarrollar marcos regulatorios específicos sobre inteligencia artificial que permitan garantizar la protección de los derechos de las personas frente a los riesgos derivados de la automatización tecnológica.

Referencias  

Alessandri, A. (2005). De la responsabilidad extracontractual en el derecho civil chileno. Editorial Jurídica de Chile.

Barfield, W., & Pagallo, U. (2020). Research handbook on the law of artificial intelligence. Edward Elgar Publishing. https://doi.org/10.4337/9781789905140

Barros Bourie, E. (2006). Tratado de responsabilidad civil extracontractual. Editorial Jurídica de Chile.

Bryson, J. (2018). Patiency is not a virtue: The design of intelligent systems and systems of ethics. Ethics and Information Technology, 20(1), 15–26. https://doi.org/10.1007/s10676-018-9448-6

Calo, R. (2015). Robotics and the lessons of cyberlaw. California Law Review, 103(3), 513–563.

Cath, C. (2018). Governing artificial intelligence: Ethical, legal and technical opportunities and challenges. Philosophical Transactions of the Royal Society A, 376(2133). https://doi.org/10.1098/rsta.2018.0080

Ecuador. (2000). Ley Orgánica de Defensa del Consumidor. Registro Oficial.

Ecuador. (2005). Código Civil del Ecuador. Registro Oficial.

Ecuador. (2008). Constitución de la República del Ecuador. Registro Oficial No. 449.

European Commission. (2021). Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). https://eur-lex.europa.eu

Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., Luetge, C., Madelin, R., Pagallo, U., Rossi, F., Schafer, B., Valcke, P., & Vayena, E. (2018). AI4People—An ethical framework for a good AI society. Minds and Machines, 28, 689–707. https://doi.org/10.1007/s11023-018-9482-5

Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.

Núñez Zorrilla, M. C. (2019). Inteligencia artificial y responsabilidad civil: régimen jurídico de los daños causados por robots autónomos. Editorial Reus.

Pagallo, U. (2013). The laws of robots: Crimes, contracts, and torts. Springer. https://doi.org/10.1007/978-94-007-6564-2

Russell, S., & Norvig, P. (2021). Artificial intelligence: A modern approach (4th ed.). Pearson.

Schwab, K. (2016). The fourth industrial revolution. World Economic Forum.

Surden, H. (2019). Artificial intelligence and law: An overview. Georgia State University Law Review, 35(4), 1305–1335.

Tomás Martínez, G. (2017). ¿Puede un robot ser responsable por causar daños? Reflexiones jurídicas sobre inteligencia artificial. Revista de Derecho Civil, 4(2), 1–28.

Turner, J. (2019). Robot rules: Regulating artificial intelligence. Palgrave Macmillan. https://doi.org/10.1007/978-3-030-01413-1

UNESCO. (2021). Recommendation on the Ethics of Artificial Intelligence. UNESCO Publishing. https://unesdoc.unesco.org