14/2/26

Conferencia Internacional sobre Inteligencia Artificial para el Derecho ICAIL, de 2026, Singapur.

 




  • 21a Conferencia sobre Inteligencia artificial y Derecho.
    Fecha: 8 al 12 de junio de 2026
    Lugar
    Universidad de Gestión de Singapur
    Yong Pung Cómo Facultad de Derecho
    Calle Armenia 55
    Singapur 179943
OTROS EVENTOS 
Inteligencia artificial y derecho
Juris-informática
IA en la práctica legal
Aplicaciones de inteligencia artificial en derecho
Modelos computacionales de conocimiento legal, razonamiento y toma de decisiones
Sistemas de inteligencia artificial que se utilizan en los dominios legales
Las implicaciones éticas y sociales del campo de la inteligencia artificial y el derecho
Lógica epistémica dinámica del cambio de creencias en juicios legales
Personalidad jurídica de los robots
Inteligencia artificial para la justicia
Razonamiento basado en normas y valores
Recuperación de información legal
Eventos relacionados


Análisis profundo del caso de la audiencia suspendida en la acción de protección de Emelec y su vínculo con la protección de datos personales.


El artículo que enlazas describe un incidente ocurrido el 12 de febrero de 2026 en la audiencia de la **acción de protección** presentada por el socio Pedro Merchán contra el Club Sport Emelec. El objetivo era dejar sin efecto la convocatoria a elecciones (programadas para el 21 de febrero de 2026 en el estadio George Capwell), argumentando que solo 842 socios están habilitados según el reglamento y que se vulneran derechos de participación al no permitir otras candidaturas. Se solicitó también una medida cautelar para suspender el proceso electoral.

Durante la audiencia virtual vía Zoom, un usuario no autorizado ("Javier", identificado como tercero ajeno) insertó un video deepfake generado con inteligencia artificial (IA)** del abogado Guillermo Moreira (defensor de Emelec). El video mostraba al letrado en una situación degradante (desnudándose y exhibiendo musculatura). La jueza Gareyng Mata, inicialmente, amenazó con expulsar al abogado pensando que era él quien lo había subido, pero al verificar el sabotaje, suspendió la diligencia y la reprogramó para el 18 de febrero de 2026, solicitando apoyo técnico. Moreira denunció el hecho en X como un acto de "troleo" y sabotaje.

Este caso no es solo un "troleo" judicial: expone vulnerabilidades graves en la ciberseguridad de las audiencias virtuales y un claro riesgo de violación a la protección de datos personales, agravado por el uso de IA. A continuación, profundizo en los aspectos solicitados: protección de datos, artículos de ley, jurisprudencia y el problema de los jueces con bajo conocimiento tecnológico.

1. Protección de datos personales en este contexto

El deepfake implica tratamiento ilícito de datos personales del abogado Moreira:
- Su imagen facial y posiblemente voz son datos biométricos (únicos y relativos a características físicas para identificación).
- La creación y difusión del video sin consentimiento viola principios básicos: finalidad legítima, consentimiento y seguridad
- En audiencias judiciales, los datos (imágenes, voces, identidades) se procesan en plataformas digitales, lo que los convierte en un "espacio de privacidad" protegido. El sabotaje expone fallos en la cadena de custodia digital y permite accesos no autorizados.

Esto se agrava porque ocurre en un proceso judicial, donde la transparencia y seguridad son obligaciones del Estado (art. 168 Constitución). El incidente podría configurarse como vulneración al derecho a la intimidad, honra y reputación (art. 66 nums. 3 y 19 Constitución), además de un riesgo de discriminación o daño moral por el contenido degradante.

2. Artículos de ley relevantes en Ecuador

Constitución de la República (2008)
- Art. 66, numeral 19: "El derecho a la protección de datos de carácter personal, que incluye el acceso y la decisión sobre información y datos de este carácter, así como su correspondiente protección. La recolección, archivo, procesamiento, distribución o difusión de estos datos personales requerirán la autorización del titular o el mandato de ley".
- Art. 92: Garantía de habeas data (acción para acceder, rectificar, actualizar o eliminar datos personales en poder de entidades públicas o privadas).
- Art. 66, numeral 3: Derecho a la honra y reputación (afectado por el deepfake).
- Art. 11: Los derechos son directamente exigibles.

Ley Orgánica de Protección de Datos Personales (LOPDP, 2021)
Esta es la norma clave (publicada en RO Suplemento 459 del 26/05/2021). Artículos relevantes:

| Aspecto | Artículos clave | Contenido principal |

| Definiciones | Art. 4 | Datos personales: cualquier información identificable. Datos biométricos: rasgos faciales, voz, etc. (el deepfake los usa). Datos sensibles: aquellos que pueden generar discriminación (imagen íntima). |
| Principios | Art. 10 | Juridicidad, lealtad, transparencia, finalidad, minimización, proporcionalidad, confidencialidad, seguridad y responsabilidad proactiva. |
| Consentimiento | Arts. 7-8 | Debe ser libre, específico, informado e inequívoco. Revocable en cualquier momento. Excepciones limitadas (no aplican aquí). |
| Medidas de seguridad | Arts. 37-42 | Obligación de implementar medidas técnicas y organizativas (cifrado, autenticación, sala de espera en Zoom). Protección "desde el diseño" y "por defecto". Notificación de brechas en 3-5 días. |
| Derechos de los titulares | Arts. 12-24 | Acceso, rectificación, eliminación, oposición (incluso a perfiles automatizados con IA), portabilidad y no a decisiones automatizadas. |
| Sanciones| Arts. 47, 65-72 (y reformas) | Infracciones graves: multas de 0,7% a 1% del volumen de negocio o 10-20 salarios básicos unificados. Medidas correctivas: cese del tratamiento, eliminación de datos. La Superintendencia de Protección de Datos Personales (SPDP) impone sanciones (ejemplo reciente: multas a LIGAPRO y FEF por apps de datos de hinchas). |

Otras normas

- Código Orgánico Integral Penal (COIP): Art. 212 (suplantación de identidad, agravada con IA). Posibles delitos contra la intimidad (arts. 178-180) o fraude informático.
- Protocolos de audiencias telemáticas (Consejo de la Judicatura y Corte Nacional, actualizados 2024): Exigen contraseñas, sala de espera, verificación de identidad y grabación segura. Zoom debe usarse con licencias Enterprise Plus (seguridad básica, pero insuficiente contra trolls).

 3. Jurisprudencia relevante

- Corte Constitucional: Sentencia 001-2014-PJO-CC (habeas data como garantía efectiva). Sentencia 2064-14-EP/21 (datos sensibles y espacio de privacidad; aplica a imágenes íntimas o manipuladas).
- Casos emergentes con IA/deepfakes: Aún escasos, pero doctrina y artículos académicos (2024-2025) destacan la necesidad de aplicar LOPDP por analogía. Ejemplos:
  - Análisis en revistas como Revista Lex y Revista de Derecho Penal: Deepfakes violan LOPDP y COIP; se proponen tipos penales específicos.
  - Sanciones SPDP (diciembre 2025): Multas a entidades deportivas por tratamiento indebido de datos biométricos en apps (precedente para Emelec, club deportivo).
- Internacional (referencia): GDPR (Europa) y leyes latinas (Brasil, Colombia) tratan deepfakes como tratamiento de datos biométricos. En Ecuador, la jurisprudencia evoluciona hacia mayor protección en entornos digitales.

No hay sentencia exacta sobre "troleo en Zoom judicial", pero el caso podría generar una (vía acción de protección o queja ante SPDP).

 4. Jueces sin conocimiento de tecnología: un problema sistémico

El incidente ilustra analfabetismo digital judicial:
- La jueza confundió el deepfake con intervención real del abogado → falta de comprensión de IA, edición en tiempo real y spoofing en Zoom.

- Problemas comunes:
  - Jueces y secretarios con formación limitada en ciberseguridad (protocolos existen, pero su aplicación es deficiente).
  - Plataformas como Zoom son vulnerables a "Zoom bombing" (troleo masivo), pese a medidas como sala de espera.
  - Estudios (ej. "Justicia electrónica en Ecuador", Función Judicial): Brecha entre avance tecnológico y capacitación. Muchos jueces priorizan audiencias presenciales por desconfianza en lo digital.
- Consecuencias: Retrasos (como aquí), vulneración de derechos y pérdida de confianza en la justicia.
- Soluciones urgentes:
  - Capacitación obligatoria en IA, deepfake detection y forense digital (ya hay pericias en SNMLCF, pero insuficientes).
  - Apoyo técnico permanente en audiencias (como solicitó la jueza).
  - Actualización de protocolos con IA (detección automática de manipulaciones).
  - Reforma legal para tipificar "sabotaje digital a diligencias judiciales".

Este caso es un llamado de atención para la Función Judicial: la digitalización (acelerada por la pandemia) trajo eficiencia, pero sin inversión en ciberseguridad y formación, genera riesgos como este. Emelec y Moreira podrían accionar por daños (civil/penal) y exigir investigación sobre el "Javier" (posible delito). La reprogramación del 18 de febrero será clave para ver cómo se maneja la tecnología esta vez.

28/11/25

BOTIAJ, sobre demanda de AMAZON en contra de PERPLEXITY AI. Con análisis de jurisprudencia.

 


El 4 de noviembre de 2025, Amazon.com Services LLC presentó una demanda civil contra Perplexity AI, Inc. en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California (Caso No. 3:25-cv-09514). La acción se centra en las prácticas del agente de IA "Comet" de Perplexity, un navegador web "agentic" (autónomo) que realiza compras en la plataforma de Amazon de manera encubierta, accediendo a cuentas privadas de clientes sin autorización ni divulgación. Amazon alega que esto viola leyes federales y estatales de fraude informático, así como sus términos de servicio, generando riesgos de seguridad, degradación de la experiencia del usuario y daños económicos. La demanda no busca bloquear la innovación en IA, sino exigir transparencia y respeto a las barreras de acceso.
Perplexity ha respondido públicamente calificando la acción como "acoso" (bullying), argumentando que Comet es una herramienta controlada por el usuario para asistir en compras, no un bot de extracción de datos, y que Amazon busca proteger su modelo de ingresos publicitarios a expensas de los derechos de los consumidores. Hasta la fecha (28 de noviembre de 2025), no se han reportado respuestas formales de Perplexity en el tribunal, pero el caso podría tener implicaciones amplias para el uso de agentes de IA en el comercio electrónico.
Partes Involucradas
- **Demandante**: Amazon.com Services LLC, una compañía de responsabilidad limitada de Delaware que opera la "Amazon Store" (tienda en línea).
- **Demandado**: Perplexity AI, Inc., una corporación de Delaware con sede principal en San Francisco, California, desarrolladora de herramientas de IA como el navegador Comet.
Fundamentos de Hecho
Los hechos alegados por Amazon se basan en una cronología de accesos no autorizados desde noviembre de 2024, respaldados por análisis forenses y comunicaciones directas con ejecutivos de Perplexity. Se enfatiza la persistencia de Perplexity en evadir notificaciones y barreras técnicas, lo que genera daños cuantificables.
Cronología clave:
- 19 de noviembre de 2024: Amazon detecta el uso de la función "Buy with Pro" de Perplexity, que utiliza cuentas Prime de clientes para realizar compras automatizadas vía IA, interfiriendo en relaciones comerciales y ingresos de Amazon. Amazon notifica a Perplexity, que acuerda detener el despliegue de agentes de IA, pero sin un acuerdo mutuo formal.
- 9 de julio de 2025: Perplexity lanza Comet para suscriptores pagos, permitiendo que el agente de IA acceda encubiertamente a cuentas privadas de Amazon para agregar productos al carrito, realizar pedidos y transmitir datos a servidores de Perplexity, sin identificación ni consentimiento.
- 4 de agosto de 2025: Amazon contacta al director comercial de Perplexity, quien niega falsamente que Comet sea "agentic" (autónomo), contradiciendo la publicidad de Perplexity.
- 19 de agosto de 2025: Amazon implementa una barrera tecnológica tras análisis forense; Perplexity la evade en 24 horas mediante una actualización de software que simula un navegador Google Chrome humano (usando el string de user-agent de Chrome para ocultar su naturaleza automatizada).
- 12 de septiembre de 2025: Amazon advierte al CEO de Perplexity de acciones legales si persiste el acceso no autorizado; no hay respuesta negatoria.
- 29 de septiembre de 2025: Nueva notificación a ejecutivos; el acceso continúa sin justificación.
- **2 de octubre de 2025**: Comet se hace disponible gratuitamente al público.
- 31 de octubre de 2025: Amazon envía carta de cese y desista; Perplexity se niega a detener las actividades.
Alegaciones específicas:
- Comet accede a datos privados (historial de compras, detalles de cuenta) sin divulgación, violando los Términos de Agente de Amazon, que exigen identificación clara (ej. "Agent/PerplexityComet") y prohíben el ocultamiento o evasión de medidas de seguridad.
- Esto genera riesgos como "CometJacking" (ataques de inyección de código en extensiones de navegador vulnerables), robo de datos y degradación de la experiencia de compra personalizada.
- Daños: Más de $260,000 en investigaciones y adaptaciones de sistemas; erosión de confianza de clientes; interferencia en ingresos por publicidad y ventas.
Cita clave: "Desde el 19 de noviembre de 2024, Amazon ha informado a los ejecutivos de Perplexity en al menos cinco ocasiones separadas que sus agentes de IA no pueden acceder encubiertamente a la Amazon Store. Primero Perplexity acordó, luego se retractó. Luego, después de que Amazon detectara el agente de IA Comet accediendo encubiertamente a cuentas privadas de clientes y le dijera a Perplexity que se detuviera, Perplexity afirmó que Comet no era agentic cuando sus propios materiales de marketing admiten lo contrario."
Fundamentos de Derecho y Reclamos Expuestos
La demanda se ancla en violaciones a estatutos de fraude informático, interpretados como accesos "sin autorización" o "en exceso de autorización" debido al ocultamiento intencional y evasión de barreras. Se invocan también los Términos de Uso de Amazon como base contractual implícita.
Causas de acción principales:
1. Violación de la Computer Fraud and Abuse Act (CFAA, 18 U.S.C. § 1030): Acceso intencional sin autorización o en exceso (§ 1030(a)(2)), y con intención de defraudar (§ 1030(a)(4)). Se alega obtención de información valiosa (> $5,000, ej. datos de clientes) y pérdidas (> $5,000 en recursos). Busca daños compensatorios e injunctivo bajo § 1030(g).
2. Violación de la California Comprehensive Computer Data Access and Fraud Act (CCDAA, Código Penal de California § 502): Acceso sin permiso y toma/uso de datos (§ 502(c)(2)); uso no autorizado de servicios informáticos (§ 502(c)(3)); adición/alteración de datos (ej. historial de navegación) (§ 502(c)(4)); y acceso a sistemas sin permiso (§ 502(c)(7)). Conducta dolosa con opresión/fraude/malicia; busca injunctivo, daños compensatorios/punitivos, honorarios y costas bajo § 502(e).
Base contractual: Violación de Condiciones de Uso (prohíben minería de datos, robots o uso comercial sin consentimiento), Términos de Software (no evadir seguridad) y Términos de Agente (transparencia obligatoria).
Alivio solicitado:
- Injunción preliminar, interim y permanente para detener accesos vía IA, uso de cuentas para tales fines, exceso de autorización o evasión.
- Destrucción de datos obtenidos ilegalmente; identificación de cuentas afectadas; certificación jurada de cumplimiento.
- Daños monetarios (compensatorios, estatutarios, punitivos), intereses, costas y honorarios.
- Juicio por jurado.
Toda Información Jurídica Relacionada
-Jurisdicción y venue: Jurisdicción federal por pregunta federal (CFAA); suplemental para reclamos estatales. Competencia personal por sede de Perplexity en California; venue adecuado por eventos en San Francisco.
- Respuesta de Perplexity: En declaraciones públicas, Perplexity argumenta que Comet es una extensión de navegador controlada por el usuario (no un bot autónomo), y que Amazon busca monopolizar interacciones con IA para maximizar anuncios. Critican la demanda como "bonkers" (absurda), alegando que viola derechos de usuarios a herramientas asistidas.
- Implicaciones: Este caso podría definir límites para "agentes agentic" en e-commerce, equilibrando innovación IA con protección de datos privados. Dado el enfoque en cuentas no públicas, difiere de disputas sobre scraping público. Amazon ha enviado cartas similares a otras firmas de IA; podría escalar a regulaciones federales sobre IA (ej. bajo FTC o nuevas leyes de 2025).
- Estado actual: Demanda reciente; no hay audiencias programadas reportadas. Posible moción de Perplexity para desestimar bajo argumentos de "acceso autorizado" vía usuarios.
Profundización en Jurisprudencia
La jurisprudencia relevante se centra en interpretaciones de "acceso sin autorización" bajo CFAA y CCDAA, particularmente en contextos de scraping web, bots automatizados y evasión de términos de servicio. Aunque el caso Amazon v. Perplexity es novedoso por involucrar IA agentic en cuentas privadas, se apoya en precedentes que distinguen accesos públicos (generalmente permitidos) de encubiertos o evasivos (prohibidos). La Corte Suprema en *Van Buren v. United States* (2021) limitó CFAA a "breaking and entering" digital (no mera violación de políticas), fortaleciendo defensas de Perplexity, pero Amazon argumenta evasión técnica como clave.
Precedentes clave bajo CFAA:
- hiQ Labs, Inc. v. LinkedIn Corp. (9º Circ. 2022): Scraping de datos públicos no viola CFAA, incluso post-cease-and-desist, si no hay barreras técnicas como login. "Acceso sin autorización" requiere circunvención de reglas de permiso (ej. contraseñas), no solo términos de servicio. Aplicación: Favorece Perplexity si se ve como "público", pero Amazon distingue por acceso a cuentas privadas y evasión de barreras (diferente de hiQ).
- Facebook, Inc. v. Power Ventures, Inc. (9º Circ. 2016): Violación de términos no basta para CFAA, pero scraping post-cease-and-desist vía cambio de IP (evasión) sí constituye acceso no autorizado. Refuerza reclamo de Amazon por actualización de software de Perplexity para burlar filtros.
- Meta Platforms, Inc. v. BrandTotal Ltd.(N.D. Cal. 2022): Scraping vía cuentas falsas viola CFAA; acceso autorizado por "agente" (usuario) no exime si hay patrón de engaño. Paralelo directo: Comet usa cuentas reales pero oculta su automatización, potencialmente excediendo autorización.
- EF Cultural Travel BV v. Zefer Corp. (1º Circ. 2003): Términos explícitos en sitio web guían autorización; scraping sin ellos no viola CFAA. Amazon cita sus Términos de Agente como "reglas aplicables".
Precedentes bajo CCDAA (§ 502):
- Casos como In re Facebook Privacy Litigation (N.D. Cal. 2012) y Hicks v. Kaufman & Broad Home Corp. (2001) interpretan § 502 más amplio que CFAA, cubriendo "acceso intencional sin permiso" y alteración de datos, incluso en sitios públicos si hay daño. En Oracle Am., Inc. v. Hewlett Packard Enter. Co. (N.D. Cal. 2016), evasión de medidas técnicas vía software viola § 502(c)(7). Apoya Amazon por la actualización de Comet.
- Diferencia con CFAA: CCDAA permite daños punitivos por malicia, y California aplica "opresión/fraude" en conductas persistentes post-notificación.
Tendencias en IA y scraping:
- En Clearview AI casos (2020-2025), scraping masivo para IA facial viola CFAA si implica evasión (ej. Clearview AI, Inc. v. State of Illinois, Ill. 2023). Sugiere que agentes de IA no son "usuarios humanos" si ocultan su naturaleza.
- Post-Van Buren, cortes rechazan CFAA para scraping "normativo" pero lo aplican a "técnico" (evasión). El vacío legal post-hiQ ha impulsado llamadas a reformas federales (ej. "Data Misappropriation Act" propuesto en 2025).
- Implicación para este caso: Éxito de Amazon depende de probar "evasión intencional" (no solo términos violados); Perplexity podría ganar si enfatiza control usuario y datos no "robados".
En resumen, la demanda es sólida en hechos de persistencia, pero vulnerable bajo jurisprudencia restrictiva de CFAA para accesos "públicos". El resultado podría sentar precedente para regulación de IA en plataformas cerradas. Para actualizaciones, monitorear el docket del caso.

INTELIGENCIA ARTIFICIAL JURIDICA

Conferencia Internacional sobre Inteligencia Artificial para el Derecho ICAIL, de 2026, Singapur.

  21a Conferencia sobre Inteligencia artificial y Derecho. Fecha: 8 al 12 de junio de 2026 Lugar Universidad de Gestión de Singapur Yong Pun...